Dossier : un CES 2013 riche en annonces

Le CES 2013 de Las Vegas vient de fermer ses portes. Des centaines d’annonces ont été faites dans le cadre de ce rassemblement. Pas moins de 24 ont fait l’objet d’un article au sein deSilicon.fr . Débutons notre dossier par un article de fond : «CES 2013 : une édition sous le signe de la connexion ».

D’un point de vue technologique, voici les grandes stars du CES 2013 la: mobilité et les processeurs. À commencer bien entendu par le Tegra 4 de Nvidia. Les annonces de la firme ont fait l’objet de plusieurs articles sur notre site :

Nvidia lance le Tegra 4, le plus puissant processeur ARM jamais conçu Tout sur le Nvidia Tegra 4 : fréquence, technologie et positionnement face à la concurrence Avec Nvidia Grid, le jeu 3D se transporte dans le cloud La technologie Grid Gaming System de Nvidia, en images

Nous avons assisté à une véritable déferlante de puces ARM :

ST-Ericsson pousse ses puces ARM à 2,5 GHz Qualcomm dévoile les Snapdragon 600 et 800 Puce Exynos 5 Octa, l’Hydre à 8 têtes de Samsung Broadcom se donne les moyens de percer dans la mobilité Huawei disposera d’un processeur ARM Cortex-A15 à 8 cœurs

Le monde x86 n’est toutefois resté inactif :

Intel lance ses nouveaux processeurs Atom et Core pour terminaux mobiles AMD présente les premiers SoC x86 quadricœurs du marché

Même l’architecture MIPS a eu son mot à dire :

Puce JZ4780 : le bras armé de l’architecture MIPS pour les tablettes

La mobilité… avant le MWC

Certains constructeurs n’ont pas attendu le Mobile World Congress 2013 de Barcelone (du 25 au 28 février) pour lancer de nouveaux terminaux mobiles. Commençons avec les smartphones :

Huawei Ascend Mate, le plus grand smartphone au monde Huawei lance le W1, son premier smartphone Windows Phone 8 Xperia Z et ZL, deux haut de gamme chez Sony Microsoft a vendu 5 fois plus de Windows Phone à Noël qu’en 2011 Lenovo K900 : le smartphone le plus fin du CES 2013 Six terminaux BlackBerry 10 en vue en 2013

Et poursuivons avec les tablettes : Acer joue la carte du low cost avec une tablette Android 7 pouces à 119 euros Panasonic mène l’offensive B2B avec la gamme ToughPad

Notez que nous avons également mis au point une galerie photos des smartphones et tablettes qui ont retenu notre attention. Vous la trouverez en bas de page, ou à cette adresse :Les « smartphones et tablettes du CES 2013 ».

De la technologie encore et toujours

Voici les autres sujets en relation avec le CES 2013 traités au sein de Silicon.fr :

SuperSpeed va doubler la vitesse de l’USB 3.0 Le Gorilla Glass 3 se veut toujours plus résistant Qualcomm déploie ses technologies au CES 2013 Lenovo ancre l’IdeaCentre Horizon dans l’ère du “PC Plus” QNAP crée du liant dans son offre

Pour aller (encore) plus loin, nous vous renvoyons vers nos confrères de NetMediaEurope, qui ont eu aussi largement couvert cet évènement.

Le CES 2013 chez ITespresso.fr Le CES 2013 chez Gizmodo.fr

Quiz Silicon.fr – Les temps forts du CES 2013 en dix questions

Les smartphones et tablettes du CES 2013

Visualiser ou chorégraphier les processus ? le long chemin du B.P.M. en France

Définir la stratégie commerciale de l’entreprise, embaucher un collaborateur, administrer les flux logistiques, traiter les factures… les entreprises exécutent des processus métier à tous les niveaux, parfois même sans le savoir. LaGestion des Processus Métier (ou BPM, Business Process Management) est un ensemble de méthodes et d’outils qui visent à gérer le cycle de vie des processus métier : conception, modélisation, simulation, exécution, automatisation, pilotage, diagnostique, optimisation…

Mettre en œuvre une solution de BPM consiste à modéliser et automatiser un ensemble d’activités en orchestrant les interactions humaines et les échanges de données avec le système d’information existant (ERP, CRM….).

Schématiquement, on distingue les outils deBPA (Business Process Analysis) qui permettent la cartographie, l’analyse et la modélisation des processus, et les outils deBPM (Business Process Management) qui traitent l’automation, l’exécution et la supervision des processus.

État du marché en France

L’amélioration des processus métier devient importante voire stratégique pour 91% des entreprises en France. C’est ce que révèle l’enquête menée par Le CXP sur les usages et les pratiques de la Gestion des processus métier en France en 2013. Ainsi 81 % d’entre elles ont déjà engagé une démarche d’amélioration de leurs processus métier.

Mais si l’importance de cette démarche est clairement perçue, les moyens mis en œuvre restent encore archaïques. Les processus sont encore souvent exécutés au moyen d’emails et de pièces jointes (fichiers Word et Excel). Seulement 23% des entreprises utilisent des outils BPA pour modéliser leurs processus et 17% des outils BPM pour en orchestrer le déroulement. Des chiffres confirmés par l’étude d’Ernst & Young « Panorama 2013 du Business Process Management. Le BPM en marche » : 23 % des répondants utilisent un outil de modélisation dans leur démarche BPM.

Comment expliquer cette ignorance des outils BPM en France ? Pour Capgemini qui a publié une version française de son rapport Enquête sur le marché du BPM en France, la faute reviendrait au manque d’implication des directions générales : seules 11 % des personnes interrogées affirment que le BPM est une préoccupation pour la Direction Générale et 54 % ont reconnu que la culture en silo des entreprises françaises est un frein à l’accomplissement des projets BPM.

Pour Ernst & Young et Le CXP, on retrouve le même son de cloche : direction peu impliquée, difficulté à mesurer le ROI, méconnaissance des outils, manque de compétences internes.

Un marché français atypique

En France, les outils les plus populaires (en renommée et en utilisation) sont selon Le CXP les solutions de Microsoft, Software AG et Mega. En open source, on trouve surtout Bonitasoft.

>

Microsoft

Curieusement, le principal vendeur d’outils BPM en France ne propose pas de suite BPM, mais un ensemble d’outils qui, mis bout à bout, permettent de réaliser du BPM. De ce fait, l’éditeur ne fait pas partie du fameux Forrester Wave BPM Suites Q1 2013. Pour faire du BPM, on pourra utiliser selon les cas Visio, SharePoint Server, SQL Server, Project Server…

Destiné à l’origine à dessiner des diagrammes, Visio s’est mué progressivement en outil de modélisation et de de validation de processus métier. C’est aujourd’hui l’outil le plus utilsé en France (58 % selon le CXP). Visio permet de déployer les workflows dans SharePoint. Ce dernier n’est pas à proprement parler un outil BPM, SharePoint est plutôt une plate-forme de collaboration permettant de capturer la connaissance de l’entreprise, de partager des documents, de créer des processus de gouvernance en utilisant les fonctionnalités de workflow.

Consolider les processus métier avec Project Server

DSI chez Solairedirect, premier producteur indépendant français d’électricité solaire, Benjamin Drieux-Falgon avait besoin de gérer des projets (documents juridiques, fiches techniques, études… ) en s’interfaçant avec l’ERP et la GED sous SharePoint. Il a choisi Project Server. «La combinaison Project Server, SharePoint et SQL Reporting Services apporte une gestion centralisée des projets, où chaque projet a son propre espace collaboratif. (…) Entre les efforts d’analyse et de remise à plat de nos processus consentis en amont et les fonctions avancées de Project Server, nous allons gagner en productivité et en sérénité » déclare Benjamin Drieux-Falgon.

Bonitasoft

Les administrations privilégient les solutions open source et Bonitasoft s’impose sur ce marché, mais également sur celui des PME avec peu de moyens. Patrice Salsa, DSI de la CFDT, avait besoin de revoir entièrement la gestion des 800 000 adhérents du syndicat, répartis aux quatre coins de la France, souvent en situation de mobilité. «Les enjeux étaient d’optimiser le temps des militants, de partager les outils informatiques et d’intégrer la génération Y. »déclare-t-il. Le choix s’est porté sur la solution Bonitasoft, capable de s’interfacer avec les applications Java existantes, mais aussi de permettre une démarche de prototypage/POC (Proof Of Concept). « Bonitasoft nous a permis d’offrir une meilleure expérience utilisateur dans la validation des données, une unification dans la présentation […] Au final, nous avons gagné en productivité, mais surtout une unification, une fiabilité et un pilotage centralisé des processus, avec une réduction de notre empreinte carbone » conclut Patrice Salsa.

Perspectives du BPM

Aux États-Unis, le BPM semble être entré dans les mœurs. Le rapport de CapgeminiGlobal Business Process Management Report révèle que 82 % des sondés au niveau mondial déclarent avoir à la fois une connaissance et une expérience pratique du BPM. L’optimisme est de mise pour les cabinets d’analystes américains comme Winter Green Research qui prévoitune croissance du marché des logiciels de BPM jusqu’à 7 milliards de dollars en 2018.

Le BPM a lui aussi son modèle de maturité, le BPM Maturity Model décrit par Gartner. On constate qu’il reste encore du chemin à faire pour atteindre le niveau 5 des processus maîtrisés.

Avec le Web 2.0, les entreprises commencent à intégrer lesocial dans leur stratégie : placer le client au cœur de la stratégie, être à l’écoute et réagir sur les réseaux sociaux. Les processus et les outils de BPM commencent à intégrer des foncions sociales (collaboration via messagerie instantanée, flux de statuts, partage de documents…). C’est le Social BPM.

Les solutions commencent à prendre en compte aussi

– lemobile : les collaborateurs sont de plus en plus mobiles et utilisent leurs appareils personnels au bureau (BYOD, Bring Your Own Device)

– les analytiques : de plus en plus de données temps réel (Big Data) provenant des réseaux sociaux, des objets connectés, des applications nécessitent des analytiques et de la Business Intelligence

– l’intelligence : pour gérer la complexité croissance des processus métier, utilisation d’agents intelligents (composants logiciels autonomes et apprenants)

– le cloud : de plus en plus les données et les applications sont déportées dans le cloud pour les rendre accessibles à tous et partout, et aussi pour faciliter la maintenance de l’infrastructure matérielle et logicielle de l’entreprise

C’est ce certains appellent le new business MoSAIC (Mobile, Social, Analytics, Intelligent and Cloud). Challenge : organiser la chorégraphie des processus de l’entreprise.

Malgré les quelques rares cas de projets BPM outillés menés à bien, le marché français reste timide et surtout pragmatique. Faute de pouvoir en mesurer le ROI, la gestion de processus peine à convaincre les entreprises françaises. Peut-être l’occasion de sauter le pas et d’entrer directement dans l’ère du New Business.

Pierre TRAN

Dossier : le Big Data va-t-il forcer le modèle L.A.M.P. à muter ?

Si l’on en croit, Bertrand Diard, un des entrepreneurs français qui a connu le les plus de réussite ces cinq dernières années avec la création de Talend, « le 20ème siècle restera marqué comme le siècle de la mondialisation et du numérique, le 21ème sera celui de la donnée ». Mais l’explosion des données, ce phénomène baptisé «Big Data» est il conciliable avec les actuelles infrastructures opensource ?

La priorité des sociétés actuelles – à commencer par les start-up, par définition innovantes, tournées vers l’avenir et au cœur des nouveaux usages – changent. Il ne s’agit plus simplement d’avoir une présence sur le Web au travers d’un site performant. Il faudra aussi de plus en plus être capable de résister à la vague de données qui s’annonce. Il faudra savoir surfer sur « l’augmentation de 650 % des données d’entreprise dans les prochaines années, dont 80 % seront non-structurées » prévue par Gartner pour en tirer un avantage concurrentiel.

Ce nouveau paradigme stratégique « du 21ème siècle » va-t-il emporter avec lui le modèle d’infrastructure jusqu’ici privilégié par de très nombreuses start-ups ? Possible. Mais pas sûr. Possible parce que Talend n’est en effet pas le seul à défendre cette idée d’une nouvelle ère. Tous les acteurs majeurs du secteur IT proposent leur solution maison pour séduire les jeunes pouces et leur faire choisir un modèle de serveur orienté Big Data plutôt que L.A.M.P.

Mais pas sûr, parce que la question se pose de savoir si les briques de LAMP ne pourraient pas elles-aussi s’adapter aux nouvelles exigences du Big Data. Et plus largement si le modèle lui-même ne pourrait pas évoluer (vers un L.A.N.P. par exemple : , Apache, NoSQL, PHP/Python/Pearl). Autant de questions que Silicon a posé à différents acteurs – qu’ils soient de l’open-source ou non – dans ce dossier sur les conséquences que ce changement de paradigme annoncé pourrait avoir sur LAMP.

A lire

I – Les Atouts d’une infrastructure L.A.M.P. (Linux, Apache, MySQL, PHP) II – LAMP à l’heure d’une nouvelle ère : vers un LANP ou vers un nouveau M ? Interview : AIvin Richards, 10gen : « Aujourd’hui le M de L.A.M.P., c’est MongoDB » Interview : Olivier Chouraki, MADGIC : « MySQL est rapidement devenu le goulot d’étranglement de notre architecture » Interview :Benoît Jacquemont, SMILE : « PHP est devenu un vrai langage pour l’entreprise » Interview : Pierre Couzy, Microsoft : «Windows Azure permet de déployer une stack LAMP sur IaaS »

I – Les Atouts d’une infrastructure L.A.M.P. (Linux, Apache, MySQL, PHP)

Avant de voir s’il a atteint ses limites, ou s’il est dépassé, il faut revenir sur les bases qui ont fait le succès de LAMP. A la fin des 90, le modèle a été une révolution dans le monde des serveurs. Il prouvait sans contestation possible que des solutions open-sources pouvaient être aussi complètes que les solutions propriétaires et les concurrencer. Depuis, cette révolution est devenue un grand classique. Un classique qui n’a pas stagné. Bien au contraire. Chacune de ses couches a évolué et s’est améliorée au fil du temps grâce à des communautés très actives. Et même si de nouvelles questions pèsent sur ce modèle – notamment l’avenir de MySQL – il conserve à bien des égards de très nombreux atouts.

Le premier est d’être simple. Composé de quatre briques –Linux pour le noyau du serveur, sur lequel se greffe le serveur WebApache , la base de données MySQL, le tout complété par du PHP/Python/Pearl – la stack est robuste, éprouvée, simple à mettre en place et a montré son efficacité.

Linux est né en 1991 des travaux d’un étudiant devenu célèbre : Linus Torvald. En le faisant passer sous licence GNU/GPL en 1992, Torvald donne un nouvel élan à son projet qui attire de très nombreux contributeurs. D’une ébauche de noyau, Linux devient un OS qui offre tous les avantages de l’open-source : gratuit, ouvert, modifiable et adaptable, évolutif, soutenu par une communauté… autant de caractéristiques qui assureront son succès auprès des Webmestres.

Mais se sont ses performances au sein de LAMP qui lui a permis de s’imposer face à UNIX, l’autre OS open-source. Un des éléments qui a su séduire est l’optimisation extrêmement poussée entre son Kernel det le serveur Web Apache. C’est par exemple au niveau du noyau que se gère la gestion de la concurrence (le dispatch des visiteurs en fonction de la charge de travail). Avec pour résultat des performances remarquables – voire inégalées.

Apache justement. D’après Netcraft, plus d’un serveur HTTP sur deux (58 %) est un serveur Apache. Un succès qui s’explique pêle-mêle par sa modularité, les nombreux langages qu’il est capable d’interpréter (Perl, PHP, Python et Ruby) et surtout ses grande possibilités de configuration. Tout comme le Kernel Linux sont intimement liés, Apache etPHP forment un duo. le mod_php d’Apache est particulièrement rapide quand il s’agit de processer du PHP (plus que que PHP-CGI). Technologie phare sur le Web côté serveur, le langage PHP est à l’origine (en 1994) une bibliothèque logicielle en Perl créé par Rasmus Lerdorf pour enregistrer le nombre de visteurs ayant consulter son CV sur son site web.

Là encore, c’est la facilité qui en a assuré le succès. Peu typé, souple, pragmatique, le langage est simple à prendre en main. Son installation ne pose pas de problème. L’accès aux bases de données bénéficie de nombreux modules et ses fonctionnalités ne cessent de s’enrichir. Presque vingt ans plus le langage fait partie des incontournables indétrônables du Top 10 de l’Index TIOBE.

Ne restait plus qu’à trouver une base de données pour avoir une offre complète. PostgreSQL, plus ancien et lui aussi open-source, aurait pu remporter la partie. Mais c’est bien MySQL – crée en 1995 et dont le nom est un mélange de celui de la fille de son co-créateur Michael Widenius (My) et de SQL (Structured Query Language, son langage de requête) – qui est devenu le plus populaire.

Directement utilisable en production, avec des performances élevées en lecture, sans configuration particulière, multi-OS, multi-langage, multi-thread et multi-utilisateur, MySQL est aussi plus rapide sur les faibles volumes que PostGreSQL du fait qu’il n’effectue pas de tests d’intégrité. Depuis la version 3.23.15, MySQL permet également de gérer la réplication très facile à mettre en place (même si elle ne permet qu’une redondance limitée)… Seul défaut, bien que théoriquement non plafonné, MySQL devient moins performantes sur les gros volumes de données complexes, alors que PostgreSQL peut travailler avec des bases dde plusieurs Teras. Mais la simplicité était du côté de MySQL.

Au final, et en plus des atouts liés à chacune de ses briques, ce mariage des quatres technologies au sein de LAMP est bon marché. Il ne demande pas d’achat de licences particulières (toutes les briques sont gratuites – hors frais de support éventuel) ce qui en fait une alternative à faible coût comparé aux outils propriétaires. Bref, en 1998 – année ou pour la première fois le magasine allemand de référence C’t utilise cet acronyme – tout était en place pour l’émergence de cet ensemble alternatif, modulaire et flexible.

Autre point crucial, la stack est très facile à essayer. A l’opposé, les solutions de traitement intensif de données propriétaire comme HANA – celles qui pourraient rendre LAMP caduque – ont un coût non négligeable. Et pas de version Freemium pour les tester. SAP le sait et propose depuis peu sa base in-memory en mode Cloud après une certification sur AWS pour réduire les couts d’entrée (environ 4$ de l’heure). Mais un inconvénient persiste par rapport à une particularité de l’open- source qui a fait le succès de LAMP : HANA requiert des spécificités matérielles particulières. Il n’est toujours pas possible de la télécharger et de la tester telle quelle.

A supposer qu’une solution orientée Big Data soit plus en adéquation avec les besoins futures des entreprises, celle-ci ne pourra remplacer LAMP dans de nombreux projets qu’en respectant ces deux conditions : universalité du support et simplicité de mise en place. Or une telle solution n’existe pas… Sauf à faire évoluer LAMP ?

A l’usage, LAMP s’est en effet imposé par sa légèreté. Une légèreté que la concurrence (Windows Server / IIS / SQL Server / ASP.NET ou dans un univers JAVA du JBOSS ou du Tomcat) a souvent qualifié de “limite”. Mais au vue de la popularité actuelle de LAMP, celle-ci reste bien un atout.

Tout comme l’autre autre mot clef de LAMP : l’adaptabilité. Cette capacité à évoluer et à être « tout terrain » tient d’une part à la possibilité d’intégrer de nouvelles technologies dans le mix (PHP peut par exemple être remplacé par du Python ou du Perl et inversement) et d’autre part à des communautés très actives sur chaque brique.

Un simple exemple. LAMP est d’ores et déjà prêt à supporter les architectures ARM du simple fait que le noyau Linux l’est. Celles-ci ne sont pas encore très répandues dans le monde des serveurs mais la recherche continue de gains d’énergie dans les datacenters les rend de plus en populaires.

Les serveurs LAMP continuent d’ailleurs à s’adapter aux évolutions. Notamment au IAAS. Ou pour le dire de manière plus juste, la popularité actuelle du modèle a poussé les responsables des nouvelles offres Cloud à les rendre compatibles avec LAMP. Il est ainsi aujourd’hui parfaitement possible de mettre la stack entière sur une machine virtuelle sur Windows Azure ou AWS pour bénéficier de la scalabilité de ses solutions ET des avantages de LAMP.

Reste que – malgré cette adaptation au Cloud – l’accélération de la volumétrie des données à traiter pourrait tout de même donner un coup de vieux aux serveurs LAMP, peu adaptés originellement au Big Data. Une crainte renforcée par la consumérisation de l’IT qui semble se faire aussi sentir dans les technologies pour serveurs. Les entreprises veulent de plus en plus aller vers ce qu’il y a de plus simple avec des solutions « out of the box » qui n’ont plus besoins d’être déployées (comme SAP HANA One ou l’alliage HADOOP-SQL Azure sur Windows Azure), et dont les parties techniques et de maintenances sont externalisées.

Bref, « un clef en main » à l’opposé de l’esprit de LAMP qui est – pour le meilleur et pour le moins bon – le représentant parfait du « faites le vous-mêmes » pour garder la maîtrise de la technologie, de ses données et de la totalité de sa stratégie IT. Des atouts qui poussent de nombreux utilisateurs de solutions open-source à appeler de leur vœux un « LAMP-like » pour le Big Data : simple, robuste, ouvert, universel et standardisé.

II – LAMP à l’heure d’une nouvelle ère : vers un L.A.N.P. ou vers un nouveau M ?

Dans son article «De Nouveaux Outils pour une Nouvelle ère », Ravi Kalakota, consultant et auteur de l’ouvrage E-Business 2.0: Roadmap for Success, constatait qu’« avec le Big Data, c’est la première fois en 30 ans que nous repensons les bases de données et la manière de gérer les informations ». Une ère sous le signe de Hadoop, NoSQL, BIgTable et autres Appliances comme Oracle Exadata Database Machine ou SAP HANA qui pourraient rendre caduques des outils qui ne savent pas gérer ces problématiques.

Les commerciaux de SAP, Amazon, Microsoft ou Oracle ne se privent d’ailleurs pas pour faire remarquer aux Startups qu’elles auront de gros problèmes pour gérer leurs serveurs lors de la montée en charge si elles commencent sur un modèle LAMP. On l’aura compris, si ces prévisions se confirment et que le Big Data d’aujourd’hui devient le Normal Data de demain, le gros point faible de LAMP se trouvera au niveau sa brique SGBD.

L’air du temps va-t-il rendre MySQL caduque ? En tout cas Oracle a changé le discours marketing et ré-oriente de plus en plus la base de données vers les seules usages webs, laissant le marché des entreprises et des applications critiques à Oracle Database.

Si on élargit la réflexion sur cette brique, on peut également se demander si MySQL a un avenir tout court avec la défiance du monde open-source envers Oracle. Pas de roadmap claire sur le long terme. Augmentation des tarifs de support. L’arrivée de nouvelles alternatives communautaires comme MariaDB (fork du créateur de MySQL) avec de nouveaux supports comme SkySQL.

Sans oublier le fait que MySQL deviendrait moins ouvert. C’est ce qu’affirme en tout cas Sergei Globuchik, Vice Président de MariaDB, en constatant la disparition de tests unitaires et d’un certain nombre d’historiques de révision qui permettaient aux implémentations alternatives de garder un maximum de compatibilité avec la base originale. Une évolution qui pourrait rapidement pousser LAMP à changer son M pour le P de PostgreSQL Ou pour le N de NoSQL) pour devenir le meilleur « LAMP-like » capable de traiter ces nouvelles problématiques du Big Data.

En fait, comme le rappelle Ravi Kalakota, une solution open-source existe déjà pour cette « nouvelle ère » qu’il décrit. Elle s’appelle MongoDB. « MongoDB est devenu la base de donnée leader dans le NoSQL avec plus de 100.000 téléchargement par mois ». Et cerise sur le gâteau, elle commence par un M.

Son installation au côté de Apache, de PHP/Pearl/Python (pour lesquels MongoDB est livré avec des pilotes, même si son langage natif est le JavaScript) et d’une distribution comme Ubuntu Server reste très simple. Autre avantage, MongoDB possède un connecteur pour une des technologies phares les plus à même de s’imposer comme un standard dans le Big Data : HADOOP. Résultat, des voix s’élèvent pour demander son intégration pour redonner un coup de fouet au modèle LAMP.

C’est une piste intéressante que défend Guy Harrison, vice-président de la R&D de l’unité Database Management chez Quest Software (Dell). Pour lui, « MySQL n’a pas fait le succès de LAMP parce qu’il était plus rapide ou plus sûr que les alternatives d’Oracle, mais parce qu’il était plus simple à déployer, à administrer et moins coûteux. […] De la même manière, le choix de MongoDB oblige à des compromis quand on le compare à la concurrence. Mais il est économique et developer- friendly ». Et de conclure que pour lui MongoDB est à la fois « le MySQL du monde NoSQL » et « un nouveau M potentiel pour LAMP ».

Malheureusement, tout ceci n’est qu’une éventualité. Il n’y a pas encore à proprement parler de stack « LAMP-like » pour le Big Data et l’introduction de MongoDB n’est pas à l’ordre du jour. Conséquence, la concurrence se positionne sans attendre cette mutation de LAMP. Car les éditeurs de solutions propriétaires, s’ils ne donnent pas dans l’open-source, ont en partie retenue la leçon que leur a infligé la stack. Leurs solutions ne sont pas facilement testables ? Qu’à cela ne tienne. Le Cloud permet d’essayer in-situ.

Des briques open-sources sont plus performantes que les briques maisons ou les clients ne veulent pas tout acheter chez un seul fournisseur ? Pas de problème… L’ouverture est devenue une règle commerciale parfaitement intégrée. A tel point que des observateurs de l’open-source comme Dan Woods, journaliste pour Forbes et auteur d’une vingtaine de livres dont « Open Source for the Enterprise », prédisent que le (ou les) prochain(s) modèle(s) de référence pourrai(en)t être hybride(s).

Reste une question sur le Big Data lui-même. S’il y bien une leçon que LAMP a donné, c’est celle que pour réussir, il faut faire simple. Or aujourd’hui, aucune solution de traitement de données intensives n’est vraiment pratique. En tout cas aussi pratique qu’un LAMP ou suffisamment pour s’imposer jusque dans les PME. Hadoop par exemple n’est pas une usine à gaz. Mais pour certains ce n’est pas loin d’être le cas.

En résumé, sur le long terme, c’est la capacité de LAMP à évoluer et à répondre aussi à la combinaison des 3 V – volume, vitesse, variété – qui fera la pérennité du modèle. Mais c’est bien la simplicité que cherche les entreprises. Et aucune autre stack ne « ringardisera » LAMP sur ce point.

« C’est une opportunité pour des startups comme Cloudera qui cherchent à faire grandir l’écosystème d’Apache Hadoop en rendant son usage plus simple », note Ravi Kalakota. Pour mémoire, Cloudera est une distribution d’Hadoop (un outil graphique desktop pour gérer Hadoop).

En attendant, le Big Data n’est pas à la portée de tous. Et cette situation est aussi une chance pour LAMP. Car, entre les solutions open-source pas encore assez « user-friendly » et des solutions propriétaires payantes – et encore coûteuse pour des PMEs – le modèle pourrait bien rester le choix de prédilection des entreprises, notamment de celles qui débutent.

Conclusion :

LAMP dépassé pour les TPE et petites PME qui ne veulent pas s’occuper de leurs infrastructures IT ? Oui. Par le Cloud et les outils clefs en main. La consumérisation de l’IT – poussé par les grands acteurs du marché- comme Microsoft qui pour la première fois propose de tester Windows Server sans serveur, directement dans Azure – peuvent mettre à mal un modèle simple, mais à déployer soi-même.

LAMP pas scalable pour le Big Data ? Pour l’instant non (il faut dire qu’à la base, il n’a pas été conçu pour cela). Mais avec une nouvelle brique comme MongoDB (ce qui répondrait au passage aussi bien aux problématiques Big Data que e-commerce), l’histoire pourrait connaître un rebondissement.

Mais en attendant l’évènement de cette nouvelle ère tant annoncée, LAMP brille toujours dans le royaume des serveurs. Et pour briller également dans le Cloud, virtualisé. C’est en tout cas le second souffle qu’on lui souhaite pour ses usages traditionnels.

A lire

Interview : AIvin Richards, 10gen : « Aujourd’hui le M de L.A.M.P., c’est MongoDB » Interview : Olivier Chouraki, MADGIC : « MySQL est rapidement devenu le goulot d’étranglement de notre architecture » Interview :Benoît Jacquemont, SMILE : « PHP est devenu un vrai langage pour l’entreprise » Interview : Pierre Couzy, Microsoft : «Windows Azure permet de déployer une stack LAMP sur IaaS »

Dossier : Linux s’impose dans le monde des affaires

Technologie libre et ouverte, Linux a fait ses premiers pas dans la recherche avant de s’imposer dans l’entreprise, des grandes administrations aux places boursières.

Dans ce dossier exclusif, nous allons voir comment Linux s’est imposé. Ses racines communautaires et sa large adoption par l’industrie, sa présence sur les marchés de la finance et du calcul de haute performance (HPC), et – enfin – les liens présents entre Linux et le web, le cloud ou encore le big data :

Partie 1 : Linux, un écosystème communautaire – Partie 2 : Finance et HPC sous Linux – Partie 3 : Linux, Big data, Cloud et World Wide Web –

Le tout avec les interventions de (dans l’ordre de citation) : Thierry Pierre (SAP), Philippe Beauchamp (IBM), Hervé Lemaître (Red Hat), Jérôme Fenal (Red Hat), Philippe Desmaison (SUSE) et Jean-Pierre Laisné (Bull).

I – Linux, un écosystème communautaire

Le noyau, qui forme le cœur des OS Linux, est le fruit d’un des plus larges projets coopératifs dans le monde du logiciel, à ce jour.

Selon la Linux Foundation, consortium industriel à but non lucratif qui compte le créateur du noyau Linux (1991), Linus Torvalds, 42 ans, parmi ses membres, plus de 7800 développeurs employés par 800 entreprises différentes ont contribué aukernel (noyau) Linux depuis 2005, lorsque la mesure a débuté. S’il est important de saluer la contribution bénévole de « volontaires », il est utile de noter que 75 % de l’ensemble des développements du noyau sont réalisés par des développeurs rémunérés pour leur travail.

Ainsi, entre la version 2.6.36 et 3.2 du noyau, sorties respectivement en août 2010 et janvier 2012, le top 10 des entreprises qui sponsorisent ces développements était le suivant :

Red Hat – qui par la voix de son président,Jim Whitehurst, déclare supporter 72 versions différentes du kernel et faire remonter l’ensemble de ses correctifs vers la communauté – Intel, Novell (propriétaire de SUSE de 2003 à 2011), IBM, Texas Instruments, Broadcom, Nokia, Samsung, Oracle et Google.

Le groupe informatique français Bull, de son côté, a été très tôt un contributeur du monde Linux (noyau et temps de latence, gestion de la mémoire, architectures multiprocesseurs…) et de différents consortiums open source (OSDL, Eclipse, Linux Foundation, Apache, JCP…).

Les multinationales contribuent au développement de l’OS libre et en tirent profit, en témoigne l’exemple de SAP. « Ce que nous propose Linux c’est d’être maîtres à bord ,» déclare Thierry Pierre, directeur business development chez SAP France.

Avant d’ajouter : « Faire tourner une distribution supportée – SUSE Linux Enterprise Server ou Red Hat Enterprise Linux – pour notre base de données en mémoireSAP HANA, appliance adaptée aux enjeux du temps réel et du Big Data, permet à nos clients de maximiser la valeur de notre technologie in-memory. »

HANA (High-Performance Analytic Appliance) regroupe matériels et logiciels de nouvelle génération. L’offre permet de stocker des données directement en mémoire, plutôt que sur des disques durs lents et volumineux, et d’analyser d’importants volumes de données, analytiques, transactionnelles.

La technologie in-memory permet, en outre, de mener des opérations en temps réel et de faire des calculs à la volée. Les algorithmes de compression et de structures de base en colonne permettent des gains en temps de réponse considérables. « Un seul lieu, un seul contenant pour des données en convergence et une stratégie de coût optimisée grâce à l’open source », ajoute Thierry Pierre.

Côté hardware, SAP HANA tourne sur des systèmes IBM, HP, Bull, etc.

L’appliance a été lancée en mai 2010 et sa disponibilité générale a été annoncée début 2011…« À l’heure actuelle, HANA est utilisée par 100 entreprises clientes en Europe, 600 au niveau mondial, et 500 déploiements sont en cours. HANA bénéficie d’une adoption hors norme pour un produit SAP », poursuit-il.

Quant au ROI, il varie en fonction du business case.« Un transporteur qui parviendra à optimiser le trafic de sa flotte de 10 % aura un excellent ROI, un installateur de compteurs électriques intelligents s’intéressera au service rendu/perçu par le particulier. D’autres auront une approche (de la rentabilisation) purement technique », conclut Thierry Pierre.

Ce point de vue est partagé par IBM, qui a adapté son offre au marché des serveurs « économiques » avec la gamme PowerLinux. Dédiés à l’analyse de volumes massifs de données Big( Data), au déploiement de solutions applicatives industrielles et de services d’infrastructure open source, les serveurs PowerLinux fonctionnent en standard (support inclus) avec Red Hat Enterprise Linux ou SUSE Linux Enterprise Server.

« Les serveurs PowerLinux sont basés sur des systèmes/processeursPower équipés d’un socket IBM( PowerLinux 7R1) ou deux sockets (IBM PowerLinux 7R2). Ils peuvent inclure jusqu’à 16 cœurs et intégrer des fonctions de virtualisation (PowerVM) et de gestion de serveur virtuel (IBM Systems Director VMControl) ,» précise Philippe Beauchamp, chef de produit chez IBM France.

« Ces serveurs, facturés à partir de 11.900 euros (19.000 euros avec virtualisation) sont conçus pour concurrencer les serveurs x86 en termes de coûts et de performances », ajoute-t-il.

Ainsi, d’après IBM, un cluster Hadoop constitué à partir de la technologie PowerLinux peut traiter un téraoctet de données plus de deux fois plus vite qu’un cluster basé sur du matériel x86 classique (source : IBM Research Report – avril 2012). Un autre exemple : pour les déploiements SAP, PowerLinux réduirait les temps d’indisponibilité de 43,2 % par rapport à Windows (source : Solitaire Interglobal – octobre 2012).

Les principaux atouts de PowerLinux sont donc :« ses performances, son prix et la sécurité de l’ensemble », insiste Philippe Beauchamp. Avant de préciser : « Plus de 100 clients en Europe ont adopté PowerLinux, un produit annoncé en avril 2012. Parmi eux, des entreprises de taille intermédiaire et des universités ».

Le secteur public n’est pas en reste en ce qui concerne l’intégration de l’OS libre et ouvert. Cependant, l’administration française préfère communiquer sur les déploiements desktop et bureautique, plutôt que sur les déploiements serveurs.

Ainsi, la Gendarmerie nationale a confirmé migrer chaque année près de 10.000 de ses postes informatiques sous Ubuntu, distribution Linux sponsorisée par Canonical, avec l’objectif d’équiper 90 % de ses 85.000 PC d’ici 2015, et d’en convertir 4500 en serveurs Linux.

Bien que l’initiative ait fait l’objet d’un communiqué de Canonical en novembre 2010, ladécision a été annoncée par la Gendarmerie nationale dès janvier 2008 lors du Salon Solutions Linux.

À l’époque, la Gendarmerie utilisait déjà la suite bureautique libre OpenOffice.org ainsi que Firefox et Thunderbird, navigateur web et messagerie de la Fondation Mozilla.

Parallèlement à ces déploiements, la Gendarmerie cherchait une alternative à Windows avec un double objectif : réduire ses coûts en limitant l’achat de licences de logiciels et gagner en indépendance vis-à-vis de l’éditeur. Ce thème reste d’actualité au sein de l’administration, en témoigne la circulaire de Jean-Marc Ayrault sur le logiciel libre datée du 19 septembre 2012.

Le choix de Linux au sein de la Gendarmerie, indiquait alors le commandant Jean-Pascal Chateau (promu lieutenant-colonel depuis), n’était pas un choix technique, mais financier. L’initiative aurait permis à l’institution d’économiser 2 millions d’euros par an.

Le secteur financier a lui aussi à cœur d’optimiser ses transactions avec Linux.

II – Finance et calcul haute performance (HPC) sous Linux

Le London Stock Exchange Group (LSE), propriétaire des Bourses de Londres et de Milan, a annoncé en septembre 2009 acquérir MillenniumIT, prestataire informatique basé au Sri Lanka, à la fois intégrateur de systèmes et éditeur de logiciels, pour la somme de 18 millions de livres sterling (environ 30 millions de dollars).

MillenniumIT compte parmi ses clients : l’American Stock Exchange, le Boston SE, l’Oslo Børs, le Delhi Stock Exchange et la Bourse d’Égypte… L’occasion pour le LSE Group de proposer ses propres services IT aux places boursières et établissements financiers.

L’opération a surtout permis au groupe britannique d’intégrer l’entité qui allait accompagner la migration fin 2010 de ses plateformes d’échanges sousLinux à la LSE (Millennium Exchange et SUSE Linux Enterprise Server en remplacement de TradElect, Infolect et d’autres basées sur les technologies Microsoft).

Grâce à cette migration, le groupe LSE estime avoir réduit ses coûts d’exploitation et de développement IT d’environ 10 millions de livres sur son exercice fiscal 2011-2012.

« Pratiquement toutes les places boursières ont choisi Linux, 8 sur 10 selon la Linux Foundation, dont NYSE Euronext et la Deutsche Börse, qui ont opté pour la distribution et des solutions Red Hat (RHEL, Red Hat Enterprise MRG…) », indiquent Hervé Lemaître, manager architecte solutions et responsable avant- vente, et Jérôme Fenal, chargé des grands comptes secteur public et finance chez Red Hat France.

C’est également le cas d’importantes banques d’investissement, commeJPMorgan Chase & Co., qui a initié le développement d’AMQP (Advanced Message Queuing Protocol), un protocole ouvert pour les systèmes de messagerie orientés intergiciel (middleware).

« Les établissements financiers et bancaires de Wall Street sont des early adopters de Linux et, parfois, des contributeurs », poursuivent MM. Lemaître et Fenal. En témoigne l’arrivée en 2010 d’Ulrich Drepper, auteur et mainteneur de plusieurs projets libres, dont la GNU C Library (glibc), au sein du département technologie de Goldman Sachs, après avoir travaillé chez Red Hat et Cygnus Solutions.

Quel est le point de vue de SUSE, concurrent de Red Hat ?

Pour une organisation, le choix de Linux, quelle que soit la distribution, est opéré par plusieurs facteurs :

« Il s’agit d’abord de retrouver “génétiquement” ce qui fait la puissance d’UNIX. Ce marché a vu ses revenus baisser, à l’inverse des serveurs de type x86 (lemarché mondial des serveurs UNIX a baissé de 20,3 % au second trimestre 2012 par rapport à la même période l’an dernier, en termes de revenus, selon IDC), » observe Philippe Desmaison, directeur technique de SUSE France.

De plus, Linux permet aux grands comptes de s’équiper de systèmes performants (traitement de données en volume, puissance multicore…) à moindre coût. « Dans le monde Linux, ce qui s’achète, se vend, c’est la maintenance et le support. Les dépenses d’investissement (CAPEX) sont quasi-nulles et il est possible de réduire drastiquement les dépenses d’exploitation (OPEX) », souligne-t-il.

Ensuite, il y a la dimension open source. « Celle-ci permet aux organisations de ne plus être dépendantes d’un système verrouillé, d’opter pour la distribution de leur choix et de s’appuyer sur différents partenaires, bien que le projet puisse être piloté par un seul acteur », poursuit M. Desmaison. Celui-ci ci ajoute que les entreprises et administrations qui optent pour SUSE Linux Enterprise – distribution prise en charge par les principales architectures matérielles, dont Intel et AMD x86 32 et 64 bits, Intel Itanium, IBM Power et System z – le font, en priorité, pour une question de coûts « car nous sommes moins chers ».

Sur le marché des distributions Linux commerciales, SUSE est le numéro 2 mondial, derrière Red Hat. Les deux sociétés, l’une d’origine européenne, l’autre américaine, ont tissé« une relation de coopétition ». Elles sont donc à la fois concurrentes et partenaires, puisque toutes deux travaillent sur le même produit, Linux, et contribuent à son développement collaboratif.

Elles ont, néanmoins, adopté des stratégies bien différentes :

Red Hat se présente comme « le premier fournisseur mondial de solutions open source ». La firme entre en concurrence directe avec de puissants éditeurs de logiciels et fournisseurs de services en nuage, dont Microsoft, VMware et Google, sur différents segments de marché, parmi lesquels : les systèmes d’exploitation (avec Red Hat Enterprise Linux – RHEL), le middleware (JBoss Enterprise Middleware), la virtualisation (Red Hat Enterprise Virtualization – RHEV), le cloud (OpenShift), etc.

SUSE, de son côté, met l’accent sur l’interopérabilité de son offre, SUSE Linux Enterprise (OS, extensions, support et services), son intégration au sein de SI complexes, d’environnements physiques, virtuels et en nuage.

Comment dans ce contexte répondre aux problématiques des entreprises et administrations liées au calcul haute performance (HPC) ?

« Le marché nous dicte son besoin. Le HPC (High-performance computing) a émergé dans les laboratoires et centres de recherche, ces mêmes laboratoires et grands comptes travaillent avec Linux depuis des années… Linux est donc un standard de fait dans le HPC », affirme Jean-Pierre Laisné, directeur de la stratégie open source de Bull, vice-président du consortium OW2 et cofondateur de l’AFUL.

Pour répondre aux besoins de grands groupes, universités et laboratoires, Bull fournit des systèmes, dont la gamme bullx, sur une base Linux (Red Hat Enterprise Linux ou Suse SLES & bullx supercomputer suite) optimisée pour le HPC. « Avec Linux, OS libre et ouvert, les clients ont accès aux mêmes types de données que les constructeurs, c’est un gage de transparence, de sécurité et de confiancelorsque l’on intervient dans des environnements informatiques complexes. Chez Bull, nos clients sont aussi experts que nos ingénieurs. Nous parlons le même langage ! », constate M. Laisné.

Qu’en est-il de la réduction du temps de latence permise par Linux ? Red Hat, par exemple, propose Red Hat Enterprise MRG Realtime, une variante de RHEL avec un noyau qui permet de répondre à tout évènement en 8 microsecondes.

Chez SUSE, l’Extension Real Time associée à SUSE Linux Enterprise permet également de diminuer les temps de latence grâce à un noyau en temps réel prioritaire et à l’identification de threads d’application spécifiques.

La capacité de Linux à combiner volume et vitesse de traitement des données explique-t-elle, à elle seule, le succès de l’OS auprès des grands comptes ?

III – Linux, Big data, Cloud et World Wide Web

Chez IBM, indétrônable au Top 50 des sociétés de services IT en France, le succès de Linux dans le monde des affaires passe forcément par la qualité du support.

« Toutes les solutions matérielles et logicielles proposées par IBM pour les besoins HPC sont certifiées sous Linux. IBM propose également des services d’accompagnement à la réalisation de benchmarks, aux tests, à la mise en œuvre et aux optimisations des infrastructures HPC sous Linux », déclare la direction du groupe.

SUSE, de son côté, promeut les partenariats stratégiques signés avec des poids lourds du logiciel propriétaire, des appliances et du mainframe. On retrouve IBM parmi ces multinationales, mais également Microsoft, SAP et VMware. Enfin, comme Red Hat, SUSE travaille avec des constructeurs spécialistes du HPC, dont Silicon Graphics (SGI) et Bull.

« Les organisations, les directions des systèmes d’information, ne se demandent plus si Linux est à la hauteur en termes de performances, de robustesse et de sécurité », rappelle Philippe Desmaison (SUSE).

Linux équipe près de 94 % des supercalculateurs à travers le monde, dont Titan ( – États-Unis), Sequoia (IBM – États-Unis), K computer (Fujitsu – Japon) ou encore Curie (Bull – France) (source : Top500.org – novembre 2012), contre 4 % pour Unix, 0,6 % pour Windows, 0,2 % pour BSD, et moins de 1,4 % pour les systèmes mixtes. Par ailleurs, comme nous l’avons observé en 1ère partie, 80 % des places boursières à travers le monde utilisent Linux, de même que les pure players du web tels que Google, Amazon, Facebook, Twitter, eBay…

Ces entreprises sont de grosses consommatrices de données et de puissance de calcul. Sur ce segment de marché, Red Hat propose Red Hat Enterprise MRG Grid, une solution d’informatique haute performance (HPC) et haut débit (HTC, high-throughput computing), avec laquelle il est possible de migrer vers un modèle de grille informatique basé sur un Cloud.

Il est aussi possible d’ajouter à Red Hat Enterprise Linux des extensions, telles que High Performance Network, Scalable File System et Resilient Storage. La société, qui a racheté Gluster l’an dernier, a également adapté son offre de stockage (Red Hat Storage) et de virtualisation (Red Hat Enterprise Virtualization – RHEV) à la demande des organisations confrontées à l’explosion des données (Big data).

Aujourd’hui, Linux est partout : « dans le nuage, les serveurs web avec la stack LAMP (Linux, Apache, MySQL, PHP), les grands systèmes, les supercalculateurs, les terminaux mobiles, smartphones et tablettes… », conclut Jean-Pierre Laisné (Bull). « Linux fait partie de l’industrie. Les atouts de Linux sont nombreux, à commencer par ses performances et sa versatilité. On peut le moduler, le personnaliser très facilement, l’embarquer… »

Tout cela grâce à un système libre et ouvert, mais pas forcément gratuit…

Les distributions orientées « grand public » comme Ubuntu (Canonical), Fedora (Red Hat) et OpenSUSE (SUSE) le sont. En revanche, le coût d’une distribution commerciale, qui reste réduit par rapport à celui d’un OS propriétaire, varie en fonction de différents critères : Niveau de support et services associés, configurations matérielles (2, 4, 8 sockets…), environnements d’exploitation (physiques, virtuels), type et durée de souscription/abonnement.

Globalement, la valeur ajoutée de Linux est le fruit du partage et de la diffusion des connaissances, mais aussi de la mutualisation des coûts et des risques.

Différents développements ont permis à Linux de s’adapter à de multiples terminaux, des smartphones aux supercalculateurs. L’augmentation dunombre de dispositifs connectés, la montée en puissance de l’Internet des objets et l’accélération du cloud computing offrent à l’OS libre d’intéressantes perspectives.

Cette logique hardware doit se poursuivre observe Linus Torvalds . « Si vous faites les mauvais choix, s’il s’avère que cela ne fonctionne pas lorsque vous utilisez 200 CPU, d’ici 10 ans vous pourriez être totalement largué ».

LeWeb 2012 : reportage… en vidéos

Dans le cadre de l’évènement LeWeb 2012, l’équipe éditoriale deNetMediaEurope s’est mobilisée pour réaliser une couverture en vidéo de cette rencontre. Nous avons sélectionné quelques-uns des entretiens les plus intéressants pour notre cible lecteurs.

Commençons par l’Internet des objets, cœur de cible de cette édition de LeWeb :

Ludovic Le Moan, Sigfox

Albert Szulman, Altheia

Rafi Haladjian, Sen.se

Rodrigo Sepulveda

Jean Louis Constanza, Orange Vallée

Bernard Louis Roques, Truffle Capital

D’autres sociétés étaient venues présenter leur stratégie :

Jean Louis Baffier, Salesforce.com

Olivier Fecherolle, Viadeo

Jon Oringer, Shutterstock

Stephanie Hajjar, SFR

Catherine Le Drogo Ferrari, Orange

Michele Barbera, Spazio Dati

Olivier Binet, PayPal

Karl Harriau, Yammer

Jean Ferré, Microsoft Et d’autres leurs produits et services :

Jerome Granados, GoodBarber

Thomas Serval, Radioline

Paul Gerhardt, Lockitron

Joel Bloch, Tag’By

Manuela Semenzin, Business Wire

Tony Fadell, Nest

Stéphane Moracchini, Bunchcast

Marko Ahtisaari, Nokia Design

Ilan Abehassera, Producteev

Franck Perrier, Digital Academy

Terminons par la présentation de quelques offres originales…

Paul Berberian, Orbotix (Sphero)

Fabrice Boutain, HapiLabs (Hapi Fork)

L’ensemble des vidéos réalisées par NetMediaEurope lors de LeWeb 2012 se trouve ici.

Voir aussi Internet est-il prêt pour l’Internet des Objets ?

Un dossier exclusif pour les 20 ans du ThinkPad

Le 5 octobre 2012, Lenovo fêtait les 20 ans du ThinkPad, la plus célèbre gamme d’ordinateurs portables professionnels du marché. Des machines auparavant vendues sous la marqueIBM . Un évènement qui valait bien un dossier.

Nous avons tout d’abord retracé l’histoire de cette famille de machines : à travers une infographie, une galerie photo des innovations les plus marquantes et une interviewAlain d’ Raison, responsable division PME et distribution France chez Lenovo.

Infographie : Lenovo retrace 20 ans de ThinkPad ThinkPad : 20 ans d’innovations en images Alain Raison (Lenovo) : « le ThinkPad est un produit qui dure »

Si vous souhaitez faire le point sur l’histoire de ces machines, un quiz a aussi été mis en place. Ce dernier est accompagné d’un article.

Quiz Silicon.fr – 20 questions pour les 20 ans du ThinkPad !

Les stars passées aux rayons X

Si le ThinkPad a un passé, il a aussi une actualité bien chargée. Nous avons donc fait un point, en images, des différents produits composant cette gamme, classés par séries : Edge, L, T, X et W.

20 ans de ThinkPad : les modèles 2012 en images

La famille star au sein des ThinkPad de Lenovo est sans conteste la X, composée d’ultraportables sans concessions. Nous les avons tous testés, en images là encore.

Test : Lenovo ThinkPad X1 Carbon, la star des ultrabooks Test : Lenovo ThinkPad X230, ultramobile par essence Test : Lenovo ThinkPad X131e, le netbook des professionnels

Et le futur ? Il semble brillant pour cette gamme d’ordinateur, tout comme pour Lenovo, récemment devenu le numéro un des constructeurs de PC.

Crédit photo : © Silicon.fr

Voir aussi Quiz Silicon.fr – 20 questions pour les 20 ans du ThinkPad !

STMicroelectronics, ce géant méconnu des semiconducteurs

Jusqu’alors plutôt discret, le groupe européen STMicroelectronics nous a récemment ouvert ses portes.

Opération séduction pour celui qui est aujourd’hui le seul géant industriel européen de la microélectronique, et le pilier central d’un des cinq grands clusters mondiaux du secteur (les autres étant pilotés par IBM, Intel, Samsung et TSMC).

Nous avons pu visiter les sites de Grenoble (R&D) et de Crolles (production 200 mm et 300 mm). Tous deux situés en Isère, ils sont intéressants à plus d’un titre. Ils sont en effet au cœur de la production de puces multimédias, telles que celles que nous trouvons dans les smartphones, tablettes et set-top boxes.

La société dispose de nombreux autres sites en Europe, dont celui deRousset (conception et fabrication de microcontrôleurs et mémoires) Rennes (composants de haute fiabilité pour usages spatiaux et militaires), Tours (composants discrets et de puissance) ou encoreAgrate en Italie (MEMS).

Un leader en puissance

Sur le marché des semiconducteurs, STMicroelectronics est aujourd’hui en septième position. La firme marque toutefois des points dans plusieurs secteurs. En quelques années, elle ainsi est devenue le leader incontesté des MEMS.

Elle se classe en troisième position mondiale sur le marché des composants pourautomobiles , mais en première en Chine. Pour les set-top boxes, elle prend la seconde place du podium… mais la première « hors États-Unis ».

Enfin, dans les composants de communication (dont les puces pour smartphones et tablettes), les déboires de ST-Ericsson font oublier que le groupe occupe la troisième place mondiale, avec une croissance très rapide.

Notez que le dernier domaine porteur où STMicroelectronics entend s’imposer est celui duM2M (machine to machine). Sa réputation dans le monde des microcontrôleurs et des MEMS devrait lui permettre de s’imposer rapidement.

Un dossier exclusif

En 2011, le chiffre d’affaires du groupe s’est fixé à 9,7 milliards de dollars, pour un bénéfice net de 650 millions de dollars. Le tout avec 50.000 employés. La société prévoit une légère hausse de ses effectifs en 2012. De bonnes perspectives donc, même si la coentreprise ST-Ericsson continue à peser sur les résultats du groupe.

Suite à notre visite des locaux isérois de STMicroelectronics, nous vous proposons une série d’articles, qui forme aujourd’hui un dossier. Bonne lecture !

STMicroelectronics bouscule le marché avec le « More than Moore ». Les armes secrètes de STMicroelectronics pour contrer Intel. ST-Ericsson booste les smartphones et les tablettes à 2,3 GHz ! STMicroelectronics nous ouvre les portes de ses usines. STMicroelectronics : l’usine de Crolles, comme si vous y étiez. Avec GreenNet, STMicroelectronics révolutionne la domotique. STMicroelectronics : Grenoble part à la reconquête du monde mobile. Moins de 150 euros pour une carte de développement ARM ST-Ericsson Nova. Dominique Thomas, STMicroelectronics : « le brassage d’idées au quotidien est important ».

Crédit photo : © STMicroelectronics

Dossier : datacenter en région, l’aventure Neoclyde à Besançon

Un an et demi – dont cinq mois pour le seul datacenter – c’est le temps qu’il aura fallu pour passer d’un projet fou, construire un datacenter régional à Besançon, à l’inauguration deNeoclyde . À terme, 160 baies permettront d’irriguer une région, l’agglomération Grand Besançon, et ses organisations publiques et privées, avec un accès aux grands axes Internet, une ouverture sur les opérateurs qui joueront le jeu, et des capacités d’évoluer vers le cloud.

Pourtant, l’affaire était loin d’être gagnée, car si les besoins existent, pas grand-monde ne voulait miser sur ce projet, et certainement pas les grands acteurs du marché dont les tarifs élevés interpellent : cherchent-ils la vache à lait ou procèdent-ils ainsi pour détourner les porteurs de leurs projets ? Difficile dans ces conditions d’envisager un avenir numérique pour les régions éloignées des grandes agglomérations et des axes principaux de la fibre.

La communauté de Besançon s’est posé la question, mais elle bénéficie d’un atout maître : la volonté de ses hommes. C’est le premier article de notre dossier :la détresse numérique d’une région que cherche à combler la volonté des hommes.

Plusieurs phases délicates

Une fois la décision prise, le processus s’engage. Avec deux objectifs : limiter la part des contribuables en faisant appel à l’investissement privé, et commencer par faire venir la fibre jusqu’à Besançon. De l’avis des protagonistes, ce sera la tâche la plus délicate du projet, la plus difficile à mener. Nous savions que certains opérateurs de l’interconnexion ne faisaient pas toujours preuve de bonne volonté, nous en avons désormais un témoignage concret ! Mais là encore c’est vers les hommes, et les entreprises, que le projet va se tourner avec succès. C’est le second article de notre dossier : de l’interconnexion aux investissements privés. Le moment est venu de découvrir le datacenter, fruit de la collaboration de l’agglomération Grand Besançon et de deux entreprises expertes : Euclyde qui a amené la fibre et Néo Telecoms qui l’a allumée. L’agglomération a permis de contractualiser la venue de la fibre qu’elle loue à la coentreprise Neoclyde qui déploie et gère le datacenter. C’est l’objet de notre troisième article : datacenter et cloud prennent forme à Besançon.

Des technologies avancées

Neoclyde nous a également donné l’occasion de découvrir, en avant-première mondiale, la nouvelle offre de climatisation du datacenter proposée par Schneider Electric,EcoBreeze . Une approche innovante qui exploite et sublime le free cooling, le refroidissement par l’air extérieur, et réduit ainsi très sensiblement le coût de la brique climatisation dans l’enveloppe globale du datacenter. À découvrir sur notre quatrième article :EcoBreeze en avant-première mondiale, free cooling optimisé par Schneider Electric. Enfin, tels les romans-photos qui inondaient les magazines à une époque aujourd’hui révolue, nous vous proposons de suivre en images le chantier Neoclyde et son évolution via le dernier article qui compose ce dossier : le chantier du datacenter en images.

Déjà un succès ?

Au final, la Franche-Comté s’est dotée intelligemment d’une première infrastructure informatique très haut débit et haute disponibilité… là où il n’y avait rien. Du côté des emplois, il ne faut pas attendre grand-chose du datacenter lui-même. En revanche, si ce n’est pas le datacenter qui crée de l’emploi, c’est l’infrastructure qui se déploie autour et ce sont les projets qui y seront hébergés qui vont être porteurs d’espoirs. Côté Neoclyde, la première salle est prête à accueillir ses premiers clients, et les engagements reçus, qui permettent de valider l’accueil accordé au projet par l’écosystème TIC, portent déjà sur un taux de remplissage de la première phase à moitié. Avec des tarifs inférieurs de 15 % à 20 % par rapport à ce qui se pratique sur Paris et une qualité d’infrastructure équivalente, le succès sera certainement au rendez-vous.

Le point mort sur un datacenter régional de taille réduite se place au-dessus des 50 % ; il sera atteint rapidement. Surtout que passées les phases de design, d’immobilier, d’équipement électrique et thermique assurés sur la première phase aujourd’hui active, il suffira de 3 mois pour déployer la phase suivante du projet qui lui permettra d’atteindre sa pleine capacité.

Solutions Linux / Open Source 2012 : regain de vitalité pour les communautés

Le salon Solutions Linux / Open Source 2012 vient de fermer ses portes, après trois jours d’activités. Nous avons couvert les différentes sessions d’ouverture de ce rassemblement (SUSE, Microsoft, Alter Way et Zend), puis fait un tour dans les travées du salon.

Plus que la présence de Microsoft (sur un stand par ailleurs assez dépouillé), l’élément le plus étrange était l’absence de certains acteurs phares, comme Bull ou Red Hat. Moins de professionnels

Les pure players du monde open source étaient globalement peu nombreux. Nous pouvons noter la présence d’Alter Way, Smile et SUSE, du côté des grandes sociétés, et d’acteurs du logiciel comme Acquia, Arkeia, BonitaSoft, Jaspersoft, Talend, SkySQL et Zarafaqui ( proposait de superbes sculptures faites de ballons).

Citons également un outsider, le réseau Libre-Entreprise, et un invité inattendu, Sopra group. Voilà qui clôt le gros des troupes de ce salon, les autres exposants en présence étant souvent du domaine des TPE ou des start-ups.

Autre élément intéressant, un renforcement des conférences, très orientées sur le développement logiciel et moins sur la stratégie. Un axe fort pour un Solutions Linux / Open Source qui se voulait finalement très studieux.

Plus de communauté

Si réduction de la voilure il y a, elle ne touche aucunement les communautés, plus présentes que jamais : associations de défense des logiciels libres, groupements d’utilisateurs, etc. Nous notons la large visibilité donnée cette année au monde BSD.

Doit-on déduire de cette répartition entreprise-communauté un recul de l’aspect professionnel du salon ? Non. En effet, si certaines grandes sociétés étaient absentes, la présence en force de projets de fondations permettait à la communauté de montrer un visage plus sérieux et plus professionnel. Preuve s’il en est que, dans tous les domaines, la communauté est toujours prête à reprendre le flambeau.

Mention spéciale également pour le village OW2, ou nous pouvions trouver l’INRIA, SpagoBI et bien d’autres projets.

Notre dossier

Galerie : le salon, en images

Keynote 1 : SUSE, à l’assaut du cloud privé.

Keynote 2 : Microsoft surfe sur la vague open source.

Keynote 3 : emplois cherchent candidats.

Keynote 4 : PHP anime un tiers du web !

Tribune : l’open source, son histoire, son avenir.

Et les annonces : Alter Way, Capgemini et Zenika décrochent un marché interministériel de support des logiciels libres.

Hébergement cloud : Alter Way lance sa bombe H2O.

OW2 promeut XLcloud et le développement collaboratif d’applications HPC.

Crédit photo : © Silicon

Futur en Seine 2012 : la grande fête du numérique, en images

Du 14 au 24 juin 2012, se déroule Futur en Seine, le festival du numérique. Un évènement qui s’est tenu pendant quatre jours au 104 (19e arrondissement de Paris), avant d’essaimer dans différents lieux d’Île-de-France.

Nous avons profité de notre pause hebdomadaire pour rendre une petite visite au 104 qui, fidèle à l’image des lieux culturels du 19e, mêlait un public hétéroclite : les visiteurs de Futur en Seine, bien entendu, mais également des danseurs (qui peuvent profiter d’espaces extérieurs abrités), de nombreux enfants (un lieu leur est dédié au 104) et même quelques personnes venues faire leurs courses (un maraîcher était présent dans la cour arrière du bâtiment).

Un mélange que nous avons également retrouvé sur le salon, avec des exposants allant des entreprises les plus connues aux start-ups les plus jeunes, le tout saupoudré d’œuvres d’art technologiques très appréciées du public. La science dans ce qu’elle a de plus festif.

Cap Digital au cœur de l’événement

Et pourtant l’entrée sur le site du festival laissait une première image de sérieux, avec la présence d’acteurs comme l’Afnic, le CNRS, la région Île-de-France, la ville d’Issy-les-Moulineaux, Orange, la SNCF, et, comme maître d’œuvre, le pôle de compétitivité Cap Digital, souteneur des entreprises numériques innovantes, en France comme à l’étranger.

Futur en Seine, se décline en dix thématiques : arts et cultures, connaissances et data, enfants en Seine, faisons-le nous-mêmes, innovation sociale, maison, nouveau design, robots, santé et bien- être, et villes. Au menu, une partie salon, que nous avons visitée, ainsi que des conférences, des ateliers et des séances de discussion libre. Ajoutons à ceci des focus sur des sujets comme l’éducation ou l’open data.

Nous vous proposons quatre galeries exclusives de notre visite au 104, qui vous permettront de découvrir quelques-uns des nombreux projets et acteurs présents.

Galerie Futur en Seine 2012 : grand angle sur le salon

Galerie Futur en Seine 2012 : le numérique dans le monde réel

Galerie Futur en Seine 2012 : le numérique dans le monde virtuel

Galerie Futur en Seine 2012 : le numérique dans l’art & la société

Crédit photos © Silicon.fr

Microsoft Windows Azure : une plate-forme cloud enfin complète

Avec les annonces de la semaine dernière, Microsoft a transformé sa plate-forme Windows Azure en une solution cloud de bout en bout. Une nouveauté qui s’est traduite par une série d’articles, que nous rassemblons aujourd’hui au sein d’un dossier.

Rappelons que Windows Azure est initialement un PaaS, c’est-à-dire une offre de “Platform as a Service” dédiée aux développeurs, qui peuvent l’utiliser pour créer et déployer des applications.

S’étendre vers le bas

Dans certains cas, des parties de la solution applicative sont déjà existantes et n’ont pas à être réécrites. Avec sa nouvelle composante IaaS (Infrastructure as a Service), Windows Azure donne la possibilité aux développeurs de mixer des composants PaaS à du code préexistant, ce dernier étant lancé dans des machines virtuelles Windows ou Linux.

Un point développé par Julien Lesaicherre, responsable de la plateforme Windows Azure chez Microsoft France, dans le cadre d’une interview réalisée pour Silicon.fr. Il y présente plus largement ce concept d’application cloud hybride.

Cette annonce a – fort logiquement – été très bien accueillie par les acteurs dont les distributions Linux ont été choisies pour être proposées en standard au sein du catalogue de machines virtuelles d’Azure. Bien évidemment, il sera possible d’importer ses propres machines virtuelles, mais celles présentées au sein d’Azure disposeront d’une plus grande visibilité et de la garantie d’offrir un support technique de qualité professionnelle.

Notez qu’en abordant le monde de l’IaaS, Microsoft se retrouveen concurrence frontale avec Amazon EC2, même si la firme va bien plus loin que cela, en jouant la carte du couple IaaS + PaaS. S’étendre vers le haut

La plate-forme Windows Azure permet dorénavant d’héberger des sites web. Une offre comprenant deux volets : l’hébergement simple de sites et applications, ou la mise en place d’un service web choisi sur catalogue. La firme de Redmond flirte ainsi avec le SaaS (Software as a Service), mais toujours avec une orientation développeurs / professionnels de l’informatique.

L’objectif reste le même : offrir un maximum d’options de déploiement pour les créateurs et les utilisateurs de logiciels. Si l’application est préexistante, il suffit d’opter pour une machine virtuelle (IaaS). Si elle est écrite ou réécrite, le développeur peut s’appuyer sur une plate-forme dédiée (PaaS). S’il s’agit d’une application web, elle pourra être déployée en direct (web+catalogue).

S’étendre vers les côtés

Enfin, Julien Lesaicherre nous a rappelé que certains composants de Windows Azure permettaient de faciliter son interaction avec les systèmes informatiques des entreprises : Virtual Network, Traffic Manager et le support d’Active Directory. Après l’hybridité des applications cloud, la firme affiche aussi celle des infrastructures cloud.

Notez que Microsoft propose une chaine YouTube dédiée à Windows Azure.

Crédit photo : © Microsoft

Voir aussi NetMediaEurope – Étude : Cloud Computing, où en sont les entreprises françaises ?

HP Discover 2012 : HP en manque de visions

En direct de Las Vegas : Des milliers de clients, partenaires, experts, observateurs, etc., qui s’engouffrent dans une immense salle de conférence afin d’écouter quasi religieusement et d’applaudir parfois chaleureusement le discours, pourtant convenu et finalement peu engagé, de Meg Whitman, CEO de HP. Puis le fond de l’estrade, probablement aussi long qu’un demi terrain de tennis, qui se soulève pour laisser place à la féérie d’une exposition dont l’accès est marqué des icônes et de la musique pompeuse des films d’animation de Dreamworks. C’est certainement l’image qui restera de ce HP Discover 2012.

Meg Whitman s’est montrée souriante, chaleureuse, fendant la foule qui se presse autour d’elle alors qu’elle entame la visite de l’expo. Elle ne rechigne pas non plus serrer une main ou à poser pour une photo avec qui la sollicite… La nouvelle patronne d’HP a à coeur de s’afficher tout en positivité. Comme son discours d’introduction lors de son keynote. Elle n’est pas là pour affronter la réalité du marché mais pour assurer sa place et pour rassurer. Pas d’engagement non plus, son discours s’est voulu consensuel Meg( Whitman entre en scène et part à la conquête du nuage). Histoire de faire oublier un début de règne déjà marqué par une lourde cure d’amaigrissement (HP entérine la suppression de 27 000 emplois) ?

Stockage, Big Data, Cloud

Le discours était plus engagé, parfois très conquérant chez les présidents et vice-présidents de divisions de HP qui sont venus nous exposer leur stratégie, emmenés parDave Donatelli (HP transforme l’industrie du stockage). Trois grands axes majeurs nous ont emmenés dans une valse d’annonces : le stockage de données Stockage,( sécurité, backup et dedup); le Big Data (HP à l’assaut du Big Data); et le Cloud Computing (Une seule stratégie cloud, mais une offre dispersée).

Que retenir de cette mouture 2012 d’HP Discover ? Pas question pour HP de lâcher le morceau, le fabricant tente de coller au marché. Les clients veulent du stockage, du big data et/ou du cloud ? HP plonge dans son immense catalogue et extrait ce qu’il pense être le meilleur pour répondre à ces attentes. Ou alors il le fabrique lorsque c’est nécessaire, à l’exemple de sa stratégie « Converged Storage » (La convergence du stockage signe la fin du SAN). Ou encore il l’achète !

Quid du service ?

La diversité des annonces est venue rappeler que les attentes sont nombreuses… tout comme les réponses, finalement. C’est un peu dommage, on en retire plus une image de touche à tout, voire de prêt à tout (ce que demande le client…), alors que l’on attendrait plutôt du numéro un mondial de l’informatique qu’il prenne la tête de la tendance et impose ses visions !

Pour preuve, pas une annonce n’a été accompagnée d’une autre annonce, dans le service celle-là. En fait, HP, tout comme nous, fait le constat de la complexité des technologies qui émergent. A l’exemple du Big Data. Il en ressort une impression étrange, celle qu’un constructeur qui dispose de la couche infrastructure, l’étendue de son catalogue en atteste, mais qui ne sait finalement pas comment permettre à ses clients de s’en servir. Ne jetons pas la pierre à HP, ses concurrents suivent la même voie, même s’ils se cachent parfois derrière une rhétorique plus convenue.

Une approche en forme de balbutiement

Il ressort de cette stratégie un message finalement simple : «Nous avons la solution dans notre catalogue, discutons-en et nous essaierons ensemble de la trouver. » Une approche en forme de balbutiement, qui n’entame pas la puissance d’HP, mais qui en revanche peut être la démonstration de la faiblesse – relative mais non marginale – de sa capacité d’innovation. Comme ses grands concurrents, c’est plutôt dans les acquisitions que HP a trouvé ces dernières années un relai de matière grise qui manquait à ses ingénieurs. Un comble pour les successeurs de Messieurs Hewlett et Packard !

Au final, cet HP Discover 2012 aura été dans la ligne des tendances du marché, riche en annonces, mais cherchant encore à s’orienter. Une chose est sûre, en revanche : ni Meg Whitman, ni HP ne lâcheront le morceau, ils en ont les moyens ! Mais encore leur faudra-t-il aller vite…

Internet est-il prêt pour l’Internet des Objets ?

Dans les années 90, Internet véhiculait principalement du texte et quelques images. Le surnom donné au réseau était on ne peut plus clair. Il était « une autoroute de l’information ».

Après l’éclatement de la bulle du même nom, Internet a connu une première mutation. Les contenus sont devenus plus lourds (vidéos, jeux en flash, etc.). L’infrastructure a suivi. Mais il lui reste cependant un point commun avec la décennie précédente : le réseau connecte toujours – principalement – des ordinateurs (fussent-ils mobiles ou non).

À l’aube des années 2010, un autre monde s’est annoncé. Un Internet où ce ne sont plus des PC, des Mac, des smartphones et des tablettes qui communiquent, mais où tout, absolument tout, est susceptible de recevoir et de produire de l’information. Cette mutation a un nom – plus ou moins polémique : l’Internet des Objets (« The Internet of Things »).

Pure science-fiction ? Loin de là. Les grands de l’IT – d’IBM à Microsoft en passant par SAP ou Alcatel-Lucent – travaillent déjà dessus. Certains objets connectés (ou « communicants ») sont d’ores et déjà fonctionnels, d’autres sur le point de le devenir comme le Linky d’ERDF.

Cette nouvelle vague n’a rien de futuriste. Elle est là. Le lapin Nabaztag fait déjà figure de dinosaure et Cisco anticipe que le nombre d’objets connectés à Internet sera multiplié par 10 en à peine 8 ans. En 2020, ils seront 50 milliards. Ericsson avance exactement les mêmes prévisions.

Résultat, de nouvelles contraintes pour l’infrastructure du réseau (d’après Cisco, le volume des données mobiles sera multiplié, rien que cette année, par 66), une explosion des données produites, et des problèmes en perspective à résoudre pour l’infrastructure. Mais aussi de nouvelles applications pour les utilisateurs et des relais de croissance inespérés pour les entreprises de tous les secteurs.

Le tout dans un monde dont l’imagination a du mal à concevoir ce qu’il sera dans 10 ans, tant il pourrait avoir changé avec ces objets. Un constat que fait,Jean-Luc Beylat, le très sérieux président d’Alcatel-Lucent Bell Labs France, pour qui l’Internet des Objets est ni plus ni moins« la première vraie révolution technologique du 21e siècle ».

Quand tous les objets seront connectés à Internet

Le téléphone était un objet inerte. Connecté, il est devenu intelligent et a même changé de nom pour devenir « smartphone ». Beaucoup d’autres objets sont sur le point de suivre ce chemin. Dans la maison, par exemple, la domotique passe à la vitesse supérieure. Elle sort de la phase d’exécution d’ordre à distance pour laisser place aux « smart houses » qui anticipent les actions à faire en fonction des données enregistrées automatiquement auparavant. L’habitant n’a même plus à créer des règles ou à appuyer sur des boutons pour mettre en marche les systèmes. Les compteurs connectés y débarquent (cf. le focus sur Linky d’ERDF). Et avec eux les réfrigérateurs communicants (le Samsung RF4289) – tant critiqués par rafi Haladjian, analyste averti – les machines à laver connectés (faites maison, par LG ou par Samsung – contrôlables à distance avec un smartphone ou un PC) et même des « smart fours ».

En janvier, LG a par exemple dévoilé une gamme (LG Smart) entièrement reliée à Internet lors du CES 2012. « Si un four LG Smart est connecté au réfrigérateur, les deux appareils sont capables de se parler. Si vous sélectionnez une recette, le réfrigérateur va prérégler le four selon le type de met à concocter, » explique – certains diront « justifie » – le Sud-Coréen.

Mieux, « le consommateur peut jeter un coup d’œil sur le statut des appareils électroménagers en utilisant un smartphone, même à 3 km de là ». Autre application liée au réseau, une fonction Smart Diagnosis permet aux services techniques de LG de détecter des dysfonctionnements à distance. En cas de panne, le propriétaire est directement alerté sur son Smartphone.

Dans le petit électroménager, une bouilloire prototypée par l’université de Stockholm augmente la force magnétique qui la relie à son socle quand le réseau d’alimentation électrique est chargé. Il devient plus difficile de la lever pour se faire un thé lors de ces pics. Intuitivement, l’utilisateur « sent » physiquement l’information.

Le virage de la connectivité à l’œuvre dans le mobilier domestique l’est également dans le mobilier urbain. Un bon exemple est « Only Girls Allowed », une campagne de sensibilisation de Plan UK qui ciblait en priorité les femmes. Un abribus a été inauguré pour l’occasion à Londres (sur Oxford Street). Cet abri est équipé de panneaux publicitaires tactiles capables, grâce à une caméra et un logiciel de reconnaissance faciale, de déterminer le genre du passant. Il affiche ensuite un contenu différent en fonction du sexe identifié : une vidéo entière pour une femme, une simple URL pour un homme. « C’est comme un iPad géant croisé avec un Kinect » compare Neil Chapman, Président du groupe Clear Channel, multinationale américaine spécialisée dans la publicité urbaine qui a piloté le projet.

Les applications sont multiples et pour la plupart à inventer.« En utilisant ce panneau, les marques peuvent inciter les consommateurs à regarder, naviguer, créer, partager, télécharger des contenus HD, se connecter à un média social, interagir en touchant l’écran tactile ou en bougeant, et même s’immerger dans la publicité grâce à la réalité augmentée » s’enthousiasme Neil Chapman. On imagine aisément que les très nombreuses informations générées par ces interactions – et potentiellement enregistrées et transmises par le panneau – intéresseront fortement les marqueteurs.

Cette évolution de la connectivité est encore plus flagrante dans l’univers des voitures. Les automobiles ont commencé à recevoir des informations d’Internet de manière passive à la fin des années 2000. En 2009, Mercedes présente son système « MyCOMMAND ». En 2010, Toyota imagine une « LTE Connected Car » (voiture connectée avec un très haut débit via l’Internet mobile). En 2011, une Yaris propose un autoradio évolué (le Toyota Touch) qui permet d’accéder aux services Touch & Go (recherche locale avec Google Maps, trafic, radars, prix de l’essence dans les stations proches, et même places de parking disponibles).

Depuis avril 2011, toujours chez Toyota,un projet de 12 millions de dollars est en cours avec Microsoft, pour équiper les véhicules de la marque japonaise avec des services cloud et les transformer en véritables « smart cars ».

Cette « smart car » est une voiture capable de faire un auto-diagnostic et d’analyser son contexte (géolocalisation, liste des services de proximité, etc.) pour trouver le concessionnaire ou le garagiste le plus proche en cas de besoin et lui envoyer le pré-bilan qu’elle a généré. On peut imaginer qu’à terme le système pourra accéder aux stocks des prestataires pour rediriger vers celui qui a les pièces nécessaires en magasin et optimiser encore le processus de réparation.

Les gigaoctets de données que chaque voiture va produire, leur stockage et leur traitement seront pris en charge par Microsoft avec sa plateforme hébergée Windows Azure. Un exemple de la puissance du cloud computing, selonJulien Lesaicherre, responsable de la plateforme chez Microsoft France, qui montre aussi le lien intime qui existe entre le Cloud et l’Internet des Objets.

Concurrent allemand de Microsoft, SAP a présenté lors du CeBIT 2011 un projet qu’il a mené en collaboration avec le Nomura Research Institute pour une compagnie de Taxis tokyoïte. Le NRI enregistre en temps réel les données de circulation grâce au GPS des 12.000 taxis affiliés, données auxquelles s’ajoutent des informations issues d’une application spécifique développée pour les smartphones. L’institut les agrège – toujours en temps réel – et fait des projections sur le trafic en s’appuyant sur les nouvelles technologies de l’éditeur (notamment le« In-Memory Computing » qui permet d’accélérer le traitement de très gros volumes d’informations). Résultat, le système ne se contente plus de tracer la carte des embouteillages. Il est capable de prévoir de manière proactive, et en quelques secondes, où et comment vont se déplacer ces bouchons. L’information est ensuite renvoyée aux chauffeurs qui peuvent choisir le trajet le plus rapide, non plus avec une information statique, mais avec une projection dynamique.

Jumelé au prototype de voiture sans conducteur de Google (une Prius connectée modifiée) présentée en 2011 lors d’une intervention au TED, on imagine les chambardements que cet « Internet des Objets » va provoquer dans nos véhicules, sur le trafic (en intégrant des systèmes connectés collaboratifs comme Coyote par exemple), et chez les constructeurs, qui prennent la mesure de ces changements en cours.

Dans un tout autre domaine, la médecine quotidienne connait des avancées intéressantes grâce à l’Internet des Objets. Microsoft, par exemple, travaille actuellement avec l’Université de Washington sur un projet de lentilles de contact « intelligentes ».

Ces lentilles (encore au stade expérimental) sont capables de mesurer la glycémie d’une personne sans prélèvement sanguin. Finies les lourdes piqures à répétition. Le taux est établi par des capteurs électroniques lacrymaux qui transmettent instantanément les données au patient (pour vérifier son état en temps réel) ou au médecin traitant (en cas d’anomalie).

Ces données sont envoyées en deux temps. Elles transitent d’abord par « un agent intelligent » (smartphone, tablette, ordinateur) qui les analyse et qui se charge dans un deuxième temps de l’envoi (ou non) des résultats. Dans le même ordre d’idée, Covertis commercialise des moniteurs cardiaques qui communiquent sans fil avec les médecins.

La maison, l’industrie automobile ou la médecine ne sont pas les seules concernées. Le textile pourrait lui aussi être changé comme jamais avec les vêtements connectés dont les débouchés touchent aussi bien la médecine (outil de diagnostic), que le sport (cardiogramme, mesure de vitesse et de distance) ou la vie de tous les jours (téléchargement d’illustrations sur un t-shirt modifiable). Autre exemple bien loin des idées reçues. Une start-up hollandaise (Sparked) connecte le bétail des élevages agricoles pour améliorer la santé des troupeaux. Des capteurs sans fil préviennent les éleveurs en temps réel en cas de maladie ou de bête enceinte pour qu’ils puissent réagir instantanément. Chaque vache produit alors 200 Mo de données sur une année.

Pour Kevin Dallas, directeur général de Embedded (la version embarquée de Windows pour les objets connectés), les systèmes d’exploitation ont atteint un point de maturité et suffisamment de souplesse pour transformer quasiment tous les types de dispositifs en systèmes intelligents.

« Dans l’environnement d’une entreprise, des milliards de dispositifs peuvent recueillir dans le monde entier des données et produire un effet profond sur sa façon de s’organiser, d’agir et travailler, »prévenait-il l’année dernière lors de la conférence mondiale technologique SMART.

« Aujourd’hui, nous avons des dispositifs dans les véhicules, les points de ventes, des équipements de production, etc. Cet univers ne fera que croître »estimait pour sa part Yousef Khalidi, Ingénieur « distingué » sur Windows Azure, lors du même évènement.« Un jour, chaque petite ampoule dans chaque pièce aura une adresse IP et enverra des données sur son état ».

Un point de vue partagé par IBM.Dans son rapport annuel 2010 « Next Five in Five » sur les tendances IT, « Big Blue » prévoit que tous les citoyens du monde seront des capteurs ambulants potentiels d’ici 2015. Les données recueillies par ces citoyens permettraient par exemple aux scientifiques d’avoir une idée plus précise et plus réactive (en fait en temps réel) de l’environnement et de pouvoir mieux appréhender les questions climatiques.

Cette analyse s’appuie sur le constat que le nombre de récepteurs présents dans les objets (voitures, téléphones, etc.) ne cesse de croitre. Et de croitre de plus en plus vite. Le mouvement va s’amplifier de manière quasi exponentielle avec l’arrivée de nouvelles technologies, encore plus variées.

Ninja Blocks par exemple, est un produit très simple composé d’un petit bloc électronique open source (dont les plans sont librement accessibles) et d’une plateforme Web à laquelle il peut se connecter.

L’utilisateur peut préprogrammer son bloc avec des fonctions de types « if / then / do ». Le « Ninja » est ensuite placé dans un espace ou relié à un capteur (de mouvements, thermomètre, mini- caméra, etc.). Si l’action programmée se réalise (présence détectée à la porte), le bloc se connecte à la plateforme qui, elle, réalise l’action prévue (par exemple envoi d’une photo du perron sur Dropbox).

Imaginée par trois « geeks », il est difficile de dire si cette start-up – lancée grâce à un financement collaboratif record sur KickStarter – sera pérenne. Une chose est sûre, elle n’est pas seule à croire et à parier sur ce créneau. rafi Haladjian – le serial-entrepreneur à l’origine du lapin Wifi Nabaztag (« un manifeste qui montre que si on peut connecter des lapins on peut connecter n’importe quoi ,» déclarait-il en 2011), du FAI franceNet et du réseau Ozone – s’est lui aussi lancé dans cette aventure avecSen.se , une plateforme back-end qui se propose de connecter « machines, humains, natures, espaces virtuels » et de stocker les données de ces objets pour les traiter et les rendre intelligibles (lire les: objets communicants concernent tout le monde, une interview de rafi Haladjian).

Même si sa vision va à l’encontre de bon nombre d’idées reçues, sa société montre que la prédiction de Kevin Dallas d’un monde presque entièrement connecté est parfaitement crédible et qu’il ne concernera pas que les informaticiens. Bien au contraire.

L’internet des objets : des défis technologiques à relever pour l’infrastructure

D’après Cisco, il y aurait plus d’objets connectés à Internet dans le monde que d’êtres humains sur terre. Et ce depuis déjà 4 ans.

D’ici 2020, ces objets devraient être 10 fois plus nombreux et avoisiner les 50 milliards. Le Dr Stefan Ferber, directeur des communautés & des réseaux de partenaires chez Bosch Software Innovations, estime lui que ce chiffre sera atteint encore plus rapidement, en 2015.

Mais ce monde où tous les objets sont communicants pose aussi des problèmes et de nombreuses questions. Le réseau tiendra-t-il le choc ? Comment traiter ces informations pour les rendre pertinentes ? À qui appartiennent les données générées ? Qui va les stocker ?

Les défis que posent ces objets sont d’autant plus grands que les masses d’informations en jeu pourraient être gigantesques. D’après Jim Cicconi, vice-président de l’opérateur américain AT&T, une vingtaine de « smart houses » banales pourraient rapidement produire autant de données que… la totalité d’Internet en 2008. La prédiction n’est certes pas encore réalisée – elle est même relativisée par d’autres experts – mais elle a le mérite de rappeler que derrière le potentiel des objets, il y a aussi une infrastructure à prendre en compte et des défis techniques à relever.

Le premier tient au nombre d’adresses disponibles. L’explosion du nombre d’objets est incompatible avec le protocole IPv4 (limités à environ 4 milliards d’adresses différentes). Grâce à des adresses de 128 bits au lieu du 32 bits de l’IPv4, l’IPv6 dispose d’un espace d’adressage bien plus important parfaitement capable de tout interconnecter.

Malheureusement, en 2012, son déploiement est encore limité. La proportion d’utilisateurs Internet en IPv6 est aujourd’hui estimée à à peine 0,6 %.

Mais la solution existe, et avec ses 667 millions de milliards d’adresses IP potentiellement disponibles il ne reste plus qu’à lever les freins et à changer l’infrastructure de routage. Néanmoins, comme avec tous les « il n’y a plus qu’à », le changement risque de ne pas se faire aussi simplement ou aussi rapidement faute de réelle volonté des acteurs du marché, qui pour certains ne montrent pas une réelle motivation à investir.

Plus largement, les objets eux-mêmes regorgent de nouveaux défis. Si les « choses » communiquent sans cesse, fort logiquement, la consommation électrique (et leur autonomie) s’en ressentira. Il faut donc inventer de nouvelles normes pour la réduire au maximum et lever les limitations physiques de ces objets.

C’est par exemple ce que vise Zigbee, une technologie WLAN sans fil à faible consommation électrique qui se positionne en concurrente du Wifi et du Bluetooth. Promue par la ZigBee Alliance (composée de plus de 400 entreprises dont General Electric, Osram, Philips ou Texas Instruments), cette norme IEEE 802.15.4 vient de connaitre une avancée avec la ratification de ZigBee Light Link, sa déclinaison dans l’univers de l’éclairage.

Avec elle, « les ampoules […], les capteurs, les minuteries, les télécommandes et les interrupteurs […] se connecteront facilement à un réseau, sans dispositifs spéciaux pour les coordonner ,» explique l’alliance. Ces appareils basse consommation pourront « être contrôlés sur Internet grâce aux ordinateurs, aux tablettes numériques et aux smartphones. Et les consommateurs pourront […] combiner des produits de diverses marques ».

La norme a déjà convaincu des FAI. Résultat, on la retrouve dans la télécommande de la dernière Freebox ou chez Orange pour les futures fonctionnalités domotiques de la nouvelle Livebox Pro.

La technologie de la ZigBee Alliance n’est pas la seule à vouloir s’imposer. Des alternatives existent comme Z-Wave (un protocole radio sans fil bidirectionnel adapté pour les appareils électriques domestiques qui évite de refaire les câblages). Ou la technologie 6LoWPAN, particulièrement appropriée pour les « systèmes contraints » (avec énergie, CPU, RAM et stockage limités), des systèmes qui ont du mal à prendre en charge les paquets IPv6 et leurs en-têtes volumineux. Sans oublier bien sûr le Bluetooth, le courant porteur (CPL), ou le NFC (Near Field Communication), tous peu gourmands en énergie.

Bref, la concurrence fait rage entre les différents réseaux, protocoles et les technologies embarquées qui permettent les communications entre machines (ou M2M, pour « machine to machine », première brique de l’Internet des Objets) et aujourd’hui il est bien difficile de dire lesquelles sortiront vainqueurs, ni même s’il y aura des vainqueurs.

Quelquefois, le simple fait d’alimenter un objet pour le rendre connectable pose problème. Typiquement, la lentille de Microsoft nécessite des trésors de R&D.

Enfin, l’Internet des Objets exige le même niveau de robustesse et de sécurité que des applications critiques d’entreprise. Si un pacemaker est connecté, le réseau peut encore moins se permettre la moindre coupure ou interruption temporaire. Les connexions doivent fonctionner coûte que coûte. Et être parfaitement sécurisées. Est-ce le cas aujourd’hui ? Pas vraiment.

D’après le dernier rapport d’Arbor Networks (WISR),« il semble que nombreux opérateurs ont des capacités de visibilité sur leur trafic de données et de détection de menaces assez limitées, similaires à certains égards, à ceux des opérateurs fixes il y a 10 ans ».

Les risques de déni de service (DDoS) qui planent sur les réseaux mobiles seraient particulièrement importants et la disponibilité des services mobiles serait plus que jamais menacée. Or les deux sont des piliers sur lesquels repose également l’Internet des Objets.

Sur ce point, Eric Michonnet, directeur d’Arbor Networks pour l’Europe du Sud explique à Silicon.fr que « la prise en compte des menaces […] varie beaucoup d’un opérateur à l’autre. Elle est parfois sous- estimée par les opérateurs dont les services sont majoritairement orientés ‘mobiles’ ».

L’Internet ne serait donc pas tout à fait prêt pour les objets connectés, surtout ceux dans un contexte critique ? « Je dirais que notre inquiétude ne se situe pas tant au niveau du volume de données à transporter que sur la garantie de disponibilité des services internet. Et dans le cas d’infrastructures critiques, dans la mise en place de dispositifs efficaces pour lutter activement et efficacement contre les attaques de plus en plus fréquentes visant ces infrastructures, notamment les serveurs vitaux pour ce type de services. » Pour Eric Michonnet, une telle protection devrait être évaluée dans le cadre d’un « plan de continuité » plutôt que dans un cadre uniquement « sécurité ». Un défi qu’il semble possible de relever avec« des technologies spécialisées et dédiées, implantées à la fois dans le cloud et sur les sites critiques, qui doivent agir de concert pour neutraliser les attaques ». Et avec un solide travail de R&D pour avoir une connaissance approfondie et à jour des menaces.

« La lutte contre les attaques DDoS n’est pas une science exacte, c’est la combinaison d’une technologie éprouvée et d’une R&D forte agissant rapidement en cas de besoin », conclut l’expert d’Abor Networks.

Autre question que pose cet Internet des Objets, au-delà de cette problématique de sécurité que les opérateurs mobiles ne prendraient pas tous suffisamment au sérieux, le réseau dans son ensemble est-il vraiment prêt, aujourd’hui, à supporter ce déluge de données ?

Qui était mieux placé qu’Alcatel-Lucent, Cisco et Ericsson pour répondre à ces questions sur l’infrastructure d’Internet ? Silicon.fr a donc fait le point avec Olivier Seznec, CTO chez Cisco France, Viktor Arvidsson, directeur de la stratégie d’Ericsson, etJean-Luc Beylat, président d’Alcatel- Lucent Bell Labs France.

Conclusion, les vrais défis ne se trouvent pas nécessairement là où l’on pense.

Focus sur Linky d’ERDF, le compteur connecté qui rend les bâtiments plus « Green » Un des enjeux majeurs de l’Internet des Objets est effectivement l’écologie (le « Green IT ») et l’efficience énergétique. En rendant le réseau électrique plus intelligent, la consommation peut-être considérablement lissée, voire réduite.

Le « smart grid » (réseau électrique intelligent) est simple sur le papier. Mais il est nettement plus compliqué à mettre en place. Ce qui explique pourquoi un agent d’EDF doit, aujourd’hui encore, relever manuellement les compteurs ou que l’énergie est facturée à l’utilisateur en s’appuyant sur des estimations et pas sur une consommation réelle.

Linky, le nouveau compteur d’ERDF, est cependant en train de faire évoluer les choses.

« Linky c’est un compteur, mais c’est aussi un système d’information associé », précise Électricité Réseau Distribution France, filiale à 100 % du groupe EDF en charge des réseaux de distribution d’électricité pour 95 % du territoire métropolitain. Avec ce nouvel Objet connecté« les interventions comme le relevé des compteurs, le changement de puissance ou la mise en service peuvent désormais être réalisées à distance. La facture est calculée sur la base de consommations réelles […] Le client est libéré de la contrainte du rendez-vous ».

En cas de panne sur le réseau, Linky facilite aussi le diagnostic et devrait ramener le délai d’intervention, selon ERDF, de 5 jours à moins de 24 heures.

D’ici 2018, ce sont 35 millions de compteurs communiquant Linky qui doivent être installés, pour un coût total de l’opération estimée à 4 milliards d’euros. « C’est une première mondiale », se félicite la filiale d’EDF. « Le projet Linky en France, par son ampleur et ses ambitions, est suivi avec attention par le reste du monde ».

Mais pour arriver à cette optimisation, ERDF a également dû mettre en place toute une infrastructure autour du boitier pour faire transiter les informations. Le premier niveau de communication part du compteur Linky (chez le client) et arrive au poste de distribution local. Les informations sont transmises via un courant porteur (CPL) sur le réseau électrique public. Elles sont ensuite prises en charge par un concentrateur qui ouvre la deuxième phase de communication en les envoyant, via un réseau sans fil Telecom (GPRS), vers l’agence centrale de supervision d’ERDF, en contact direct avec le fournisseur d’électricité.

Toutes les données de consommation sont chiffrées à la source pour garantir la protection des informations personnelles. « Elles restent la propriété du client », anticipe ERDF qui prend les devants sur la question de la confidentialité.

L’expérimentation de Linky et de cette infrastructure s’est terminée le 31 mars 2011. Plus de 250 000 compteurs ont été déployés en milieu rural (en Indre-et-Loire) et urbain (à Lyon). Le 7 juillet 2011, un avis favorable de la Commission de Régulation de l’Énergie a donné le feu vert pour la généralisation du projet, suivi d’une confirmation par arrêté le 4 janvier de cette année.

Les opérations de remplacement commenceront d’ici 2014 et s’étendront jusqu’en 2020.

« Cette innovation est la première étape des réseaux intelligents (smart grids) », conclut ERDF. Qui rappelle que cette première étape vise aussi, pour la Commission européenne, à favoriser l’ouverture à la concurrence.

Des nouveaux défis pour les entreprises

L’Internet « des machines » n’a pas concerné que l’industrie informatique. L’Internet des Objets non plus. Son avènement annoncé – « aussi important que l’arrivée du train, de la vapeur ou de l’électricité [et] qui va rendre la terre plus verte » pour Jean-Luc Beylat – risque de changer tous les secteurs économiques. La question est de savoir comment.

Comment répondre à cette interrogation ? En imaginant aujourd’hui les nouveaux besoins auxquels les futurs produits vont bien pouvoir répondre. En évaluant les impacts potentiels des objets communicants sur chaque marché, sur l’organisation des entreprises ou sur la relation client. En gardant à l’esprit qu’il y a à la clef beaucoup de valeur à créer. Et en n’oubliant pas que l’Internet des Objets pose aussi – quoi qu’en disent certains – des questions morales à ne surtout pas négliger. Les objets communiquent entre eux – sur eux- et donc sur nous. Certains fonctionneront de manière autonome, sans demander l’avis de leur possesseur (le diagnostic d’une panne envoyé à un concessionnaire signifie aussi que le prestataire peut géolocaliser en permanence son client).

Sans aller jusqu’à invoquer Michel Foucault qui aurait certainement vu dans cette « smart planet » (pour reprendre la terminologie d’IBM) un « Smart Big Brother » en puissance, la Commission européenne et son « European Group on Ethics » se sont inquiétés de ces questions dans un rapport de 138 pages (PDF).

« L’Internet des objets peut signifier des vies plus heureuses et plus saines. Mais ces capteurs collectent aussi d’énormes quantités de données, ce qui pose un défi éthique – tout particulièrement quand elles concernent la vie privée et notre identité », résume Nelly Kroes, vice-présidente de la Commission. « Nous devons nous intéresser aux implications morales, sociales, légales et environnementales de ces technologies .» Des questions que les professionnels intégreront certainement eux aussi à leurs réflexions (comme ERDF et Alcatel) pour éviter tout retour de bâton.

Pour le reste, les objets sont (presque) prêts. Le réseau aussi (même s’il reste des chantiers en cours pour accompagner la montée en puissance de ces objets). Ne reste donc plus aux entreprises qu’à se préparer à tirer le meilleur parti de la vague d’informations à venir en mettant notamment en place une stratégie autour du Big Data. Car sans création suffisante de sens et donc sans réelle intelligence, les objets peuvent être connectés autant qu’ils le veulent, ils resteront inutilisés. Et tout aussi inanimés que ceux qui les ont précédés.

Pour poursuivre sur le thème de l’internet des objets

rafi Haladjian, Sen.se : « les objets communicants concernent vraiment tout le monde » Viktor Arvidsson, Ericsson : « Deux tiers des connexions M2M seront supportés par des technologies mobiles » Jean-Luc Beylat, Alcatel Lucent : « Cinquante milliards d’objets connectés est une estimation assez conservatrice » Olivier Seznec, Cisco : « Les objets seront majoritairement connectés via des technologies radio »

EMC World 2012 : du stockage au cloud hybride, en passant par le Big Data En direct d’EMC World, Las Vegas. Durant quatre jours, le monde du stockage de données (data storage) s’est donné rendez-vous à Las Vegas pour rencontrer EMC et découvrir ce que nous réserve le numéro un mondial du secteur. Silicon.fr ne pouvait manquer ce rendez-vous incontournable, ce dossier vous donne accès à l’ensemble de nos articles réalisés en direct lors de la manifestation, et auparavant sur quelques sujets qui concernent le fabricant.

La manifestation a tout d’abord été l’occasion pour EMC de multiplier les annonces, pas moins de 42 qui ont été dévoilées : « EMC World : le géant du stockage met le paquet avec 42 annonces » et sa suite « EMC World : la suite des annonces ».

Un changement de CEO en vue ?

Joe Tucci, l’homme qui a placé EMC à la tête de la fleurissante industrie du stockage de données, n’a pas manqué d’introduire l’EMC World. Ce personnage devrait quitter son siège de CEO – mais conserver celui de président du conseil d’administration – en janvier prochain. Se pose en revanche dès aujourd’hui la question de sa succession. « EMC World : Joe Tucci sur le départ… Gelsinger en embuscade ? »

Sur un plan plus technologique, deux focus ont marqué l’événement : le Big Data, «EMC World : Greenplum Analytics Workbench, le « projet X » du Big Data » et « EMC World : plus de cloud et de Big Data pour les clients EMC Atmos » ; et le Cloud Computing, avec un positionnement clair des gammes EMC ni sur le cloud public, même si la cible du fournisseur de services (provider) cloud devient stratégique, ni sur le cloud privé, mais plutôt sur le cloud hybride. «EMC veut faire de VPLEX un standard du cloud hybride » ou encore « EMC rend son stockage unifié VNX plus abordable et plus sécurisé ».

Nous vous l’annoncions en avant-première, VMAX prend de l’envergure et a adopté une attitude de vainqueur. « Stockage : le monstre d’EMC prend la tête avec 4 pétaoctets ». Rappelons également pour conclure une acquisition, « EMC World : acquisition de Syncplicity, partage et synchronisation de fichiers » et une information qui n’aura pas échappé à nos lecteurs : «Mozy : sauvegarde en ligne pour les grandes entreprises, version EMC ».

MMS 2012 : une étape charnière dans la stratégie cloud privé de Microsoft

Spécial Microsoft Management Summit MMS 2012

Nous avons été invités à assister à un MMS 2012 exceptionnel, non pas dans sa forme, plutôt marketing, ni dans ses annonces, nous nous sommes contentés de la disponibilité de System Center 2012 et de celle proche de Windows Server 2012, ni encore par son contenu, finalement très classique à force d’ateliers et de démonstrations, mais par l’avancée singulière de la stratégie de Microsoft et la richesse des perspectives offertes par l’éditeur. Ce que ne contrediront pas les participants à cette manifestation, partenaires et clients venus du monde entier, qui ont tous reconnus les avancées réalisées par Microsoft et leur satisfaction d’appartenir à son écosystème.

La déception sur les annonces provient du fait qu’elles n’ont fait que confirmer ce que l’éditeur nous fait miroiter depuis déjà de nombreux mois : l’écosystème Microsoft dispose depuis longtemps des bêta et préversions des solutions révélées ici, leur annonce n’est donc qu’une formalité. Elles marquent en revanche les retards accumulés par Microsoft, la nouvelle version de System Center était attendue fin 2011, Windows Server 2012 pour le printemps, mais ne sera pas disponible avant la fin de l’année. Pour faire face à l’évolution des attentes des clients, elles sont très attendues, mais au vu de la qualité des produits présentés, Microsoft sera pardonné.

Focus sur Microsoft Private Cloud

« cloud privé », l’expression est lâchée dès l’ouverture du keynote de Brad Anderson, vice-président de la division Management & Security de Microsoft. La stratégie de Microsoft s’éclaircit, l’éditeur ne cédera à personne la place qu’il aspire à occuper dans le nuage. Mais il a bien compris que pour accompagner ses clients, il doit faire preuve de pragmatisme. Point de fioriture, de grandes envolées stratégiques, d’annonces tonitruantes… Microsoft fait dans la simplicité, et pour faire migrer ses clients dans le cloud, il leur fournit les outils pour transformer leur datacenter. Microsoft Private Cloud, c’est d’abord une vision dudatacenter du futur. C’est surtout une réalité d’aujourd’hui, qui associe les solutions de l’éditeur en un Lego riche, complexe, mais accessible. Le message est clair, il a été apprécié.

Rappelons donc comment Microsoft va nous emmener dans le nuage : premier élément, Windows Server 2012 est la plateforme logicielle qui vient prendre place au-dessus de la couche matérielle. Cette nouvelle version se présente comme une synthèse des précédentes, les erreurs cumulatives de l’éditeur en moins. Un peu comme si l’on repartait quasi à zéro, avec un environnement serveur reconstruit sur des bases moins fragiles, car non composées de briques hétérogènes. Côté virtualisation, Hyper-V 3.0 apporte ce qui manquait à Microsoft pour affronter sérieusement VMware. L’affrontement sera rude !Windows Azure apporte la couche d’infrastructure, de performances, de stockage et de services à la demande, pour couvrir les pics et les accessoires de ressources, pour répondre à un épiphénomène de consommation des IT de l’entreprise, ou assurer un PRA économique, par exemple. Pour piloter l’ensemble, il faut un outil d’administration sérieux. C’est System Center 2012, avec des compléments et/ou options pour gérer, orchestrer, piloter, sécuriser, virtualiser, etc.

Microsoft System Center 2012

La solution d’administration de Microsoft aura donc été la vedette de ce MMS 2012, l’éditeur ayant annoncé sa disponibilité mondiale. Elle est disponible en deux versions : Standard pour gérer une à deux machines virtuelles (VM) par serveur ; etDatacenter pour un nombre illimité de VM par serveur, entendez par là pour piloter le nombre maximum de VM qu’un serveur est physiquement capable de supporter. La solution s’accompagne de modules optionnels ou intégrés, parfois à activer, qui renforcent ses capacités à administrer uncloud privé. Le déploiement de ce dernier prend moins d’une minute, c’est spectaculaire lors d’une démonstration, mais dans la réalité quel DSI ira se livrer à un tel exercice extrême ?

System Center était modulaire. Les modules pour la gestion des applicatifs et des configurations, la sécurité jusqu’au poste de l’utilisateur, la gestion et l’orchestration des processus, des services et des VM sont désormais intégrés à System Center 2012 : App Controller, Configuration Manager, Data Protection Manager, Endpoint Protection, Operations Manager, Orchestrator, Service Manager et Virtual Machine. Microsoft a par ailleurs mis l’accent sur la mobilité, la gestion des terminaux mobiles. Aux PC Windows évidemment reconnus viennent s’ajouter les terminaux Windows Phone, Android et iOS, qui désormais profitent d’ActiveSync et de la personnalisation des services et déploiements via Configuration Manager. Seule la VDI (Virtual Desktop Infrastructure), pour les postes de travail virtuels, n’est pas encore intégrée, l’entreprise se tournera vers Citrix pour la gérer dans System Center.

La virtualisation étant incontournable du cloud, System Center 2012 dispose de Virtual Machine Manager, qui en plus de Hyper-V et VMware ESX, supporte désormais XenServer. Sur le nouvel hyperviseur. L’accent a principalement été mis les faiblesses endémiques de Microsoft en matière de virtualisation, la migration des VM et le stockage. En attendant Windows Server 2012 et Hyper-V 3.0 qui devraient remettre les pendules à l’heure. En revanche, côtécloud public et multitenant (multi instances locatives pour une application unique) , il faudra développer une couche de portail de services. Choix stratégique ou manque de temps ? Probablement les deux.

La stratégie Private Cloud s’impose

Au départ, le manque d’annonces et la volonté de Microsoft d’adopter une approche de communication marketing nous ont fait craindre le pire ! Jusqu’à ce que la stratégie Microsoft Private Cloud s’impose comme une évidence, même s’il s’agit principalement de faire évoluer le datacenter et que le cloud s’impose plus en argument moderne qu’en réelle technologie. Mais c’est surtout au contact de l’écosystème de l’éditeur que la stratégie de Microsoft s’est imposée en évidence. System Center 2012 était très attendu et les apports de cette nouvelle version – dont la simplicité d’usage, enfin ! – ont été chaudement accueillis. Il en sera de même avec Windows Server 2012 et Hyper-V 3.0 en fin de cette année. De plus, les partenaires de Microsoft disposent désormais et très prochainement d’arguments sérieux pour administrer les infrastructures de leurs clients, piloter le datacenter en environnement Microsoft, créer un cloud privé, et proposer une alternative économique à VMware. C’est la satisfaction de l’écosystème qui nous amène à conclure que MMS 2012 restera dans les mémoires comme une date phare, celle de la migration vers le cloud privé, dans l’évolution stratégique de Microsoft.

Dossier : Tata Communications en perpétuelle évolution

Le compte-rendu de notre rencontre avec Vinod Kumar dans le cadre du Global Media and Analyst Summit (GMAS) de Dubaï, le 21 mars dernier, finalisait notre série d’articles sur Tata Communications, compagnie de télécommunication mondiale avant d’être Indienne comme nous le rappelait son PDG. Un tour d’horizon qui nous a permis de mieux connaître l’opérateur au développement aussi impressionnant que ses ambitions.

Ainsi, tout en continuant à s’appuyer sur son cœur de métier, le transport de communication voix qui continue d’être rentable, Tata Communications regarde le développement du marché mobile pour poursuivre son développement. Pas en tant qu’opérateur mobile, mais bien comme fournisseur de capacité et de solution de gestion de ses réseaux mobiles à l’échelle mondiale. Une offre qui vise à aider les opérateurs à dégager un nouveau modèle économique.

Tirer parti de l’infrastructure

Mais l’opérateur entend bien tirer parti de son infrastructure de communication,qu’il ne cesse d’enrichir avec de nouveaux câbles transcontinentaux, pour développer de nouveaux services, sur le marché du cloud en l’occurrence avec deux offres majeures en modes IaaS (Infrastructure as a Service) et SaaS (Software as a service). Des solutions ouvertes aux entreprises du monde entier, mais qui restent, pour l’heure, physiquement implantées sur ses marchés locaux, l’Inde et Singapour principalement.

Il s’agit en effet de profiter du formidable développement économique des marchés émergents, en Asie et au Moyen-Orient principalement. Avec, comme stratégie, l’idée de proposer aux entreprises occidentales l’infrastructure nécessaire à leur implantation dans ces nouveaux Eldorados. De précieux partenariats

Pour y parvenir, Tata Communications entend bien poursuivre sa politique de partenariats à long terme avec des acteurs locaux. Des partenariats payants puisque l’opérateur génère des activités à partir des points de présence et sites d’arrivées de ses câbles sous-marins. Pas moins de 25 villes du vieux continent sont ainsi reliées par les réseaux de l’opérateur indien. Aujourd’hui,l’Europe constitue 20 % des revenus de Tata Communications qui se sont élevés à 2,56 milliards de dollars sur l’année fiscale 2011/2012.

Pour finir, nous avons souhaité avoir l’avis de Vinod Kumar sur l’évolution de l’industrie mobile, notamment des équipementiers occidentaux pris dans la tourmente de la concurrence des acteurs chinois ZTE et Huawei et la pression des opérateurs qui tirent les prix vers le bas. Voici sa réponse :

« Parmi les grands acteurs, tout le monde ne peut pas survivre. Sans citer personne, certaines entreprises n’innovent pas assez en matière de nouvelle technologie. D’un autre côté, je ne crois pas que les Chinois vont s’imposer partout dans le monde. Nous parlons avec beaucoup d’entreprises de la Silicon Valley ou d’Israël qui produisent de très bonnes technologies qui transformeront le paysage et deviendront les prochains Cisco, Juniper, Alcatel-Lucent ou bien se feront racheter par l’un deux. Les petites entreprises innovantes continueront à maintenir l’industrie vivante même si les concentrations sont inévitables. Mais je pense que nous n’atteindrons jamais le point de situation ou trois entreprises dominent le marché. Il y aura toujours des alternatives. » Même face à Tata Communications ?

Dossier : Windows 8, en images

C’est dans le cadre du MWC 2012 de Barcelone que Microsoft a livré la version de test publique de son prochain système d’exploitation desktop, Windows 8. Ceci n’est en rien dû au hasard, la firme espérant positionner cet OS sur de nouveaux marchés, comme celui des tablettes.

Nous avons profité de cette occasion pour proposer une série d’articles illustrés :

– installation pas-à-pas ;

– découverte de l’interface Metro ;

– vue du bureau classique ;

– nouvelles fonctions de connectivité.

Une rupture, là où une évolution était possible

Globalement, le bilan est plutôt positif. Le système est léger et réactif et l’interface Metro sera un vrai plus sur les tablettes. Toutefois, nous aurions aimé que les innovations présentées touchent également la mouture classique du bureau et non seulement Metro. Ceci est particulièrement vrai pour les nouvelles fonctions de connectivité, réservées aux applications Metro.

Autre regret, la page d’accueil de Metro remplace le bouton « démarrer » du bureau, alors qu’elle aurait pu le compléter avec brio. Un certain manque de synergie existe entre les deux environnements et c’est bien dommage. Heureusement, des outils permettent d’ores et déjà de corriger certains de ces défauts. Start8 permet ainsi de retrouver le menu « démarrer ».

Ne boudons pas notre plaisir. Plus solide et mieux fini que son prédécesseur, Windows 8 reste indéniablement une valeur sûre… même s’il fait ici rimer révolution avec rupture et non avec évolution.

Crédit photo : © Microsoft

Microsoft TechDays 2012 : une édition sous le signe des entretiens… et des annonces

Nous avons assuré une couverture complète des TechDays 2012 de Microsoft. La sixième édition de ce rendez-vous parisien a été l’occasion pourYves Grandmontagne de réaliser une série d’entretiens.

Avec Nicolas Petit (directeur division marketing et opérations de Microsoft France), tout d’abord, qui décrypte l’infrastructure présente derrière cet évènement, puis décrit la stratégie de la firme en matière d’infrastructures pour les datacenters.

Notre journaliste s’est également entretenu longuement avecBernard Ourghanlian, directeur technique et sécurité de Microsoft France,à propos de la situation en matière de sécurité, alarmante, et de la sécurité dans le cloud.

Entretien enfin avec Jean Ferré (directeur de la division développeurs, plateforme et écosystème de Microsoft France), qui explique que les entreprises deviennent aujourd’hui toutesdes producteurs de logiciels.

Focus et annonces

Les TechDays ont aussi été un moment privilégié pour faire le point sur certains secteurs les: appliances IA2 créées en collaboration avec HP, et le marché de l’embarqué, abordé ici par Myriam Semery, business lead Europe du Sud de Microsoft Windows Embedded.

Cet évènement fut l’occasion pour Microsoft, et ses partenaires, de dévoiler leurs nouveautés et de mettre en avant des initiatives récentes : l’offre VDI-in-a-box, créée conjointement par Microsoft et Citrix, et les futures nouveautés de Microsoft Dynamics CRM Release 8. Enfin, actualité chargée pour Steria, qui adopte Office 365 pour ses 20 000 collaborateurs et met un coup de projecteur sur son offre Workplace On Command.

Dossier AMD : le renouveau ?

Qu’on se le dise, AMD est bien présent et entend renforcer ses positions, en jouant pour l’essentiel la carte du pragmatisme. Consumérisation, cloud et convergence sont les trois moteurs de la firme, avec un important focus sur la qualité d’exécution. Une thématique queRory Read, CEO de la société, a développée lors de son allocution réalisée pendant l’AMD 2012 Financial Analyst Day.

Mark Papermaster, CTO d’AMD, a pour sa partmis l’accent sur deux choix technologiques stratégiques : la fusion des GPU et CPU (les APU) et l’arrivée de la firme dans le monde des SoC, ouvrant même la porte à de possibles puces ARM signées AMD. Mais ce n’est pas tout :lors d’un entretien réalisé auprès de quelques journalistes, il a indiqué que la méthodologie propre au monde des SoC sera appliquée à l’ensemble des produits de la société.

Une feuille de route conquérante

Lisa Su, general manager global business units d’AMD, a fait le tour des produits de la firme. Si les Opteron de nouvelle génération ont du mal à convaincre, la société s’en sort très bien dans le secteur de la mobilité. Le Brazos a été une surprise pour tout le monde… y compris AMD ! La firme capitalise sur ce succès, en multipliant les annonces produits, dont un processeur adapté aux tablettes. Un tableau que nous avons complété par la découverte de la roadmap d’AMD.

Enfin, Thomas Seifert, CFO d’AMD, peut se réjouir des bons résultats de la société. En 2012,il prédit 5 % de croissance pour les CPU comme les GPU. La mobilité devrait booster les chiffres de la firme, qui espère également refaire une partie de son retard dans le secteur des serveurs.

Crédit photo : © Silicon.fr

Perspectives 2012 : une année pleine de potentiel et de risques

En ce début d’année 2012, nous vous proposons un dossier permettant de faire le tour des perspectives pour l’année à venir, marché par marché.

Commençons tout d’abord par les solutions d’infrastructure, avec des points sur le cloud computing, le stockage (Quantum), la virtualisation (Quest Software) et les infrastructures de communication (Avaya). Yves Grandmontagne complète ce florilège avec un article dédié plus spécifiquement aux PME.

Christophe Lagane, notre spécialiste des télécoms, espère que2012 sera l’année du très haut débit… et du femtocell. Il en profite également pour rapporter les prévisions de Ciena en terme de connectivité réseau. Autre sujet critique, celui de la sécurité IT, évoqué ici par Yves Grandmontagne.

Solutions logicielles et bilans

Fin décembre, Red Hat a livré ses prévisions concernant les OS d’entreprise. Yves Grandmontagne s’est penché pour sa part sur le futur des PC. Enfin, votre serviteur a complété cette thématique avec un article portant sur l’avenir des navigateurs web.

L’année 2012 est également celle des bilans. Ceux d’Apple et de Microsoft font ainsi partie de nos articles de fin d’année. Si la firme de Cupertino a le vent en poupe, celle de Redmond semble plus que jamais entre deux eaux.

Bonne lecture et – encore une fois – excellente année à toutes et tous.

MAJ du 04/01/2012 : Yves Grandmontagne complète aujourd’hui notre dossier avec un article portant sur les tendances 2012 du marketing numérique, selon Adobe.

Crédit photo : © Fotogestoeber – Fotolia

DOSSIER: Protection de données (III): « guichet unique » ou « best of breed »? Que choisir?

La protection des données a un coût. L’administration et la gestion des sauvegardes se paient. La virtualisation, aussi – surtout dans un contexte de croissance exponentielle des données. Et il faut y ajouter la mise en conformité -autre poste de coût. Face à ces charges récurrentes de la protection de données, quelles options se présentent? Faut-il s’adresser à un cercle de divers fournisseurs, chacun spécialiste d’un domaine (‘best of breed‘) ? Ou faut-il préférer des acteurs qui fédèrent l’ensemble et proposent un « guichet unique » one-stop(‘ shopping‘) ? Ce dossier est construit en quatre volets: 1 – Avantages des solutions packagées 2 – Avantages des offres « best of breed » 3 –Témoignage : Linkbynet choisit la solution du « tout intégré », mais… 4 – Entretien, Claire Delalande (*), HP: « Jusqu’à 70% de réduction des coûts »

______

1 – Avantages des solutions packagées

L’offre logicielle dans le domaine de la protection de données s’enrichit, gagne en efficacité. Mais quelle attitude adopter pour obtenir un coût total, ou TCO (Total cost of ownership), le plus bas possible ? Cette question est centrale dans la réflexion des DSI (directions des systèmes d’information). La première attitude à adopter, avant de parler de critères de choix, est sans doute de se faire une idée sur cette question touchant à sa stratégie d’achat : ai-je intérêt à faire confiance à une option « one-stop shopping», c’est à dire un «guichet unique » auprès d’un seul éditeur ou un seul prestataire de service proposant une suite logicielle intégrée et globale? Ou bien ferais-je mieux d’opter pour une approche « best of breed », c’est à dire piocher, pour chaque besoin ou chaque fonction spécifique, les briques spécialisées les plus performantes auprès de plusieurs acteurs du marché, concurrents ou non, pour ensuite les intégrer au mieux dans mon SI et les orchestrer de façon centralisée et transparente?

Source: ESG (Enterprise Strategy Group) : La majorité des responsables DSI expriment leurs préoccupations concernant la récupération des données. Et l’un des critères déterminants, sinon le plus critique, touche au prix.

______Dès en 2003, une étude publiée par ARM Research posait déjà cette question auprès de décideurs européens. On constatait déjà à l’époque que lamaîtrise des outils et leur administration primaient sur les coûts dans ce débat « one-stop shopping » contre « best of breed« . Les DSI alors interrogés estimaient que l’approche « best of breed » leur permettait une flexibilité inégalée, alors que la stratégie du choix d’un vendeur unique permettait unTCO (Total cost of ownership) plus intéressant, mais, surtout, nettement plus prévisible. Les gains s’obtenaient sur la souplesse, la réactivité et la supervision efficace de l’ensemble. Coût des licences, facilité d’intégration, supervision unique, simplicité d’usage, souplesse des modèles de licence, rapport de force avec les fournisseurs -revendeurs et intégrateurs ou constructeurs ? Tous ces critères peuvent faire pencher la balance en faveur des solutions ‘packagées’. Il existe plusieurs bonnes raisons qui légitiment ce choix.

Des offres plus chères à l’unité Du point de vue économique, une solution « one stop shopping » composée de différentes briques d’une suite logicielle, est a priori plus économique qu’un empilement de solutions best“ of breed”. Cela devient surtout perceptible dans le cas de la prévention des pertes de données. Il est clair que les coûts de licence pour des produits vendus à l’unité sont plus élevés que ceux des solutions packagées. Sur ce point, la comparaison est à faire entre ce que proposent des acteurs tels que Symantec, NetBackup, EMC/Legato ou HP. Dans le contexte d’une évolution majeure, planifiée, du système d’information, le choix d’une solution «one-stop shopping» présente beaucoup d’arguments. Elle permet de réduire l’investissement de départ, quitte à étudier ultérieurement quelques alternatives en fonction de certaines spécificités pouvant apparaitre à l’usage, au fil du temps. Une intégration plus évidente Par ailleurs, la qualité de l’intégration d’une suite logicielle sera certainement plus pertinente que l’agrégation de différentes solutions spécifiques, aussi performantes soient-elles, chacune individuellement.

Par rapport aux contraintes d’homogénéité du SI, cela signifie une intégration unique, souvent standard. S’agissant de la protection des données, cela se traduit souvent par une seule et même interface de gestion qui prend en compte l’ensemble des fonctionnalités des différentes briques de la suite. Rien ne peut être plus délicat que de devoir gérer à la fois un outil de protection de données pour les serveurs physiques, un autre pour les machines virtuelles, un troisième pour la sauvegarde des données des postes de travail en local, et un quatrième pour les postes nomades. Surtout, l’intégration, au sens interopérabilité des différents outils ainsi agrégés, n’est pas toujours garantie.

Schéma: illustration ici des liens possibles autour de HP Data Protector. Les solutions intégrées satisfont les revendeurs qui font du soft et du hardware et donc travaillent à une meilleure intégration que celle du ‘ best of breed’.

. Une supervision unique Toujours à propos de gérer au quotidien des outils de protection des données, l’utilisation d’une seule interface dans la couche de supervision présente des avantages non négligeables. Cela évite de devoir utiliser plusieurs outils de gestion, de faire l’apprentissage de plusieurs modes de fonctionnement,…et de devoir recommencer à chaque mise à jour pour chacune des solutions. Sur le terrain, il s’avère vite indispensable de choisir un outil de supervision qui soit capable de fédérer efficacement l’ensemble. A moins de se lancer dans le développement en interne d’une solution « maison ». Ce n’est plus guère dans l’ère du temps. C’est un coût financier très important qui vient s’ajouter si l’intégration globale n’a pas été pensée et exécutée dès le départ.

Des modèles de licence plus souples Un autre argument prêche en faveur des solutions packagées: la simplicité des modèles de licence. Le déploiement de nouveaux serveurs est par exemple possible sans impacter les coûts de licence, souvent de manière illimité. Plus largement, la prise en compte de la «scalability » (capacité à évoluer) du système d’information devrait être plus aisée pour une solution packagée que pour différents logiciels accrochés tant bien que mal les uns aux autres. Et dans ce cas, les coûts TCO sur le long terme s’en trouvent nettement diminués.

Nouveau rapport de force avec revendeurs et intégrateurs Le fait d’utiliser des solutions packagées en provenance d’un seul et même éditeur peut conduire la DSI à une nouvelle relation avec les revendeurs et les intégrateurs. Concrètement, la gestion du support et de la maintenance des logiciels peut passer en partie du portefeuille de ces acteurs à celui de l’éditeur, du fait de sa connaissance de la suite logicielle proposée au client, et de l’interopérabilité « maison » des différentes briques. Se dispenser de quelques maillons de la chaîne peut également contribuer à abaisser le TCO du portefeuille logiciel, à condition que la négociation avec l’éditeur soit bien menée. Coûts et simplicité d’usage Au final, les deux critères clés qui peuvent faire pencher la balance vers des offres de « one-stop shopping» ce sont le coût et la simplicité d’usage. Le coût vient en effet s’inscrire dans une perspective de licence applicable à l’ensemble du SI, indépendamment de ses évolutions. De fait, la consommation de temps passé et, donc, de ressources humaines peut s’avérer considérable s’il faut, par exemple à chaque déploiement de serveur et de logiciel, intervenir pour valider la conformité légale des solutions. La simplicité d’usage, ensuite, peut être altérée si les différentes solutions, et c’est souvent le cas, présentent des degrés de compatibilité et d’interopérabilité réduits. Dans le domaine de la sauvegarde de données, la réplication des données est capitale, et l’hétérogénéité du système peut obérer considérablement les performances. Ces gains seront d’autant plus décisifs si le SI est stratégique en termes de différentiation concurrentielle. Dans le cas contraire, pour un site Internet par exemple, c’est la souplesse et la finesse des réglages de chaque brique du SI, prises indépendamment les unes des autres, qui priment. Elles permettent de proposer les offres les plus performantes. D’où l’intérêt de se pencher sur les critères de choix des solutions « best of breed« .

____( publicité )______

Livre blanc HP DataProtector

Pourquoi payer plus que nécessaire ? Voici, sous forme de livre blanc, quelques faits précis sur la réduction du coût des sauvegardes. Pour faire quelques estimations et calculs préalables, ce document de travail est à consulter sans modération… Pour y accéder, cliquer ici.

Face aux charges récurrentes de la protection de données, quelles options se présentent? Faut-il s’adresser à un cercle de divers fournisseurs, chacun spécialiste d’un domaine (‘best of breed‘) ? Ou faut-il préférer des acteurs qui fédèrent l’ensemble et proposent un « guichet unique » one-stop(‘ shopping‘) ? Ce dossier est construit en quatre volets: 1 – Avantages des solutions packagées 2 – Avantages des offres « best of breed » 3 -Témoignage : Linkbynet choisit la solution du « tout intégré », mais… 4 – Entretien, Claire Delalande (*), HP: « Jusqu’à 70% de réduction des coûts »

______

2 – Avantages des offres « best of breed »

Un rapport de force en faveur de l’utilisateur, une plus grande souplesse des mises à jour, du sur- mesure plus affiné, un allégement des briques inutiles ou inutilisés.. Les bonnes raisons de choisir des produits spécialisés, indépendants -ou « best of breed« – ne manquent pas.

Diviser pour mieux régner Du point de vue de la négociation commerciale avec les éditeurs, le choix d’une stratégie «best of breed » peut conduire à une position plus confortable, notamment lors du renouvellements des contrats. De fait, cela peut prendre plus de temps que s’il s’agit d’un seul et même interlocuteur. Mais la DSI et/ou la direction des achats seront en prise directe avec les différents protagonistes, potentiellement concurrents. La marge de manœuvre sera donc plus grande que face à un seul et unique prestataire. Cette situation est particulièrement avérée dans le domaine des ERP. Les rapports de force entre clients et fournisseurs se sont particulièrement cristallisées sur la question des coûts de licence, ceux de la maintenance, dans le cas de SAP ou d’Oracle, par exemple.

Dans le domaine de la protection des données, la concurrence naturelle entre les différents poids lourds historiques du secteur, comme Symantec, et des nouveaux venus, spécialistes de nouvelles technologies touchant à la virtualisation ou au ‘cloud’, commeVeeam et vRanger pour ne citer qu’eux, peuvent susciter les conditions d’une négociation ouverte. On peut citer également Druva inSync, logiciel d’automatisation de la sauvegarde des données dédié en premier lieu aux ordinateurs portables (à distance). Les points de restaurations temporels (illimités) et la déduplication de données améliorent le processus de sauvegarde, en utilisant la déduplication entre utilisateurs pour enregistrer « une seule copie » du contenu (emails/docs). Cette technique, dont le brevet est en cours, accélère la sauvegarde, réduit la bande passante et l’espace de stockage.

Souplesse sur les montées de version Un autre aspect, plus technique, peut caractériser le ‘best of breed‘: c’est la question des mises à jour et des ‘upgrades‘ de versions logicielles. Avec une approche ‘packagée’, c’est toute la gamme logicielle qui est mise à jour en une seule fois.

L’approche « best of breed » permet une certaine souplesse avec le calendrier des mises à niveau. Cette démarche peut s’avérer utile dans le cas où la protection de données devient une priorité à mettre en place très rapidement, sur des plates-formes déployées dans toute l’entreprise. L’utilisation de briques hétérogènes peut faciliter des allers-et-retours, des phases de test, des changements opérationnels et stratégiques, avec, en principe, plus de souplesse.

La question du bon dimensionnement L’approche « One stop shopping » peut présenter un risque: celui de se retrouver avec une suite d’outils qui ne correspondent pas exactement à ses besoins et à son périmètre. Sur-dimensionnée ou au contraire sous-dimensionnée, une suite professionnelles peut ne pas remplir correctement son rôle. Le choix d’une solution adéquate pour chaque sous-ensemble du SI peut s’avérer plus efficace. Le risque d’un sur-dimensionnement n’est pas seulement d’ordre financier avec des licences trop chères par rapport à l’usage direct des outils. Il peut aussi peser sur l’opérationnel avec des sessions de formation inutiles ou encore des interfaces de gestion trop lourdes, surchargées de fonctionnalités peu ou pas utilisées.

De même, le sous-dimensionnement de la suite peut avoir des effets négatifs. Par exemple, la non- prise en compte de nouvelles technologies comme le «cloud computing » ou la virtualisation peuvent conduire l’entreprise à investir dans de nouveaux outils, tout en maintenant active la suite logicielle pour des tâches quotidiennes nécessaires. Des surcoûts de licence et de gestion/administration peuvent découler d’une telle démarche. Avec une approche « best of breed« , l’investissement est censé s’échelonner au fur et à mesure de la croissance du SI, et répondre directement aux besoins du moment. Le coût TCO peut alors s’en trouver diminué.

Consolidation financière et avenir du ‘best of breed’ Force est de constater que la plupart des solutions ‘best of breed‘, aujourd’hui, peuvent finir un jour ou l’autre dans des « packs logiciels » avec du « tout intégré ». Cela en raison des consolidations capitalistiques qui interviennent irrémédiablement dans l’univers du logiciel.

TABLEAU COMPARATIF

En colonnes, on peut comparer les principales fonctionnalités, ainsi que l’interopérabilité des logiciels. Cette approche comparative montre bien les deux écoles : avec certains acteurs, plusieurs briques sont nécessaires; avec d’autres, un seul produit peut répondre à la totalité. Un autre élément différenciant à noter, mais non pris en compte ici, c’est le support: il peut être ou ne pas être multi-plateformes.

Face aux charges récurrentes de la protection de données, quelles options se présentent? Faut-il s’adresser à un cercle de divers fournisseurs, chacun spécialiste d’un domaine (‘best of breed‘) ? Ou faut-il préférer des acteurs qui fédèrent l’ensemble et proposent un « guichet unique » one-stop(‘ shopping‘) ? Ce dossier est construit en quatre volets: 1 – Avantages des solutions packagées 2 – Avantages des offres « best of breed » 3 -Témoignage : Linkbynet choisit la solution du « tout intégré », mais… 4- Entretien, Claire Delalande (*), HP: « Jusqu’à 70% de réduction des coûts »

______

3 -Témoignage : LINKBYNET choisit la solution du « tout intégré », mais…

LINKBYNET est un spécialiste de l’hébergement et des services associés, essentiellement pour les sites web. La société vient de célébrer ses 10 ans. Ce prestataire se développe autour de services destinés à des entreprises qui ne veulent pas ou hésitent à construire leur propre infrastructure de datacenter. La protection et la sauvegarde de données est donc tout naturellement un service que Linkbynet propose à ses clients. La société a retenu l’offre HP Data Protector (Hewlett Packard). Elle explique pourquoi elle en a fait la brique centrale de sa solution globale de sauvegarde.

« Nous avons commencé par tester des produits similaires, tels que ceux proposés par Legato (EMC) ou encore IBM. » explique Johnny Da Silva, responsable des sauvegardes chez Linkbynet. Certaines solutions sont même testées en phase de production. Au final, le produit HP est retenu « pour son rapport qualité/prix intéressant, pour son déploiement facile, son support efficace, autant de points que nous avons pu vérifier« , explique ce responsable. Mais c’est aussi l‘écosystème qui a eu les faveurs de Linkbynet. « Le choix de notre partenariat avec HP a reposé sur plusieurs critères. La qualité de la solution, c’est vrai, mais aussi le fait que leur solution était proposée comme prolongement naturel de notre collaboration lors de l’achat de nos serveurs», commente Johnny Da Silva. « Il est clair pour nous que la question d’une relation de confiance était primordiale». Plus de 4 000 serveurs sécurisés Chez Linkbynet, à ce jour, la solution packagée HP Data Protector sécurise plus de 4.000 serveurs. Elle lui permet de proposer, à ses clients entreprises, des services de sauvegarde et de récupération de données sur-mesure, avec des engagements garantis ouSLA (Service level agreements) qui assurent aux clients, de manière contractuelle, des délais maximum de récupération des données en cas de problème (écrasements accidentels de fichiers, pannes de serveurs, défectuosité de disques, coupures d’énergie, etc.) En pratique, Linkbynet a installé ses services sur 10 serveurs dédiés à la sauvegarde, avec HP DataProtector en environnement mutualisé (c’est à dire qu’ils intégrent les différentes instances clients, ou ‘multi-tenant‘). En parallèle, 8 autres serveurs de backup ont été dédiés aux clients grands comptes (des clients qui ont besoin de leur propre serveur de sauvegarde et de restauration – serveur loué ou acheté). Tout est ainsi mis en oeuvre de façon centralisée pour l’ensemble des tâches de sauvegarde et de récupération de données.

Une sauvegarde complète des données est effectuéechaque week-end. Des sauvegardes quotidiennes sont effectuées chaque nuit, selon des procédures définies contractuellement avec les clients (perte de données minimale de 24h). Tous les matins (4h du matin en hiver et 5h l’été), un contrôle de restauration est effectué par la filiale de l’entreprise située sur l’Ile Maurice, bénéficiant ainsi du décalage horaire. Cette dernière s’assure que les sauvegardes s’effectuent correctement et les relance le cas échéant avant même le début de la production au petit matin en France. Quant à la rétention des données, celle-ci varie de 32 jours (réglementaires) à trois mois, voire parfois un an.

Déduplication et virtualisation L’évolution des techniques de sauvegarde amène graduellement à élargir l’utilisation deHP Data Protector dans l’entreprise. « Aujourd’hui, nous regardons des solutions complémentaires ou nouvelles, car nous avons de nouveaux besoins en termes de déduplication et de virtualisation», mentionne Johnny Da Silva.

« Pour la déduplication, nous utilisions, jusqu’ici avec HP Data Protector, des robots standard. Mais, avec les lecteurs de cartouches et autres dispositifs mécaniques, on est jamais à l’abri de pannes matérielles. Aujourd’hui, nous avons ajouté un outil de déduplication à la cible vers des librairies VTL de Quantum pour le ‘backup’. Cela nous facilite de beaucoup la tâche de sauvegarde sur les sites distants. Surtout, nous avons des gains de performance sur la restauration des environnements mutualisés, qui impliquent une fragmentation importante : le disque est bien plus efficace pour cela que la bande ». C’est aussi l’arrivée de techniques comme la virtualisation du stockage qui ouvre de nouvelles perspectives pour Linkbynet. «La mise sur le marché de l’API vStorage de VMware a énormément changé la donne. Cela a permis à des acteurs comme Veeam ou vRanger de proposer des solutions spécifiques de protection des données des machines virtuelles. Par exemple, Veeam permet de restaurer en direct sur le système Veeam, avec une restauration en tâche de fond. Donc le RTO est très court. C’est une idée très simple mais révolutionnaire ». Mais, pour le moment encore, Linkbynet utilise toujours HP Data Protector.

Un secteur en véritable bouleversement Ceci amène la question de l’intégration et du reporting quand différents outils sont utilisés sur des tâches de sauvegarde. Pour Linkbynet, ce n’est pas un obstacle: « Nous avons nos propres outils de reporting des données. Donc le fait d’utiliser des outils de protection des données différents pour les serveurs physiques et virtuel ne nous pose pas de problème » détaille le responsable des sauvegarde de l’entreprise. Alors, l’avenir de HP Data Protector chez LINKBYNET ? «Aujourd’hui, nous sommes sur un système de sauvegarde avec différents logiciels. Mais à l’avenir, nous devrions à nouveau utiliser à plein Data Protector si la nouvelle version qui est prévue prochainement, je crois, s’interface aussi facilement avec lesAPI de stockage d’instances virtualisées, comme le fait Veeam ».

Et Johnny Da Silva tient à préciser qu’une réunification de l’environnement logiciel sous une seule et même bannière serait tout à fait envisageable dans les prochains mois. Il conclut : « Il faut dire que pendant des années, le domaine de la sauvegarde a été très stable. Avec le VTL et la déduplication tout a changé en l’espace de trois ans. Donc on peut penser que tout le monde va s’adapter rapidement à cette évolution ». Face aux charges récurrentes de la protection de données, quelles options se présentent? Faut-il s’adresser à un cercle de divers fournisseurs, chacun spécialiste d’un domaine (‘best of breed‘) ? Ou faut-il préférer des acteurs qui fédèrent l’ensemble et proposent un « guichet unique » (‘one-stop shopping‘) ? Ce dossier est construit en quatre volets: 1 – Avantages des solutions packagées 2 – Avantages des offres « best of breed » 3 –Témoignage : Linkbynet choisit la solution du « tout intégré », mais… 4 – Entretien, Claire Delalande (*), HP: « Jusqu’à 70% de réduction des coûts »

______Entretien avec Claire Delalande, HP Software (*) :

« Oui, on peut réduire les coûts de sauvegarde de 70% ! »

Dans l’argumentaire sur la solution HP Data Protector, vous dites qu’on peut protéger aussi bien des environnements physiques que virtuels. Et cela avec une interface unique. Soit. Mais qu’en est-il des licences ?

Claire Delalande:

Le modèle de licence que nous proposons est simplifié: la sauvegarde est illimitée, quel que soit le nombre de ‘clients’. Les licences peuvent être redéployées à la demande, en supprimant ou en modifiant les applications. En outre, les sauvegardes en ligne fonctionnent pour toutes les applications que l’on veut.

Et sur les serveurs multi-processeurs ? Sur les serveurs multi-processeurs, le tarif reste inchangé. Pas de tarification par « niveaux ».

Et les coûts d’administration : comment les diminuer ? Ici, la distribution des agents distants pour les ‘clients’ se fait automatiquement, donc très rapidement. Sur les serveurs virtuels, la procédure est simple : l’interface utilisateur a été clarifiée, ce qui dispense d’utiliser des scripts ou d’autres interfaces de traduction pour des non-spécialistes. Tout ceci explique pourquoi, au total, les économies réalisables peuvent aller jusqu’à 70% par rapport à d’autres solutions. Et cela explique aussi pourquoi nous avons, à ce jour, 37.000 clients à travers le monde.

HP privilégie la sauvegarde sur disque : pourquoi ? La bande coûte moins cher, non? Oui, la sauvegarde sur disque est privilégiée plutôt que celle sur bande: cela facilite et accélère les procédures de restauration des données. Et le prix des disques continue de baisser de façon spectaculaire.

La haute disponibilité est en effet un critère clé. Que proposez-vous ? La disponibilité du système est maximisée (pas d’interruption, pas de pertes des données), ceci grâce au composant ‘Zero Downtime Backup‘ : celui-ci gère la réplication directement sur les baies de stockage, ce qui permet plusieurs sauvegardes quotidiennes, avec des points de reprise pré- déterminés. La fonction ‘Instant Recovery‘ permet de restaurer quasi instantanément et automatiquement les données (y compris les fichiers ‘log’ des applications) – car plusieurssnapshots ‘ ‘ sont réalisés simultanément.

Et sur les machines virtuelles, les procédures sont-elles particulières ? Sur les serveurs virtuels, la restauration est lancée très facilement grâce à une interface utilisateur simplifiée. Toutes les étapes sont automatisées.

Comment et où prendre en compte la déduplication ? La capacité de stockage sur disque est optimisée grâce à une fonction appelée Virtual‘ Full » qui pointe vers les sauvegardes précédentes plutôt que de re-sauvegarder plusieurs fois les même données. On peut y ajouter la déduplication à la cible (sur le périphérique de destination), comme ‘StoreOnce‘, associée aux baies HP StorageWorks. Et la réplication est centralisée depuis une console unique. ___ (*) Claire Delalande est ‘Information Management Business Development Manager’ chez HP Software France.

____( publicité )______

Livre blanc HP DataProtector

Pourquoi payer plus que nécessaire ? Voici, sous forme de livre blanc, quelques faits précis sur la réduction du coût des sauvegardes. Pour faire quelques estimations et calculs préalables, ce document de travail est à consulter sans modération… Pour y accéder, cliquer ici DOSSIER: Consolider, sécuriser les infrastructures virtualisées – serveurs et stockage

La virtualisation touche aujourd’hui tous les sous-ensembles du ‘data center’ . D’où l’apparition d’alliances stratégiques rapprochant des acteurs clés du marché. Ce dossier récapitule la coopération développée entre Cisco, VMware et NetApp afin d’apporter une réponse aux nombreuses questions que soulève ce processus de virtualisation des ressources informatiques: quelles options d’architecture? Quelles possibilités d’extension ? Quels dispositifs de sécurisation ?… Ce document de synthèse est construit sur quatre volets:

1- Un partenariat original autour d’une architecture

2- Les atouts de la solution Cisco, NetApp, VMware

3- L’architecture FlexPod en 3 couches

4- La qualité de service de bout en bout : comment ?

______

1 – Un partenariat original autour d’une architecture

En janvier 2010, Cisco, NetApp et VMware ont officialisé un partenariat original pour proposer aux entreprises une architecture de data center standardisée, packagée et validée par ces trois acteurs. Cette architecture, dénommée Secure Multi Tenancy (SMT) doit permettre, aux entreprises qui l’adoptent, d’accélérer leur transition vers une infrastructure IT partagée et virtualisée de bout en bout. Ceci grâce à des « solutions cohérentes et éprouvées » simplifiant le déploiement et diminuant les risques. L’un des éléments importants de cette architecture SMT est sans doute la sécurisation: elle est dite « totale » en usage colocatif, c’est à dire utilisée par plusieurs ‘colocataires’ – entreprises ou entités utilisatrices, d’une même infrastructure serveurs, réseau et stockage.

Jusqu’à FlexPod for VMware

« L’architecture SMT engage les trois partenaires pour garantir une interopérabilité complète entre leurs solutions, avec une validation exhaustive par chacun d’eux », explique Bruno Picard, directeur technique de NetApp France. Cette validation entre dans la catégorie des CVD, Cisco ‘ Validated Design’ : les développements ont été testés et validés par les équipes d’ingénieurs des trois partenaires au sein des labos de Cisco.

Cisco, NetApp et VMware sont passés à une étape supérieure : ils ont coopéré pour la mise à disposition d’une solution complète appelée FlexPod for VMware. « Cette infrastructure a été optimisée pour gérer un ensemble de charges de travail applicatives mixtes. Elle est adaptée à une infrastructure de postes de travail ou de serveurs virtuels, une ‘colocation’ sécurisée ou des environnements ‘cloud’ », expliquent les trois partenaires.

______

Quatre piliers indispensables

Pour un environnement mutualisé et sécurisé, quatre piliers sont utiles et nécessaires –estiment les trois partenaires –Cisco, NetApp et VMware:

1• Séparation sécurisée : un ‘colocataire’ (‘tenant’) ne doit en aucun cas pouvoir accéder au serveur virtuel, au réseau ou aux ressources de stockage d’un autre ‘colocataire’. Tous les ‘colocataires’ doivent être séparés les uns des autres de manière sûre.

2• Garantie de service : les performances de calcul, de réseau et de stockage doivent être isolées et garanties, aussi bien en cas de pannes ou de charges anormales générées par certains colocataires que pendant les périodes de fonctionnement normal.

3• Disponibilité : l’infrastructure doit assurer que les ressources nécessaires de calcul, de réseau et de stockage demeurent disponibles face à des pannes potentielles.

4• Gestion/administration : la capacité à fournir, gérer et contrôler rapidement et facilement toutes les ressources est essentielle.

______

Les enjeux de la virtualisation (Etude ESG)

Une étude récente (fin 2010), réalisée par le cabinet Enterprise Strategy Group (ESG), confirme qu’en matière de virtualisation d’infrastructure les priorités restent d’abord laconsolidation des serveurs et ensuite celle des unités de stockage: amélioration des process de sauvegarde et de restauration des machines virtuelles – à égalité avec l’extension du nombre d’applications en environnement virtualisé.

______

Les applications cibles

Parmi les applications concernées par cette offre, NetApp cite notamment lamessagerie . Celle-ci est traditionnellement gérée et déployée comme un « silo » indépendant.FlexPod offre maintenant la possibilité de la transférer ailleurs, sur une autre plate-forme mutualisée, moins coûteuse.

D’autres applications sont visées, comme, par exemple,environnement l’ ERP avec son infrastructure de stockage associée qui, repose typiquement sur du SAN (Storage Area Network), mais supporte aussi des serveurs de fichiers, de l’archivage légal (ECM), etc.

« L’enjeu c’est de faire migrer ces silos vers une infrastructure ‘multi-tenant’ -c’est-à-dire une offre en ‘colocation’, auprès de plusieurs organisations indépendantes « colocataires », précise Bruno Picard. Il peut s’agir d’une configuration en ‘cloud’ public ou privé. C’est-à-dire une configuration multi-clients, a priori, mais qui peut tout à fait se partager au sein d’un même groupe (les clients dans ce cas étant des « Business Units » ou des filiales).

______

Vidéo: table ronde Cisco, NetApp, VMware Bruno Dutriaux, ‘business development manager’ chez Cisco France, Bruno Picard, directeur technique de NetApp France, et Sylvain Siou, directeur technique de VMware France, expliquent les enjeux des datacenters virtualisés.

Ce document de synthèse est construit sur quatre volets:

1- Un partenariat original autour d’une architecture

2- Les atouts de la solution Cisco, NetApp, VMware

3- L’architecture FlexPod en 3 couches

4- La qualité de service de bout en bout : comment ?

2 -Les atouts de la solution Cisco, NetApp, VMware

Les avantages sont multiples, affirment les trois partenaires:

– une architecture unifiée: « NetApp s’est toujours engagé à proposer des solutions de stockage évolutives, sans rupture technologique dans la gamme ». Toutes les solutions offrent un accès multi-protocolaire. Point plus important, sans doute: les fonctionnalités disponibles (déduplication, provisionnement fin, clones fins, compression, réplication, sauvegarde…), les processus, les procédures et les tâches d’administration/supervision le sont quelle que soit la technologie mise en œuvre.

– une efficacité du stockage inégalée: « En mettant en œuvre les bonnes pratiques NetApp, on peut parvenir à des gains de volumétrie supérieurs à 50% ,» affirme Bruno Picard. La déduplication et la compression de données sont optimisées, car elles sont déjà « embarquées », de même que les fonctions de ‘provisionnement’ fin et de clones fin.« Plus de 2 exabytes (deux fois 1024 pétas !) de stockage ont été gagnés par nos clients en implémentant ces fonctionnalités embarquées. Chez certains clients comme IFP Energies Nouvelles, Direct Energie ou Telehouse, le taux varie de 50 à 80 % .»

– une offre évolutive verticalement et horizontalement sans rupture

« NetApp s’est toujours engagé à proposer des solutions de stockage évolutives, sans rupture technologique dans la gamme ». En clair, cela signifie que l’on peut démarrer avec une petite configuration pour évoluer ensuite progressivement: c’est le même microcode, les mêmes logiciels, les mêmes outils d’administration et de supervision. « Il est donc possible de migrer d’une baie A vers une baie B de manière totalement transparente».

Concrètement, on peut évoluer de la gamme FAS2020 à la gamme FAS6280, sans rupture, en croissant de 20 To à 2,4 petabytes, pour des performances d’I/O records (des centaines d’entrées/sorties par seconde !).

Faire évoluer son infrastructure peut aussi se faire de manière « horizontale » par ajout d’une nouvelle brique d’infrastructure (nouveau Pod). Data Motion de NetApp permet alors de transférer un colocataire en toute sécurité de l’ancienne infrastructure vers la nouvelle.

– une protection des données intégrée

« Que le ‘nuage’ soit interne ou externe, privé ou public, il faut garantir le plus haut niveau de sécurité des données», relève Bruno Picard.

« Il existe, pour cela, un ensemble de mécanismes embarqués dans les solutions NetApp allant du ‘snapshots’ jusqu’à la fonctionnalité de cluster étendu (Metrocluster), qui facilitent la disponibilité et l’intégrité et la sécurité des données. »

– la ‘colocation’ (ou le ‘multi-tenancy’) sécurisée : l’offre mise au point par NetApp, VMware et Cisco intègre une « sécurité généralisée, globale de bout en bout».

« Le problème principal est celui de l’étanchéité entre les applications », souligne Bruno Picard. « Dans un environnement de baies virtuelles offert par la solution MultiStore (*), tout est disjoint : les comptes d’administration, les dénominations des domaines et des volumes, etc.»

____

(* ) Cf. ‘MultiStore’, compartimentation ; architecture de baies virtuelles, auditée par KPMG, ou par des opérateurs télécoms. Multistore est un logiciel appartenant à la bibliothèque NetApp Data ONTAP. Il permet de déployer des systèmes de stockage FAS et de les partitionner en systèmes virtuels indépendants (ou vFiler), chacun étant dédié à un sous-ensemble administré de façon autonome. Multistore virtualise des ressources de stockage et de réseau en créant de multiples ‘endpoints’ (points de terminaison) pour différents clients ‘stockage’, en les différenciant selon leur connexion IP. Chaque vFiler‘ ‘ a donc un chemin d’accès logique séparé, ce qui le rend inaccessible aux autres ‘vFilers’ . Cf schéma ci-après: comme Multistore protège des intrusions ou attaques.

– les performances: s’il faut donc garantir la sécurité d’étanchéité entre ces environnements hétérogènes, il faut également s’engager sur les performances : temps de réponse, temps de restauration, délais de remise en route, etc.

« Or, ajoute Bruno Picard, le microcode des solutions NetApp intègre toutes les fonctionnalités nécessaires à la mise en œuvre de SLAs (Service Level Agreement) différenciés entre les colocataires. »

– des process automatisés

Pour provisionner/dé-commissioner, rapidement, des serveurs logiques, des capacités réseau, jusqu’aux unités de stockage des données, les processus sont facilités et automatisés.

______

Trois options (non exclusives) sont possibles: En pratique, Cisco, NetApp et VMware proposent trois options:

1- utilisation des outils NetApp

2-intégration à vCenter vSphere de VMware – y compris le ‘provisionnement’ de l’espace disque ; la réplication ; la sauvegarde ; la restauration ;

3-mise à disposition d’une API, pour accéder aux environnements des principaux fournisseurs de solutions d’administration/supervision (BMC, HP, CA, IBM Tivoli…) ; donc faciliter l’intégration dans ces environnements.

C’est une offre « exclusivement relayée par des partenaires« : « Ni nous, ni VMware , ni Cisco n’avons vocation à faire le service nous-mêmes », insiste Bruno Picard.

Cisco et NetApp, avec VMware, ont ainsi déployé un programme de « partenaires certifiés » :

« Nous sommes là pour construire des architectures, pour proposer les briques de base. Mais ce sont nos partenaires qui composent et intègrent les solutions. »

En France, par exemple, quatre partenaires principaux sont déjà certifiés:APX , OVENCE, SCC et, depuis décembre 2010, Telindus. Ils sont, entre autres, certifiés pour l’offre UCS (Unified Computing Systems) de Cisco.

‘FlexPod for VMware‘, une offre tri-partite pour des ‘datacenters’ flexibles et efficaces

Cette infrastructure partagée unifiée et pré-testée, co-développée par Cisco et NetApp, réunit des composants réseau, stockage et logiciels.

Des configurations ont été pré-dimensionnées, en fonction des besoins de performances.

Ainsi, 5 configurations types ont été définies, pour 5.000 utilisateurs, 10.000, 20.000 utilisateurs et plus.

Côté réseau, l’une des pierres angulaires est l’offre Nexus de Cisco, multi- protocoles : iSCSI, FC (Fibre Channel), FCoE (Fibre Channel over Ethernet), NFS –NAS… (cf. encadré ci-après)

« Tout ceci fonctionne sur une infrastructure Ethernet 10 gigabits et/ou Fibre Channel. Et il est possible d’utiliser indifféremment les uns ou les autres ou les combiner. Chez NetApp, toutes les baies de stockage fournissent cette possibilité (attachements multiples). Et chez VMware, on peut différencier applications ou services selon les protocoles. »

Donc, pour le responsable ‘système’, le choix subsiste. Il reste possible de mixer ces différents protocoles, par exemple en fonction des SLA (service level agreements, ou engagements de qualité de service) ou des compétences en place au sein des équipes IT.

Quels que soient les choix en terme d’utilisation, le système de serveur UCS de Cisco pré-intègre, dans une architecture physique unique, toutes les possibilités. « Chaque serveur d’un système UCS a potentiellement et par simple configuration logique accès à toutes les ressources de stockage connectées quel que soit le protocole (iSCSI, NAS ou FC/FCoE) ». ______Vidéo: table ronde Cisco, NetApp, VMware Bruno Dutriaux, ‘business development manager’ chez Cisco France, Bruno Picard, directeur technique de NetApp France, et Sylvain Siou, directeur technique de VMware France, expliquent les enjeux des datacenters virtualisés.

Ce document de synthèse est construit sur quatre volets:

1- Un partenariat original autour d’une architecture

2- Les atouts de la solution Cisco, NetApp, VMware

3- L’architecture FlexPod en 3 couches

4- La qualité de service de bout en bout : comment ?

3 – L’architecture FlexPod en 3 couches

À chaque niveau de cette architecture – serveurs, réseau, stockage – les composants matériels et logiciels ont été mis au point « pour offrir sécurité, qualité de service, disponibilité et facilité de gestion ».

Figure 1) Schéma fonctionnel « bout en bout ».

1 – Couche calcul/ serveur

Au niveau de la couche calcul, les logiciels VMware, vSphere et vCenter Server apportent un environnement robuste de virtualisation de serveur. Il permet l’allocation dynamique des ressources serveur à plusieurs systèmes d’exploitation invités, exécutés sur des ordinateurs virtuels.

VMware vShield Zones assure la sécurité au niveau des activités de calcul. Il s’agit d’un pare-feu virtuel, distribué, dynamique et géré de façon centralisée, fourni avec vSphere 4.0. Il crée des zones de sécurité grâce à la proximité de l’hôte ESX et à la visibilité du réseau virtuel. vShield Zones s’intègre dans VMware vCenter. Il exploite les données virtuelles d’inventaire telles que les vNIC, les groupes de ports, les ‘clusters’ (grappes) et les VLAN pour simplifier la gestion des règles du pare- feu et le provisionnement des zones de confiance. Cette nouvelle façon de créer des règles de sécurité suit les ordinateurs virtuels à l’aide de VMotion. Elle est complètement transparente aux modifications d’adresses IP et à la renumérotation de réseau.

UCS de Cisco (Unified Computing System) est la plate-forme de nouvelle génération pour ‘data centers’. Elle associe ressources de calcul, accès au réseau, accès au stockage et virtualisation au sein d’un système cohérent. L’offre UCS comprend une structure de réseau Ethernet 10 Gigabits à faible latence et sans perte, avec des serveurs x86. C’est une plate-forme intégrée, évolutive et multi-châssis.

2 – Couche réseau à base de switchs Nexus (Cisco) La couche réseau offre une connectivité sécurisée entre les couches calcul et stockage, ainsi que des connexions vers les réseaux et les clients externes. Les composants essentiels sont :

• Cisco Nexus 7000 : il fournit une connectivité Ethernet (LAN) 10Gb/s et 1Gb/s aux réseaux externes. Il est généralement utilisé en cœur de réseau de Data Center.

• Cisco Nexus 5000 : est un switch 10Gb/s d’agrégation et d’accès multi protocole (Ethernet, FCoE et FC).

• Cisco Nexus 1000V : ce switch logiciel est implémenté dans le noyau VMware afin de fournir des services Cisco VN-Link pour une intégration étroite des machines virtuelles (« VM ») à l’environnement réseau. Pendant un VMotion, il permet la permanence des caractéristiques réseau de la VM.

• Cisco MDS 9124 : ce switch Fibre Channel offre une connectivité SAN afin de permettre entre autres le « boot on SAN » des instances VMware ESX exécutées sur le système UCS.

3 – Couche stockage de NetApp

La couche stockage se compose des systèmes de stockage unifié de NetApp, capables de fournir simultanément une connectivité SAN et une connectivité Ethernet (NFS, iSCSI, FCoE). Le stockage NetApp peut également répondre aux besoins de stockage spécifiques de n’importe quelle application en cours d’exécution. L’exécution de l’environnement VMware sur Ethernet permet de simplifier à l’extrême l’environnement de gestion et de réduire ainsi les coûts.

Le logiciel NetApp MultiStore offre au stockage partagé un niveau de sécurité et d’isolation comparable à celui des baies de stockage isolées physiquement. MultiStore permet de créer plusieurs partitions logiques complètement isolées sur le même système de stockage, et ainsi de partager le stockage sans mettre en péril la confidentialité des données. Les conteneurs de stockage peuvent être transférés de façon indépendante et transparente entre les systèmes de stockage.

______

Le ‘provisionnement’ des colocataires

Lorsqu’un colocataire est ‘provisionné’ à l’aide de cette architecture, l’environnement qui en résulte est équipé de divers éléments :

• au moins un ordinateur virtuel ou un vApp

• au moins un contrôleur de stockage virtuel (unité vFiler)

• au moins un VLAN pour l’interconnexion et l’accès à ces ressources.

« Ensemble, ces entités forment une partition logique. Le colocataire ne peut pas violer les limites de cette partition. Outre la sécurité, nous voulons aussi être certains que les activités qui se déroulent sur la partition d’un colocataire n’interfèrent pas indirectement avec les activités en cours sur la partition d’un autre », affirment NetApp et Cisco. Ce document de synthèse est construit sur quatre volets:

1- Un partenariat original autour d’une architecture

2- Les atouts de la solution Cisco, NetApp, VMware

3- L’architecture FlexPod en 3 couches

4- La qualité de service de bout en bout : comment ?

4 – La qualité de service de bout en bout : comment ?

par Chris Naddeo, ingénieur Marketing et Technique pour UCS , Cisco. (résumé)

Très peu de projets s’attaquent à la question de la qualité de service de bout en bout. En général, un mécanisme de qualité de service est activé au niveau d’une couche, dans l’espoir que les couches supérieures et inférieures en bénéficieront aussi.

Oui, mais toutes les applications sont dotées de caractéristiques différentes : certaines exigent une capacité de calcul importante tandis que d’autres pèsent lourdement sur le réseau ou sur les volumes d’E/S (entrées/sorties ou I/O). Se contenter de limiter les E/S n’a que peu, voire aucun impact sur le contrôle de l’utilisation du CPU par une application exigeant une capacité importante du processeur.

Cisco, NetApp et VMware ont conçu un mécanisme approprié pour chaque couche, à partir de leurs propres développements.

Quand des ressources ne sont pas utilisées, les applications importantes doivent pouvoir les utiliser si nécessaire. Cela peut permettre à une application de faire face à des circonstances imprévues. En revanche, en cas de conflit, tous les colocataires doivent avoir la garantie de pouvoir bénéficier du niveau de service auquel ils ont souscrit.

Un autre principe de conception a consisté à définir la classe de service au plus près de l’application, à ‘mapper’ cette valeur dans une définition de règle et à s’assurer que la règle en question était appliquée uniformément sur toutes les couches, conformément aux qualités propres à chaque couche. Pour assurer cette qualité de service, trois mécanismes ont été utilisés pour chaque couche :

______

Trois mécanismes de qualité de service

1 – Couche calcul /serveur Pour la virtualisation des serveurs, VMware vSphere offre de nombreuses fonctions visant à assurer une bonne utilisation des ressources, notamment du processeur et de la mémoire. Le pool de ressources vSphere est une abstraction logique permettant une gestion flexible des ressources. Les pools de ressources peuvent être groupés en hiérarchies et utilisés pour partitionner de manière hiérarchique les ressources disponibles du processeur et de la mémoire. En configurant correctement les attributs du pool de ressources concernant les réserves, les limites, les partages et les réserves extensibles, on peut effectuer un contrôle très fin et accorder la priorité à un colocataire sur un autre serveur en cas de conflit au niveau des ressources.

VMware Distributed Resource Scheduler (DRS) permet de créer des clusters contenant plusieurs serveurs VMware. Ce DRS contrôle en permanence l’utilisation des pools de ressources et alloue de manière intelligente les ressources disponibles aux machines virtuelles. DRS est entièrement automatisé au niveau du cluster, de sorte que les charges de l’infrastructure et de la machine virtuelle du colocataire font l’objet d’un équilibrage de charge entre tous les serveurs ESX d’un cluster.

En ce qui concerne le matériel, Cisco UCS utilise Data Center Bridging (DCB) pour gérer tout le trafic au sein du système Cisco UCS. Cette amélioration du standard Ethernet divise la bande passante du canal Ethernet en 8 voies virtuelles. Les classes du système déterminent comment la bande passante DCB est allouée au sein de ces voies virtuelles, à destination du système Cisco UCS complet. Chaque classe réserve un segment spécifique de la bande passante pour un certain type de trafic. Cela a pour effet de créer un certain degré de gestion du trafic, même dans un système fortement chargé.

2 – Couche ‘réseau’

Au niveau du réseau, le trafic est segmenté en fonction de la classe de service attribuée au préalable par le Nexus 1000v et observée ou réglementée par le système UCS de Cisco.

Il existe deux méthodes distinctes pour offrir une protection continue des performances :

1• La file d’attente permet aux périphériques réseau de planifier la livraison de paquets sur la base des critères de classification. En cas de surexploitation des ressources, la possibilité de déterminer quels paquets doivent être livrés en premier génère, au bout du compte, une différence de temps de réponse pour les applications importantes.

2• Le contrôle de la bande passante autorise aux périphériques réseau un nombre adéquat de tampons par file d’attente, de façon à éviter que certaines classes de trafic n’utilisent à outrance la bande passante. Cela donne aux autres files d’attentes une bonne chance de répondre aux besoins des classes restantes. Le contrôle de la bande passante va de pair avec la file d’attente. En effet, la file d’attente détermine quels paquets seront livrés en premier, tandis que la bande passante détermine la quantité de données qui peut être envoyée pour chaque file.

Le switch Nexus 1000V de Cisco est utilisé pour la fonction d’application de règles et de limitation du débit pour trois types de trafic :

1• VMotion. VMware recommande une interface Gigabit dédiée pour le trafic VMotion. Dans cette infrastructure, le trafic VMotion est dédié à l’aide d’un port VMkernel non routable. Afin de correspondre aux environnements traditionnels, le trafic VMotion est fixé à 1 Gbit/s. Cette limite peut être élevée ou abaissée selon les besoins.

2• Services différenciés de transaction et de stockage. Dans une structure mutualisée, différentes méthodes sont utilisées pour générer des services différenciés. Par exemple, on a recours à une file « prioritaire » pour les services les plus importants et à une file «sans perte » pour le trafic qui ne peut pas être abandonné mais qui peut supporter un certain retard.

3• Gestion: le VLAN de gestion est activé avec une limitation du débit fixée à 1 Gbit/s.

3 – Couche stockage : MultiStore et FlexShare

Dans l’environnement d’exploitation Data ONTAP de NetApp, le logiciel MultiStore procure aux environnements mutualisés une isolation sécurisée.

Au niveau du stockage, pour assurer la qualité de service, il est nécessaire de contrôler la mémoire cache du système de stockage et le degré d’utilisation du processeur. Il faut également s’assurer que les charges de travail sont réparties sur un nombre approprié de ressources processeurs. NetApp a développé FlexShare pour contrôler l’attribution de priorités aux charges de travail.

Avec FlexShare, trois paramètres indépendants peuvent être réglés pour chaque volume de stockage ou chaque unité vFiler dans une configuration MultiStore. On peut ainsi accorder la priorité à une partition colocataire par rapport à une autre.

Le ‘thin provisioning’ (provisionnement fin) de NetApp offre aux colocataires un certain niveau de « stockage à la demande ». La capacité brute est considérée comme une ressource partagée et n’est consommée que selon les besoins. Lorsque l’on déploie des ressources à ‘provisionnement fin’ dans une configuration mutualisée, on doit définir des règles de croissance automatique du volume et de suppression automatique de Snapshots.

La croissance automatique du volume permet à un volume de se développer selon des incréments définis, jusqu’à un seuil prédéfini. La suppression automatique permet de supprimer automatiquement les copies Snapshot les plus anciennes lorsqu’un volume est presque plein.

En associant ces fonctions, on peut accorder aux colocataires importants la priorité pour la croissance d’un volume, à partir de l’espace réservé du pool partagé. À l’inverse, les colocataires de moindre niveau doivent faire appel à un administrateur.

Chris Naddeo (*)

Ingénieur Marketing et Technique pour UCS , Cisco Systems

(*) Chris Naddeo a rejoint Cisco pour se consacrer à la conception d’architectures de stockage optimales pour l’offre UCS ( Unified Computing System) de Cisco. Il a notamment travaillé un an chez NetApp en tant qu’ingénieur-consultant système pour Oracle et Data ONTAP GX. Il a également exercé pendant neuf ans comme responsable produit chargé des logiciels de stockage chez Veritas. ______

Vidéo: table ronde Cisco, NetApp, VMware Bruno Dutriaux, ‘business development manager’ chez Cisco France, Bruno Picard, directeur technique de NetApp France, et Sylvain Siou, directeur technique de VMware France, expliquent les enjeux des datacenters virtualisés.

Dossier comparatif navigateurs web : Chrome champion toutes catégories en 2011

Le début de cette nouvelle année est l’occasion idéale pour tenter de répondre à une question importante : quel sera le plus performant des navigateurs web ? Nous avons mis face à face les versions de développement des butineurs les plus courants :

– Internet Explorer 9 Platform Preview 7 (1.9.8023.6000) du 17/11/2010, avec accélération graphique inactive (Microsoft) ;

– Firefox 4.0b9pre « Minefield » du 02/01/2010, avec accélération graphique active (Mozilla) ;

– Chrome 10.0.614.0 « Canary Build » du 02/01/2010, avec accélération graphique active (Google) ;

– Safari 5.0.3 + WebKit r74232 du 17/12/2010, avec accélération graphique active (Apple) ;

– Opera 11.00 rev1156 du 16/12/2010 sans support de l’accélération graphique (Opera Software).

Rappelons que l’accélération graphique peut avoir une incidence sur les tests. En effet, elle décharge le processeur d’une partie de ses tâches (qui sont prises en charge par le processeur graphique, GPU) lui laissant ainsi plus de temps pour exécuter le code JavaScript. Notez que sur la plupart des configurations, Internet Explorer 9 supportera l’accélération graphique et proposera donc des performances supérieures à celles mesurées au sein de notre comparatif.

Notre dossier se compose de quatre parties successives : les parts de marché (page 2), le respect des standards (page 3), les performances des moteurs JavaScript (page 4), puis les performances générales des navigateurs (page 5). Bonne lecture ! Parts de marché

Graphique 1 : au niveau mondial, Internet Explorer reste le champion des navigateurs web. Il perd toutefois encore et toujours des parts de marché. Ceci ne profite plus guère à Firefox, dont le nombre d’utilisateurs stagne. Chrome est le butineur qui monte le plus rapidement. Notez également la bonne tenue de Safari, liée à la hausse des ventes des machines Apple.

.

Graphique 2 : en Europe, le phénomène est encore plus marqué. Internet Explorer est en nette baisse, les parts de marché de Firefox s’effritent et Chrome gagne de nombreux partisans. Safari et Opera s’en sortent très honorablement. Un bénéfice lié directement à la présence duballot screen de Microsoft, imposé par la commission européenne.

.

Graphique 3 : la France bat le chaud et le froid. Le froid pour ses choix classiques : Internet Explorer y est ainsi plus populaire que dans le reste de l’Europe. À contrario, Firefox et Opera sont moins utilisés. Le chaud également, notre contrée comptant un grand nombre d’utilisateurs de Chrome et de Safari. Il est vrai que la France reste un des bastions d’Apple.

.

Graphique 4 : chez les développeurs et les webmasters, Firefox se place devant Internet Explorer. Les deux butineurs perdent cependant des parts de marché depuis notre dernier pointage, au profit de Chrome (boosté par le Chrome Web Store, qui attire les développeurs), mais aussi de Safari (soutenu par la hausse des ventes des machines Apple).

Respect des standards Graphique 1 : score maximal au test Acid3 pour Chrome, Safari et Opera. Firefox et Internet Explorer jouent toujours la carte de la prudence, en refusant d’implémenter certaines fonctionnalités encore en cours de développement. Ne vous y trompez pas toutefois : tous les butineurs proposent ici des résultats irréprochables.

.

Graphique 2 : aucun changement du côté des sélecteurs CSS3. Nos quatre butineurs proposent aujourd’hui un score parfait à cette série de tests. Modernité et respect des standards forment les fondements des nouveaux navigateurs web… y compris chez Microsoft. Voilà qui ne manquera pas de rassurer les développeurs.

.

Graphique 3 : dans le secteur de la compatibilité HTML5, Internet Explorer fait bande à part. Les responsables de Microsoft ont ainsi choisi de n’implémenter que les fonctionnalités qui peuvent être considérées comme finalisées. Pour les quatre autres butineurs, c’est toujours la course à l’échalote, le grand champion dans ce domaine restant Chrome.

.

Graphique 4 : terminons par la compatibilitéJavaScript , un élément important pour les développeurs. Le score grimpe avec l’ensemble des butineurs. Le classement reste toutefois inchangé : Opera est premier, talonné de très près par Internet Explorer. Chrome et Safari restent en retrait, alors que Firefox ferme la marche.

Performances des moteurs JavaScript

Graphique 1 : le test SunSpider est une référence, les éditeurs le savent bien. Mais le restera-t-il encore longtemps ? En effet, à force d’optimiser les moteurs JavaScript pour ce seul test, les résultats des butineurs en deviennent presque suspects. Explorer prend ainsi la tête de ce classement, devant Firefox, Safari, Opera et Chrome.

.

Graphique 2 : le benchmark V8 favorise nettement Chrome. Pour le reste, ses résultats sont plus conformes à la réalité que ceux livrés aujourd’hui par le test SunSpider. Opera décroche ainsi la seconde place, devant Safari et Firefox, Internet Explorer fermant la marche. Vous noterez la bonne progression de Firefox, qui rejoint presque le trio de tête.

.

Graphique 3 : la très complexe série de tests Dromaeo est représentative des traitements lourds menés par certaines applications web modernes. Chrome domine le classement… suivi par Firefox, qui dépasse Opera. Notez que ceci n’est pas dû à une hausse des performances de Firefox, mais à une baisse radicale de celles d’Opera 11.00. Internet Explorer occupe la dernière place.

.

Graphique 4 : Kraken est un autre benchmark « réaliste » en termes de traitements. Firefox est toujours premier au classement. Chrome le rattrape toutefois rapidement. Là encore, le score d’Opera chute assez lourdement. Internet Explorer est en dernière position, mais avec un score en progression de fois 2,9 par rapport à notre dernier classement !

Performances générales des navigateurs

Le test Peacekeeper évalue les performances générales des navigateurs.Chrome confirme ses bons résultats, avec un score en légère hausse. N’en déplaise à certains, l’offre de Google est aujourd’hui imbattable en terme de performances pures.

Opera, s’en sort très bien, mais sa note tombe de presque 40 %. Point de triche ici, cette contreperformance étant également mesurable avec d’autres tests. Un problème que les développeurs de la compagnie devront corriger.

Même constat pour Safari dont l’évaluation est réduite de plus de 35 %. Il est vrai que si le butineur est efficace en terme de vitesse brute, la lourdeur de son interface sous Windows le pénalise fortement. Et ne parlons pas de sa consommation mémoire… catastrophique.

Avec Firefox, le score est en baisse de 23 % depuisnotre dernier pointage. Certes, le moteur JavaScript du butineur progresse, mais ce dernier devient de plus en plus gourmand en ressources. Le moindre script complexe finit ainsi par bloquer entièrement les autres processus du logiciel.

Reste Internet Explorer, dont les résultats ne sont guère brillants. À noter qu’ils ont toutefois le mérite de grimper de 13 % depuis notre dernier dossier comparatif. De plus, il convient de rappeler que l’accélération graphique est ici inactive, ce qui pénalise fortement cette solution.

DOSSIER : protéger les données des postes nomades (II)

L’utilisation des postes mobiles se banalise. Mais les procédures de sécurisation des données souvent ne suivent pas… Comme le montre diverses études, le décalage reste considérable entre les intentions et la réalité des solutions mises en place -et leur fiabilité.

Aux contraintes de l’environnement (poussière, humidité) s’ajoutent celles du transport – chutes, chocs-, et tout simplement du risque de perte ou de vol. Et de fait, on assiste de plus en plus à des situations de pertes et de vols de données sur des appareils mobiles en entreprise.

1 -La protection de données en mode nomade, quelles contraintes? 2 -Les différentes stratégies de protection des données mobiles à envisager 3 – Les solutions de protection de data nomades (sélection) 4 – Les solutions fournies avec les instances de stockages externes ______

1 -La protection de données en mode nomade, quelles contraintes?

Cette croissance de pertes de données est en grande partie due à trois facteurs.

L’explosion de la mobilité

Le nombre d’employés travaillant à distance est en constante augmentation. De fait, pour la première fois dans l’histoire de l’informatique, les fabricants livrent plus d’ordinateurs portables que d’ordinateurs fixes aux clients. Et les risques de perte d’information augmentent quand les ordinateurs portables sont d’une manière ou d’une autre non reliés au réseau.

Le manque de politiques de sécurité dans les entreprises

Les procédures qui consistent à rendre les utilisateurs nomades responsables du téléchargement sur le réseau des fichiers modifiés peuvent paraître efficaces, mais elles sont rarement utilisées, et au final produisent peu de résultat concret. La conséquence de cela est que des informations d’importance restent bloquées sur les disques durs des ordinateurs portables des utilisateurs, même si l’accès réseau est proche.

Utilisateur nomade, confiant, pas insouciant… (source: HP DPNE)

Le peu de sensibilisation des utilisateurs

De fait, il faut constater que les professionnels dans leur ensemble se soucient assez peu des problématiques de sauvegardes de leurs données stockées en mode local, à l’exception peut être des membres de la DSI. Il faut ajouter, pour leur défense, que les formations professionnelles sur ce thème sont rares. Ainsi, un champs stratégique de la sécurité l’entreprise, par ailleurs d’une vraie complexité technique, n’est quasiment pas détaillé aux utilisateurs. Et ce sont ces mêmes utilisateurs qui seront comptés comme responsables en cas d’incident liés à la sauvegarde. Fort heureusement, il faut constater que la méconnaissance des professionnels vis à vis de la sauvegarde tend à se réduire.

Dès lors, qu’il s’agisse d’un ordinateur portable ou d’un ‘smartphone’, les appareils mobiles laissent courir le risque aux entreprises et à leurs employés d’une perte irréversible de données. Certes, en cas de disque dur endommagé, il sera toujours possible de faire appel à un spécialiste pour récupérer les données ; mais le coût d’une telle opération est bien trop souvent prohibitif.

Mieux vaut prévenir que guérir

Selon une étude récente de Pepperdine University, les défaillances de disques dur sont à l’origine de 70% des pertes de données, et chaque récupération de données coûte en moyenne plus de 2000 euros. Pire, dans les cas ou les informations ne peuvent pas être récupérées, les entreprises courent le risque de ne plus répondre aux contraintes légales de conservation des données, mais aussi de perdre tout simplement des informations stratégiques.

Mieux vaut alors prévenir que guérir, et faire appel à des solutions de sauvegarde des données qui permettent de les recopier depuis une autre instance en cas d’accident.

Dossier en 4 volets (partie 2) L’utilisation des postes mobiles se banalise. Mais les procédures de sécurisation des données souvent ne suivent pas…

1 -La protection de données en mode nomade, quelles contraintes? 2 -Les différentes stratégies de protection des données mobiles à envisager 3 – Les solutions de protection de data nomades (sélection) 4 – Les solutions fournies avec les instances de stockages externes

2 -Les différentes stratégies de protection des données mobiles à envisager

S’il est donc préférable de mettre en place une stratégie de sauvegarde, encore faut-il définir celle qui convient le mieux. Plusieurs questions techniques doivent donc être résolues pour trouver la solution qui conviendra le mieux à l’utilisateur.

Quel volume de données ?

Quel est le volume de données qui doit être sauvegardé, avec quelle régularité ? Ces questions exigent de s’interroger sur la taille des instances de sauvegarde nécessaire, sur le débit disponible en cas de sauvegarde en ligne, ou encore sur la performance des ordinateurs portables de manière a définir une politique de sauvegarde : l’utilisateur peut-il continuer à utiliser son ordinateur pendant le créneau de sauvegarde, ou bien l’ordinateur doit il se consacrer exclusivement au travail de sauvegarde ? Schéma DPNE, de HP Choisir une stratégie de sauvegarde, c’est aussi choisir quel type de sauvegarde sera utilisé. Il peut d’agir de sauvegarde complète ou totale, appelée aussi « full backup ». Cette sauvegarde est en fait une copie toutes les données à sauvegarder, et ce que celles-ci soient récentes, anciennes, modifiées ou non. L’avantage majeur de ce type de sauvegarde est qu’il est très fiable. L’utilisateur est certain de sauvegarder ainsi toutes les données contenues sur le disque dur de son ordinateur portable. Mais la contrepartie de cette fiabilité est que le processus de sauvegarde sera très long, et prendra beaucoup d’espace de stockage.

C’est pour gagner en temps et en espace de stockage que d’autres techniques de sauvegarde existent. Il s’agit pour les plus importantes de la sauvegarde différentielle et de la sauvegarde incrémentielle. Ces sauvegardes utilisent respectivement une copie des fichiers créés ou modifiés depuis la dernière sauvegarde (sauvegarde complète uniquement pour la sauvegarde différentielle).

Quel support de sauvegarde ?

Ensuite, la question de la sécurité des données stockées est primordiale. Quel est le support choisi ? S’agit il d’une sauvegarde à distance sur des serveurs d’un prestataire spécialisé ? D’une sauvegarde sur les serveurs de la société ? D’une sauvegarde sur une clé USB, sur des DVD, sur un disque dur externe ? Sur un NAS ? Autant de périphériques et d’instances de stockages qui possèdent des caractéristiques de sécurités propres, et bien entendu des coûts divers.

Si jusqu’au milieu des années 90 les possesseurs d’ordinateur portables effectuaient des sauvegarde sur disquettes (souvenons nous des cartouches Jazz !), le choix du format de sauvegarde s’est peu à peu étoffé pour permettre d’accéder à des volumes de plus en plus importants, qu’il s’agisse de CD, puis de DVD, et de clés USB. Pour des volumes de données supérieurs, les disques durs externes, qu’ils soient eux aussi portables ou de bureau permettent désormais de sauvegarder en situation de mobilité des données crées ou téléchargées en situation de mobilité.

Ensuite, des outils de sauvegarde intégrés à l’OS ont permis de proposer toute une batterie de services de sauvegarde comme des « points de restauration » ou des « ghosts » (images) des données d’une ordinateur portable à un instant précis. L’utilité première de ces deux outil est de permettre de revenir à un état de stabilité initial de la machine en cas de mauvaise manipulation, ou de mauvaise installation d’un logiciel qui aurait entraîné un crash.

Désormais, la multiplication des points d’accès à Internet et la croissance des débits de connexion proposés permettent de proposer des services de sauvegarde en ligne, soit en utilisant les services d’un hébergeur, soit directement sur les serveurs de l’entreprise (NAS). Plus que les autres modes de sauvegarde, la sauvegarde en ligne permet de centraliser en un point sécurisé les différents fichiers de plusieurs utilisateurs, et surtout de permettre une gestion de ceux ci par des professionnels, que ce soit en interne avec la DSI ou en externe avec des prestataires.

Dans tous les cas, le chiffrement des données est devenu une exigence de service minimum, et ce dès le transfert des fichiers. Il permet de laisser les données à disposition d’un tiers (le prestataire par exemple) sans prendre le risque de perdre en confidentialité.

Comment récupérer les données ?

Enfin, la question de la condition de la récupération des données en cas de sinistre est le troisième point qu’il s’agit d’éclairer. Quelles sont les modalités de cette récupération ? Faut-il être sur site ou bien cela peut-il se faire à distance ? Peut-on récupérer quelques données ou bien faut il effectuer une restauration complète ? Autant de paramètres à bien prendre en compte pour choisir la solution qui convient le mieux.

Surtout, la question de la récupération des données va être profondément impacté par le choix de la méthode de sauvegarde. Une sauvegarde complète, différentielle ou incrémentielle aura un impact non négligeable sur le temps de récupération des données.

Dossier en 4 volets (partie 3) L’utilisation des postes mobiles se banalise. Mais les procédures de sécurisation des données souvent ne suivent pas…

1 -La protection de données en mode nomade, quelles contraintes? 2 -Les différentes stratégies de protection des données mobiles à envisager 3 – Les solutions de protection de data nomades (sélection) 4 – Les solutions fournies avec les instances de stockages externes

3 – Les solutions de protection de data nomades (sélection)

La croissance du marché de la sauvegarde des données des appareils mobiles à vu l’explosion des solutions accessibles sur le marché. La tendance de fond est aujourd’hui à la sauvegarde en ligne. Les solutions présentées ici peuvent convenir soit au travailleur indépendant, mais aussi à des entreprises de moyenne et grande taille qui cherchent des outils de protection pour des flottes de machine, avec des fonctions de gestions centralisées.

Nous présentons ici quelques outils de sauvegarde sur périphériques. Ceux-ci sont toujours très utilisés, surtout dans des situations où l’accès au réseau n’est pas possible.

Les sauvegardes en ligne – Dropbox

Le service Dropbox propose d’installer un client pour synchroniser un dossier sur l’ordinateur de l’utilisateur avec les serveurs Dropbox. Dès qu’un fichier est déposé dans ce dossier, il est automatiquement sauvegardé sur leurs serveur. Il devient donc très simple en cas de perte de données de les récupérer sur le service en ligne de Dropbox. Il est dans le même temps possible d’installer le logiciel sur plusieurs ordinateurs, et donc d’accéder aux données synchronisées sur plusieurs machines. A noter que le partage de dossier entre plusieurs utilisateurs est également possible.

S’il est possible de faire fonctionner Dropbox sur un ordinateur portable, le client est également disponible sur iPhone, iPad, appareil Android et Blackberry.

– LogMeIn Backup

LogMeIn Backup est un service de sauvegarde à distance. Il permet la sauvegarde à distance sur tous types de périphériques de stockage, et ce qu’il s’agisse d’un seul PC ou dune flotte entière. Il est par ailleurs possible de programmer des sauvegardes automatiques vers des ordinateurs qu’ils se trouvent sur le réseau local ou non, vers des périphériques de stockage individuels tels que des serveurs, périphériques NAS ou autres systèmes de stockage.

Automatisation des routines de sauvegarde, sauvegarde incrémentielle, chiffrement pendant le transfert, autant de possibilités qui permettent une meilleure gestion des opérations de sécurisation des données.

HP Data Protector Notebook ou ‘DPNE’

Data Protector Notebook Extension (DPNE) de HP (Hewlett-Packard) est une solution qui permet une extension des politiques de backup aux ordinateurs portables et de bureau. La solution permet une protection continue et automatisée des informations stockée en local, et même en mode déconnecté.

L’outil établit des politiques qui définissent de règles de backup, des temps de rétention et des privilèges utilisateurs. Les backup sont immédiats, puisqu’ils ont lieu à l’instant même ou le fichier est modifié, créé, ou reçu. Pour ce faire, la solution met en place trois éléments distincts: 1 – d’une part, sur chaque PC, un agent met en place un stockage local qui stocke les fichiers actifs jusqu’à une connexion réseau; 2- quand une connexion réseau est détectée, les fichiers sont automatiquement transférés pour un ‘backup’ dans un répertoire qui est spécifique à chaque utilisateur;

3- ce système ‘DPNE’ est dans son ensemble géré par des règles au niveau du serveur de sauvegarde. De cette manière, chaque client est en condition de ‘backup’ sécurisé, constant, et cela sans assistance particulière. En cas de panne, les fichiers peuvent être récupérés sans problème sur le serveur central de sauvegarde, par l’utilisateur lui-même depuis son poste de travail.

Une des fonctionnalités les plus intéressante porte sur la capacité du logiciel de sauvegarder et restaurer les fichiers même en mode hors connexion. Cela est rendu possible par la création d’un répertoire local qui agit comme un fichier d’attente de transfert. Ce dossier, créé sur le poste de travail, peut également être utilisé pour récupérer des données en cas de perte.

______

En vidéo, une démo signée HP

La vulnérabilité de l’informatique ‘nomade’ n’est plus à démontrer. Ce documentaire en images, signé HP, résume les situations classiques d’un manager souvent en déplacement et ayant une utilisation assidue de son PC portable. Chutes, chocs dans les transports ou vol pur et simple – tous les cas de pertes de données sont à envisager très sérieusement. En quelques séquences choc, ce à quoi il faut s’attendre. Et comment éviter le pire… Pour visualiser cette Video ‘Protéger les données des postes nomades’. ______Option support logiciel, selon HP

Axalot

Axalot propose une sauvegarde automatique des données sur des serveurs sécurisés. L’agent d’Axalot, installé sur le portable de l’utilisateur, fonctionne en tâche de fond. L’éditeur assure qu’il ne ralentit ni la performance de l’ordinateur, ni le débit de la connexion Internet.

Fonctionnant en permanence, Axalot détecte en temps réel les créations et modifications de fichiers pour les sauvegarder automatiquement. Question paramètres, il est possible de régler le type de fichiers à sauvegarder.

L’historique des fichiers sauvegardés peut être également consulté, pour ensuite récupérer les fichiers dans la version choisie. Côté récupération globale des données, il est possible d’effectuer une récupération totale ou bien une sélection des fichiers.

Axalotiphone Enfin, il est possible en installant l’agent Axalot sur un autre ordinateur de récupérer les données de l’utilisateur via les paramètres de comptes. Cet outil est très utile en termes de migration de données par exemple.

A noter qu’une version iPhone et iPad est désormais disponible. Handy Backup Professional

Cet outil permet de transférer les données sur des serveurs distants. Par ailleurs, il est possible de d’exécuter les taches de sauvegarde et de restauration en mode Windows Service ou de créer l’image disque dur pour copier entièrement le contenu d’un ordinateur portable, y compris le système d’exploitation, les applications, les pilotes et toutes les données.

Handybackup Du côté du type de sauvegardes, sauvegardes complètes, incrémentales et en mode miroirs sont réalisables.

SpiderOak

Disponible pour les plateformes Windows, Mac et Linux, Spideroak permet de synchroniser des dossiers à partir de plusieurs postes de travail différents, et donc de sauvegarder des informations stockées en local sur des postes nomades. Il fonctionne comme un client à installer sur les postes qui doivent faire l’objet d’une sauvegarde.

Integral Backup

Integral Backup permet de sauvegarder des données professionnelles sur des serveurs distants sécurisés. Integral Backup est installé sur les ordinateurs de l’entreprise, et et chaque nuit, los données sont cryptées et sauvegardées en ligne sur les serveurs distants de la société. La société précise que les données sont hébergées en datacenter et sont redondés dans 2 centres informatiques à Paris et à Lyon.

Dossier en 4 volets (partie 4) L’utilisation des postes mobiles se banalise. Mais les procédures de sécurisation des données souvent ne suivent pas…

1 -La protection de données en mode nomade, quelles contraintes? 2 -Les différentes stratégies de protection des données mobiles à envisager 3 – Les solutions de protection de data nomades (sélection) 4 – Les solutions fournies avec les instances de stockages externes 4 – Les solutions fournies avec les instances de stockages externes

Les fabricants d’instances de stockage externe fournissent souvent avec leurs produits hardware des utilitaires de sauvegarde et de récupération de données. C’est le cas notamment de LaCie Backup Assistant de LaCie ou encore de JetFlash Elite, de Transcend. Ces outils pourront satisfaire des travailleurs indépendants à la recherche de méthodes de sauvegardes simples et rapides, et à moindre coût. Ils contiennent le plus souvent les fonctions de base (sauvegarde, synchronisation et récupération) pour un seul poste.

Norton-ghost Une solution plus évoluée dans ce domaine est Norton Ghost, qui permet la sauvegarde de données et sous plusieurs paramètres. Il est également possible de sauvegarder le contenu des unités de stockage amovibles connectées via les interfaces USB 1.1/2.0 ou Firewire.

Le clonage de disques et/ou partitions est également réalisable. Enfin, des fonctionnalités telles que la création automatique d’une sauvegarde initiale, le lancement d’une séquence de sauvegarde lors de l’installation d’un nouveau périphérique ou d’une nouvelle application peut intéresser de nombreux utilisateurs.

DOSSIER Datacenter: convergence des réseaux LAN et SAN, les scénarios possibles

Introduction

Dans le contexte de la modernisation de leur SI, la plupart des entreprises travaillent à une refonte de leur ‘datacenter’, voire à une consolidation: c’est à dire une reconfiguration de plusieurs sites de traitement vers un site principal (ou quelquefois deux) et vers un site de secours pour assurer un plan de continuité de service.

Ces mêmes entreprises cherchent également à optimiser les coûts de fonctionnement et d’administration ; elles veulent diminuer la facture énergétique. Surtout, elles se concentrent sur une simplification de leur infrastructure, et ce tout en recherchant plus de souplesse, plus d’agilité, afin de déployer rapidement de nouveaux services. Certaines envisagent déjà un modèle de prestations de services « à la demande » en configuration « cloud » privé, plus rarement en ‘cloud’ public.

Comme déjà évoqué, ces entreprises en profitent pour redéfinir ou parachever leur plan continuité d’activité, avec un deuxième voire un troisième centre de données pour la sauvegarde et la restauration de leurs données sur un site « miroir » distant.

Dans ce contexte, que peut apporter la convergence des réseaux de stockage et des serveurs d’applications virtualisées à l’intérieur du ‘datacenter’ ? Quels sont les scénarios et les offres intéressantes du marché qui permettent d’organiser cette convergence?

1- La refonte du SI et du datacenter: enjeux et tendances

2- Les scénarios de rénovation ou de migration des datacenters

3- Choix d’urbanisation et retour sur investissement

4-ENTRETIEN: M. Klayko, Brocade: ‘Oui, nous sommes challengers de Cisco‘

Partie 1- La refonte du SI et du datacenter: les enjeux, les tendances

1.1- Les investissements prioritaires, selon les cabinets d’analystes Les évolutions techniques impactent directement l’organisation des centres de données. Selon une étude Gartner publiée en janvier 2010, portant sur les dépenses IT des grandes entreprises du secteur public et privé, et ce dans le monde entier, les principaux postes de dépense devraient avoir un effet direct sur les centres de données. Arrivent en première place des dépenses la virtualisation, suivie du ‘cloud computing’, et du web 2.0.

De fait, l’impact de la virtualisation sur la gestion des serveurs physiques à l’intérieur du data center est majeur. Passant d’un niveau de charge de 20% à parfois 80%, les serveurs physiques exigent désormais des volumes d’alimentation et de refroidissement de plus en plus importants. La mise en place de ‘clouds‘ privés et publics exige un degré d’ouverture de plus en plus important pour permettre une allocation à la demande des ressources à distance. Enfin, l’intégration d’applications riches de type web 2.0 dans les centres de données provoque une multiplication des relations stockage serveur (ne serait-ce qu’en raison de l’utilisation de nouveaux langages de type flex).

Autant de mutations qu’il faut prendre en considération sous peine de courir le risque de posséder une infrastructure sous-dimensionnée par rapport aux exigences des utilisateurs d’une part, et des nouvelles technologies d’autre part.

1.2- La volumétrie des data :

Multiplication des cœurs au sein même des processeurs, ponts de plus en plus fréquents entre différents clouds, reliés à la demande au centre de données principal, réplication des données vers un site distant, accroissement des connexions entre serveurs d’application et instances de stockage ; la volumétrie des centres de données est en forte croissance. A titre d’exemple: dans le domaine de la santé, depuis 2004, le volume des données sauvegardées par le CHU de Rennes est passé de 20 à 360 To, soit une croissance multipliée par 3,3 tous les 18 mois ! Et cela ne concerne que le stockage !

L’expansion de l’univers digital

En 2009, malgré la récession mondiale, l' »univers digital » a atteint un seuil record. Il s’est accru de +62% à 800.000 péta-octets! (un péta-octets, c’est un million de Giga-octets). Copiés sur des DVD, cela constituerait une chaîne ininterrompue de la Terre à la Lune! En 2010, l’univers digital aura grossi pour atteindre 1,2 millions de péta-octets, soit 1,2 zetta- octets. A ce rythme, notre ‘univers digital’ sera 44 fois plus vaste que celui de 2009

. –

1- La refonte du SI et du datacenter: enjeux et tendances

2- Les scénarios de rénovation ou de migration des datacenters

3- Choix d’urbanisation et retour sur investissement

4-ENTRETIEN: M. Klayko, Brocade: ‘Oui, nous sommes challengers de Cisco‘

2- Les scénarios de rénovation ou de migration des datacenters

Pour moderniser, optimiser leur(s) datacenter(s), les DSI peuvent rencontrer deux cas de figure, avec des délais différents:

2.1- scénario 1: construire du neuf: ériger un tout nouveau datacenter (avec construction d’un immeuble, ou réaffectation, et réhabilitation locaux neufs, afin d’organiser un déménagement ou ré-emménagement). Dans ce cas, les architectes du SI cherchent à anticiper la convergence des réseaux en définissant une architecture fédérative, unique autour d’un réseau de commutateurs centralisé ou « fabrique ».

Ici, la mise en place en direct d’un câblage et de connecteurs FCoE (Fibre Channel over Ethernet) prend tout son sens. Jusqu’ici, d’un point de vue technique, les disques de plusieurs serveurs sont regroupés en baies, lesquelles sont raccordées via la fibre optique. Cette dernière se retrouve démultipliée par un commutateur FC (Fibre Channel) pour connecter ensuite les cartes contrôleurs HBA (Host Bus Adapter).

Or, depuis peu, une nouvelle norme paraît devoir s’imposer pour le haut débit, sur un réseau fédérateur unique au sein du datacenter: c’est la norme du 10 Gigabits/Ethernet. Cela équivaut aux débits du FC (4, 8 ou 16 Gbps). Sur le 10 Gigabits-Ethernet s’ajoutent des possibilités de virtualisation, avec prise en compte du protocole TCP/IP et des capacités de l’Ethernet.

2.2- scénario 2: adapter l’existant et migrer progressivement vers des solutions de convergence, en procédant selon un enchaînement d’étapes logique minimisant l’impact sur la production et financièrement plus confortable.

Surtout, pendant la phase de migration se pose la question de la mise en place d’un nouveau cœur de réseau qui doit coexister avec l’ancien. Et la question de la mise à jour du câblage induit des aspects financiers qu’il faut prendre en compte.

Enfin, il faut bien noter qu’aujourd’hui, le protocole FCoE Fibre( Channel over Ethernet) n’est pas en mesure de se substituer complètement au FC (Fibre Channel). Ce peut être, tout du moins, le cas sur les serveurs-lames uniquement, car leurs châssis sont équipés dans cette logique. Mais pour les serveurs dits classiques, la question du prix se pose encore puisque les contrôleurs FC aux normes 4 Gbits/s et 8 Gbits/s restent encore moins chers que les contrôleurs FCoE. Cependant, cette tendance tend à disparaître. Et depuis quelques années, la norme FCoE a mûri, ce qui lui permet de garantir les performances et l’intégrité des données.

Attention donc, en cas de projet de migration ou de mise à jour du centre de données, à bien prendre en considération la nature des serveurs, qui oriente sérieusement les choix financiers en matière de connecteurs.

1- La refonte du SI et du datacenter: enjeux et tendances

2- Les scénarios de rénovation ou de migration des datacenters

3- Choix d’urbanisation et retour sur investissement

4-ENTRETIEN: M. Klayko, Brocade: ‘Oui, nous sommes challengers de Cisco‘

3 -Choix d’urbanisation et retour sur investissements (ROI)

3.1 – Quelle urbanisation pour quels scénarios? En fonction du scénario retenu, des choix d’urbanisation vont se poser. Ils vont concerner le choix de l’architecture de câblage, l’agencement des serveurs au sein du réseau du centre de données, ou encore l’organisation du stockage.

Sur un plan dynamique, l’organisation du provisioning et du dé-provisioning devra être étudiée, ainsi que l’impact des modifications d’infrastructure sur les applications existantes. Au delà de ces aspects, c’est bel et bien l’ensemble des logiques de cycle de vie des données qu’il faut déterminer au regard de la nouvelle organisation.

Seule une étude attentive de ces différents aspects peut permettre de continuer d’assurer une qualité de service aux différents clients internes ou externes de la structure.

Surtout, l’arrivée dans le centre de données de nouvelles techniques, comme la virtualisation, demande la présence de nouveaux instruments de suivi d’activité, d’administration, et de supervision.

Dès lors, la solution FCoE (Fibre Channel over Ethernet) peut être considérée comme efficace. Ce protocole FCoE permet en effet de faire transiter les données du réseau et du stockage via une connectique unique. Les avantages de ce type d’infrastructure sont tout d’abord du côté de la consommation de temps et d’énergie. Comme chaque serveur physique utilise un connecteur unique pour le réseau et le stockage, les économies en électricité, en administration et en maintenance deviennent vite perceptibles.

Il reste à prendre en considération les nouveaux besoins de sécurité induits par la transformation du centre de données. La bonne pratique qui demandait de séparer physiquement les flux applicatifs par des câbles distincts devra être revue au profit d’une sécurisation virtualisée via une gestion des flux au niveau des consoles d’administration réseau.

Ce n’est qu’au prix de la maîtrise de tous ces éléments que la convergence réseau entre les serveurs d’application et les instances de stockage via le FCoE Fiber( Channel over Ethernet) que les gains de performances seront véritablement perceptibles, tout en conservant une sécurité optimale.

Il reste aussi à effectuer un travail non négligeable de formation auprès des équipes. On peut parler d’un changement de culture important. De fait, le stockage ne se définit plus simplement comme un service. Le dialogue entre administrateurs de stockage et administrateurs réseau doit s’établir et s’enrichir quotidiennement.

3.2 – Comment évaluer le ROI de ces ré-agencements?

La mise en place d’un réseau unique qui posséderait la rapidité de la fibre et les possibilités du TCP/IP soulève la question du retour sur investissement (ROI). Au delà de l’économie d’énergie et de temps évoquée plus haut, le gain principal issu de la mise en place d’un réseau sur protocole FCoE tient surtout à la flexibilité qui en résulte. Une plus grande souplesse est immédiatement perceptible sur les connexions serveur. L’administrateur n’est plus dans l’obligation de prioritiser les serveurs qui ont besoin de mémoire en les connectant au SAN des serveurs les moins gourmands. La connectique unique permet au contraire de relier l’ensemble des serveurs au stockage. Il reste donc ensuite à gérer dans la couche d’administration l’équilibrage de charge load-balancing( ) en fonction des machines virtuelles installées, par exemple. D’un point de vue physique, toutes les machines ont en effet accès aux disques de stockage.

Toujours pour aller dans le sens de la flexibilité, il devient possible de remplacer un serveur web qui se sert peu du SAN, par exemple, par un serveur de base de données qui, lui, accède de manière intensive au réseau de stockage.

Chez Brocade, par exemple, les outils d’administration FCoE et de virtualisation permettent de gérer à la fois la cartographie du réseau et celle des machines virtuelles ce qui permet d’optimiser la production, le stockage et le réseau.

La maîtrise de ces outils s’avère d’ailleurs indispensable puisqu’il s’agit de suivre les bonnes pratiques au sein des centres de données. De fait, leprincipe d’un réseau unifié se heurte aux process en cours dans les ‘datacenters’ actuels. C’est typiquement la gestion de la sauvegarde, qui ne doit pas empiéter sur la production. Avec deux réseaux distincts, cela s’opère souvent sans difficulté. Avec un réseau unique, la question de la gestion du trafic reprend son sens et exige des règles précises.

Que peut apporter la convergence des réseaux de stockage et des serveurs d’applications virtualisées à l’intérieur du ‘datacenter’? Quels sont les scénarios et les offres intéressantes du marché qui permettent d’organiser cette convergence?

1- La refonte du SI et du datacenter: enjeux et tendances

2- Les scénarios de rénovation ou de migration des datacenters

3- Choix d’urbanisation et retour sur investissement

4-ENTRETIEN: M. Klayko, Brocade: ‘Oui, nous sommes challengers de Cisco‘

4 – ENTRETIEN EXCLUSIF Michael Klayko, Brocade: ‘Oui, nous sommes challengers de Cisco«

Le CEO de Brocade soutient la cause des standards, face à Cisco, mais laisse ouvert le choix de la convergence de réseaux

Lors du Forum Brocade à Paris, en novembre, Michael Klayko et Dave Stevens, respectivement CEO et CTO de Brocade, se sont prêtés au jeu des questions sur la nouvelle offre de convergence VDX -dans la nouvelle architecture Brocade-One – visant à fédérer la connectivité au sein des datacenters

Brocade propose une solution de convergence au coeur du datacenter: pourquoi?

Nous lançons la première « Fabrique Ethernet » [Ethernet fabric, ou commutateur central], au coeur du datacenter, entre les serveurs de données, les baies de stockage, les diverses appliances de service. C’est une pièce fondatrice. Elle résulte de 3 années de développement.

Nous nous sommes concentrés sur la cible des grands comptes. Beaucoup de ceux qui nous font confiance nous ont incités à développer une offre de convergence au sein du datacenter.

Est-ce une stratégie qui se positionne face ou contre Cisco ?

Disons que nous sommes un challenger de Cisco. Très clairement. Mais le contexte est très contrasté. Ils peuvent être aussi partenaires. Mais c’est vrai qu’avec cette offre de convergence, nous sommes challengers.

Nous, nous cherchons à éliminer sinon à diminuer les couches [layers] qui constituent les infrastructures. Et cela pour réduire les coûts. C’est d’ailleurs là le principal levier de la virtualisation des systèmes.

J’ajouterai que Cisco a lancé son offre UCS avec VMware. Eh bien, nous aussi, nous travaillons étroitement avec VMware.

Nous voulons nous positionner comme fournisseur à « guichet unique », notamment auprès des PME. Car, du fait que nous avons démarré très tôt, nous avons toujours suivi une démarche d’intégration, en développant ce qu’il y a de meilleur, l’état de l’art du moment. C’est là que nos clients, OEM ou non, reconnaissent notre expertise. S’agissant de la connectivité -Infiny Band, Fibre Channel, Iscsi…-, nous avons une expertise de 10 ans sur ces technologies; elles sont très fiables, très stables. Le stockage par blocs, c’est solide comme le roc! Et avec l’acquisition de Foundry Networks, nous avons accru notre expertise dans le Giga-Ethernet. Nous nous appuyons aussi sur notre large base de clients. Nous collaborons étroitement avec eux pour perfectionner nos solutions.

Vous affichez ouvertement votre soutien en faveur des « standards ». Est-ce, là encore, face à Cisco?

Nous avons toujours développé une offre ouverte, qui repose sur les standards. Nous contribuons directement au développement des standards. Nous avons des équipes qui travaillent au sein des commissions ou groupes de travail de l’IEEE et de l’IETF, notamment. Au total nous avons 18 personnes qui y contribuent et certains de nos experts président des groupes de travail.

Vous militez notamment en faveur d’Ethernet ?

Oui, le Giga-Ethernet se confirme comme le protocole le plus apte, le plus efficace et le plus économique notamment pour optimiser des infrastructures de ressources virtualisées. Nos clients nous le demandent. Ils constatent que la virtualisation des serveurs ou des systèmes de stockage apporte de la complexité. Notre proposition consiste à simplifier les architectures. Nous fournissons un réseau permettant d’optimiser et de fluidifier l’environnement virtualisé.

Entre la connectivité Fibre Channel et le Gigabit-Ethernet, c’est selon nous une perspective sur 5 à 10 ans pour l’agencement et la refondation des datacenters. Car la virtualisation des systèmes ne va pas s’arrêter là. Evidemment, non!

Est-ce que cette convergence que vous préconisez intéresse tout le monde?

Pour un grand nombre d’entreprises, nous pensons qu’il y a des avantages évidents à réaliser cette convergence de réseaux, autour d’une connectivité unique, une infrastructure unique. Mais il est vrai que pour certains clients, les avantages ne sont pas garantis ou pas suffisants au regard de la qualité de service escomptée. C’est une question de ratio avantages sur coûts.

Nous laissons le choix totalement ouvert à nos clients. Nous savons que cela dépend de leur environnement, de leurs applications, du nombre d’I/O (entrées/sorties), donc selon leurs besoins d’accès aux serveurs et aux baies de stockage. Cela dépend des applications. S’il s’agit d’énormes bases de données, très sollicitées, mieux vaut privilégier des gros tuyaux [‘pipes’] Fibre Channel dédiés. S’il s’agit d’applications de taille moyenne, comme les ressources humaines, avec relativement peu d’accès et des volumes de données traitées, une infrastructure convergée se justifie tout à fait.

Un bon nombre d’entreprises ne veulent pas d’un réseau unifié ou « convergé ». Elles recherchent avant tout une infrastructure très sécurisée. Certaines vont choisir de maintenir la cohabitation de deux infrastructures.

Et le ‘cloud computing’ a-t-il une incidence dans ces choix? Oui, puisque cela repose sur la virtualisation. Mais quelles sont les stratégies d’implémentation? On sait, techniquement, comment virtualiser, mais cela implique de re-architecturer l’existant.

C’est une bonne occasion de le faire en s’efforçant de simplifier l’infrastructure, en supprimant des couches réseau non indispensables. L’objectif est toujours le même! Diminuer les coûts tout en augmentant les fonctionnalités et la souplesse au changement.

______Quelques précisions intéressantes…

Dans un entretien avec notre confrère StorageNewsletter, Michael Klayko apporte quelques précisions:

Dans la simplification, vous incluez le câblage?

Oui, nos nouveaux adaptateurs réseau permettent de virtualiser les connexions. Ainsi, nous pouvons éliminer beaucoup de câblage. Il y a aussi une simplification avec une concentration sur les ‘switchs’ (commutateurs) en ‘top-of-the rack’, ce qui conduit à plus de densité de connexions et donc moins de câbles.

Mais finalement, vous recommandez plutôt le Fibre Channel (à 4, 8 ou 16 Gbps?) ou le 10 Gigabit- Ethernet?

Les utilisateurs de larges configurations de stockage vont continuer de se fier au Fibre Channel car, pour eux, c’est le standard de facto. Sur le trimestre écoulé, nous constatons que 94% du Fibre Channel livré est déjà en 8 Gbps. Donc le FC en 16 Gigas deviendra populaire un jour aussi.

Mais le protocole FCoE n’est-il pas supposé amener les entreprises à migrer du Fibre Channel vers Giga-Ethernet?

Non. C’est une option. Nous avons toujours dit que le FCoE ne serait pas le « mainstream » de notre marché avant 2012, et donc nous voyons toujours plus d’installations Fibre Channel sur le stockage, pour le moment.

Source: StorageNewsletter 2 déc. 2010. http://www.storagenewsletter.com/news/business/brocade-ceo-mike-klayko-interview

______

Dave Stevens, CTO de Brocade: « Il faut renforcer l’infrastructure« « Dans beaucoup d’entreprises, l’infrastructure n’est pas suffisante pour traiter de nouvelles applications. Elle n’est pas assez flexible pour être gérable dans un monde où les applications sont mobiles. Les réseaux des datacenters doivent passer au niveau supérieur pour augmenter la performance, pour réduire le temps de latence et éliminer les temps d’interruption. Ces réseaux doivent également supporter des environnements avec beaucoup de virtualisation, optimisés pour le ‘cloud’.

Avec Brocade One, nous apportons une simplification considérable aux réseaux. Nous augmentons l’évolutivité sans introduire de complexité supplémentaire. Aujourd’hui, les commutateurs Brocade VDX, basés sur la technologie VCS de Brocade, fournissent de véritables réseaux optimisés pour le ‘cloud’

______Les réseaux de stockage SAN et les machines virtuelles : quelles incidences?

Sur les réseaux SAN, Brocade revendique avoir été le premier à développer des architectures réseau en ‘fabrique’ et ce depuis 2000. Dans le même temps, Brocade a développé les premiers ‘switchs’ embarqués, sur des serveurs ‘blades’. IBM, Intel, Bull, HP, Dell, Hitachi et Fujitsu, ont rallié ce choix technologique. Aujourd’hui, l’option de ‘switch’ virtuel embarqué avec l’hyperviseur (VMware, Xen, Hyper-V, KVM, …) se confirme comme pertinente. Deux cas de figure se présentent: – soit la fonction réseau est intégrée à l’hyperviseur, et s’exécute au niveau du serveur hôte physique – soit il y a externalisation au niveau des adaptateurs CNA (EVB) et ‘switch’ d’accès physiques (VEPA) Standards du marché: VEPA, VEB ; cette externalisation s’applique notamment dans le cas de stratégies de qualité de service ou ‘SLA’ déterministes (dans le cas d’applications critiques)

A noter que Brocade, outre la fourniture de commutateurs Ethernet et FC, dispose d’adaptateurs HBA et CNA pour les serveurs. [cf : Brocade 1010 et Brocade 1020 FCoE/CEE Converged Network Adapters (CNAs); ils apportent un niveau supérieur de consolidation d’I/O de serveurs ; ils intègrent de façon transparente les environnements Fibre Channel et Ethernet]

Brocade propose également des adaptateurs CNA, de 2è génération. IBM et Dell ont déjà prévu de les mettre à leur catalogue. De son côté, Cisco propose de remplacer le « commutateur virtuel » VMware par un produit logiciel ; ce qui suppose des licences supplémenataires, incrémentales.

______

La virtualisation des serveurs et la mobilité des machines virtuelles

La virtualisation sur le SAN soulève quelques problèmes spécifiques. Ainsi, comment garantir les niveaux de flux si l’on déplace les machines virtuelles à grande distance, la latence du réseau se faisant ressentir? Dans la phase de configuration et définition des machines virtuelles (les ‘VM’), il est relativement facile de maîtriser le ‘provisioning’ utile. Mais ensuite, comment nettoyer les machines virtuelles qu’on a laissé proliférer? Il faut localiser les différentes instances qui se sont enchaînées. Il faut disposer d’une cartographie des VM à un instant ‘t’. D’où l’intérêt d’un protocole commeAMPP (Automatic Migration of Port Profiles) : il permet de propager l’information des configurations des VM. Chez Brocade, c’est une fonction VCS qui véhicule les caractéristiques des VM, (ressources qui lui sont nécessaires). Les mêmes paramètres (adresse MAC, filtres, gateway, attributs de qualité de service, de sécurité…) doivent suivre; toutes ces informations sont propagées. Brocade le fait au sein de sa ‘fabric’. Localisation des datacenters et proximité des données

Les données doivent être au plus près de l’utilisateur. C’est ce qui conditionne l’installation de plusieurs datacenters ou sites d’hébergement sur un ou plusieurs continents. C’est pourquoi Brocade propose le ‘load balancing’ ou le chiffrement des data en mode « dérivation » vers des appliances dédiées (conçues autour d’ASICs développés par Brocade ; cf.ADC ou Application Delivery Controller ). Ainsi, la fonction load‘ balancing’ peut être utilisée localement mais aussi de manière distribuée (protocole GSLB, Global Server Load Balancing), la charge étant répartie sur plusieurs sites (cf. les plans de continuité PCA, PRA …).

______FIN / DOSSIER _____

Dossier : qui sera le champion des navigateurs web en 2011?

La sortie de la version bêta d’Internet Explorer 9 remet Microsoft dans la course. Nous avons profité de cette occasion pour mettre en compétition les moutures de développement les plus récentes des navigateurs web les plus utilisés.

Voici un aperçu des candidats en présence :

– Internet Explorer 9 bêta (9.0.7930.16406), avec accélération graphique inactive ;

– Firefox « Minefield » JS Preview Build du 17/09/2010, avec accélération graphique active ;

– Google Chrome 7.0.524.0 « Canary Build », avec accélération graphique active ;

– Safari 5.0.2 et WebKit r67637 du 16/09/2010, sans support de l’accélération graphique ;

– Opera 10.70 rev9049, sans support de l’accélération graphique.

La présence ou non de l’accélération graphique peut avoir une incidence sur certains tests. En effet, lorsqu’elle est active le GPU décharge le processeur principal (CPU), qui peut alors se concentrer sur l’exécution du code JavaScript. À ce titre, il est dommage que cette option soit restée indisponible sur notre configuration pour Internet Explorer 9, lequel souffre alors d’un certain handicap.

Notre dossier se sépare en quatre parties distinctes : les parts de marché (pages 2 à 5), le respect des standards (pages 6 à 9), les performances des moteurs JavaScript (pages 10 à 13) et les performances générales des navigateurs (page 14).

Parts de marché monde

Sans grande surprise, Internet Explorer domine le marché. Il reste ainsi utilisé par un peu plus d’un internaute sur deux. Firefox prend une seconde place méritée. Enfin, Chrome progresse rapidement et flirte aujourd’hui avec les 10 % de parts de marché (selon une pondération de différentes sources).

Parts de marché Europe

En Europe, les alternatives à Internet Explorer ont le vent en poupe. Ainsi, Firefox a su convaincre plus d’un internaute sur trois. Chrome semble moins apprécié, mais cela est uniquement dû à l’inclusion dans notre moyenne de résultats assez anciens de l’AT Internet Institute.

Parts de marché France

En France aussi, on aime les solutions alternatives. Toutefois, Chrome et Opera sont ici moins populaires. A contrario, Safari est utilisé par un plus grand nombre d’internautes. Il est vrai que la France reste un bastion historique pour les machines Apple.

Parts de marché développeurs

Développeurs et webmasters plébiscitent Firefox, qui est aujourd’hui présent sur bien plus de machines qu’Internet Explorer. Chrome est également très populaire, ce qui est un signe encourageant pour l’avenir de ce navigateur web.

Respect des standards

Chrome, Safari et Opera réalisent un score parfait au test Acid3. Firefox et Internet Explorer jouent pour leur part la carte de la prudence, en n’implémentant pas les fonctionnalités encore en cours de développement. Dans tous les cas, aucun butineur ne réalise de faux pas dans ce secteur.

Sélecteurs CSS3

Aucun de nos navigateurs n’échoue au test des sélecteurs CSS3. Aujourd’hui, tous les butineurs proposent un sans-faute, y compris Safari qui a bien remonté dans ce domaine. En effet, lors de notre comparatif précédent, il échouait de façon surprenante à ce test.

Compatibilité HTML5

Les scores au test de compatibilité HTML5 sont représentatifs des choix effectués par les développeurs : ceux de Microsoft se montrent très prudents face aux fonctionnalités qui ne sont pas encore finalisées. À l’opposé, Chrome joue la carte de l’universalité.

Compatibilité JavaScript

En terme de conformité, le moteur JavaScript d’Opera est le champion toute catégorie, talonné de près par… Internet Explorer. Microsoft propose même l’unique moteur tentant d’êtrecompatible avec la norme ECMAScript 5. La compagnie place ici la barre très haut. Voilà qui est inattendu. JavaScript : SunSpider

La version de développement d’Opera prend la tête au test SunSpider. Les résultats des divers navigateurs restent toutefois placés dans un mouchoir de poche. Bonne nouvelle, le couple TraceMonkey / JaegerMonkey permet à Firefox de repasser devant Internet Explorer.

JavaScript : V8

Sans surprise, Chrome domine ses concurrents au test V8, avec un score presque deux fois meilleur que le butineur qui décroche la seconde position. Les résultats de Firefox sont quasiment multipliés par quatre depuis notre dernier pointage. Pas mal, même si cela ne suffit pas.

JavaScript : Dromaeo

Encore une fois, Chrome prend la tête de notre classement, d’une large tête. Nous notons toutefois que Firefox occupe la troisième place, devant Safari. Cela n’était plus arrivé depuis des mois. Enfin, Internet Explorer ferme la marche, en signant toutefois un score qui n’a (plus) rien de ridicule.

JavaScript : Kraken

Le tout nouveau test de la fondation Mozilla, Kraken, couronne Firefox, devant Opera, Chrome et Safari. Internet Explorer ne semble guère apprécier ce benchmark. Ces résultats semblent toutefois cousus de fil blanc… et à prendre avec des pincettes un peu plus grandes qu’à l’accoutumée.

Performances générales

Le test Peacekeeper évalue les performances générales des navigateurs. Chrome confirme ses précédents scores. Opera, s’en sort admirablement bien. Safari marque pour sa part le pas, mais reste devant Firefox et IE, ce dernier souffrant ici de n’avoir pu profiter de l’accélération graphique.

DOSSIER Stockage et sauvegarde des données (I) : la nouvelle donne

Ce dossier dédié à la protection des données est constitué de 6 volets :

1- Les nouveaux enjeux du stockage

2- Les nouveaux défis: la virtualisation, le cloud

3- Etude Forrester Research : la perception des DSI 4- L’offre Data Protector: un meccano à options multiples

5- Les apports de VMware et Microsoft Hyper-V

6- Les diverses offres et alternatives disponibles

1 – Les nouveaux enjeux du stockage

Un mouvement de fond s’inscrit dans l’environnement immédiat des DSI : le passage progressif de la notion de stockage à celui de sauvegarde.

Les notions de protection des données; stockage, sauvegarde

La notion de stockage correspond à un besoin d’enregistrement d’une données informatique sur un support, souvent matériel, et cela à des fins de réutilisation future. Il s’agit de conserver en lieu sûr les données informatiques, tout en les rendant disponibles afin de pourvoir les utiliser à nouveau, via un système de traitement des données.

Si différentes techniques de stockage existent, elles répondent toutes à des critères de fréquence d’utilisation, de volume de stockage nécessaire, et de criticité de l’information, et ce au regard du coût et de la sécurité des méthodes utilisées.

Bandes magnétiques, cassettes /cartouches, disques durs, autant de supports soumis à la contrainte d’une masse de plus en plus importante de données à stocker. Mais les supports de stockage eux-mêmes se dégradent et seule la redondance des données permet de garantir la pérennité nécessaire aux entreprises pour le stockage de leurs données informatiques. C’est cette technique qui est utilisée dans les systèmes de stockage RAID (Redundant Arrays of Inexpensive Disks), désormais de plus en plus utilisée dans le monde professionnel.

La sauvegarde ou ‘backup’ à l’heure de la virtualisation

C’est justement cette technique de redondance qui permet d’effectuer des opérations de sauvegarde, et cela afin de sécuriser au mieux les données d’un système informatique. La notion de sauvegarde comporte donc celles de copie et d’enregistrement des données d’un premier support vers un support secondaire, qui sera le lieu dépositaire de la sauvegarde.

Pourquoi sauvegarder des données informatiques ?

Les sauvegardes permettent de restaurer un système informatique (application et/ou données) en cas d’incident au niveau du système d’information de l’entreprise. Mais les sauvegardes sont également utiles en cas de modification non désirées des données par des utilisateurs. Dans les deux cas, l’opération de restauration des données permettra de revenir à une situation normale.

Les différentes techniques de sauvegarde

Le choix de la technique de sauvegarde et du support de celle ci va dépendre de différents critères. En plus de ceux utilisés pour le stockage (fréquence d’utilisation, volume et criticité), viennent s’ajouter ceux de vitesse de sauvegarde, et surtout de vitesse de restauration. C’est là que les notions de sauvegarde différentielle et de sauvegarde incrémentielle prennent tout leur sens. En effet, la solution de sauvegarde complète (ou « full backup »), consiste à copier l’ensemble des données sur le volume de sauvegarde. Mais plus ce volume augmente, plus l’opération de sauvegarde va s’avérer longue et inutile. Inutile parce qu’un grand nombre de données déjà sauvegardées au cours d’une opération précédente seront identiques à celles copiées et enregistrées au cours de la nouvelle opération de sauvegarde.

Fig.1- Les différentes configurations possibles: 1- bureau / filiale de l’entreprise:backup-to-disk ‘ ‘ (sauvegarde vers disque) 2- vers le siège / datacenter : copie disk-to-disk‘ ‘ 3- au siège / datacenter: disk-to- tape (disque vers bande magnétique).

______

La sauvegarde différentielle permet de ne sauvegarder que les fichiers créés et modifiés depuis la dernière sauvegarde complète. L’opération de restauration avec cette technique consistera alors à recopier la dernière sauvegarde complète et la dernière sauvegarde différentielle.

La sauvegarde incrémentielle permet de ne sauvegarder que les fichiers créés et modifiés depuis la dernière sauvegarde, qu’elle soit complète, différentielle ou incrémentielle. L’opération de restauration demandera de recopier l’ensemble des différentes sauvegardes incrémentielles en plus de la sauvegarde complète pour récupérer l’ensemble des données.

Un microsite à consulter chez HP Sur ce thème de la protection des données, HP propose un ensemble de solutions intégrées. Cf. site HP dédié à cette problématique; cliquer ici .

Ce dossier dédié à la protection des données est constitué de 6 volets :

1- Les nouveaux enjeux du stockage

2- Les nouveaux défis: la virtualisation, le ‘cloud’

3- Etude Forrester Research : la perception des DSI

4- L’offre Data Protector: un meccano à options multiples

5- Les apports de VMware et Microsoft Hyper-V 6- Les diverses offres et alternatives disponibles

2 – Les nouveaux défis: la virtualisation, le ‘cloud’…

La croissance du phénomène de la sauvegarde rencontre d’autres innovations, qui complexifient considérablement le travail des responsables informatiques dans les entreprises. De fait, la pression sur les coûts et l’optimisation des organisations commerciales entraînent la mise en place de nouvelles architectures IT, qui se caractérisent par :

—La virtualisation des serveurs et du stockage: elle vient rajouter une couche de complexité. La technique de virtualisation permet de déverrouiller les blocs informatiques physiques et logiciels. Ainsi, il n’est plus nécessaire de faire appel à un serveur physique pour faire fonctionner une application spécifique. Désormais, un serveurs physique, grâce à une couche de virtualisation, peut faire fonctionner plusieurs applications, ce qui permet d’améliorer le taux d’utilisation du serveur. Mais en termes de gestion de la sauvegarde, cette technique demande des outils qui prennent en compte cette couche virtualisée.

Fig. 2- La ‘virtualisation’ a l’avantage de découpler serveur physique, système d’exploitation et applications. Un même serveur supportant plusieurs OS et applications est mieux rentabilisé. Mais il faut insérer un ‘hyperviseur’ qui pilote la distribution des ‘charges’ applicatives (ou ‘loads’).

______

— La consolidation des ‘data centers’. Virtualisation et miniaturisation du matériel (du serveur classique à la baie de stockage) amènent à repenser l’architecture du centre de données, et donc des instances de stockages. L’apparition des stockages en mode NAS (Network Attached Storage), c’est à dire des serveurs de fichiers autonomes, et des stockages en mode SAN (Storage Area Network), des réseaux dédiés au stockage via la mutualisation de baies de stockage, ont profondément fait évoluer la place du stockage dans les centres de données. Cette tendance à la consolidation est particulièrement perceptible dans les entreprises multisites, qui mettent en place des stratégies de sauvegarde à distance via les protocoles WAN et LAN.

— La continuité de service. Les exigences des divisions métiers de l’entreprise concernant la continuité de service du système informatique sont de plus en plus fortes. Cela est dû à l’expansion du support informatique dans tous les métiers de l’entreprise. Et cette continuité de service, dont les termes doivent être définis en fonction de la stratégie de l’entreprise, est rendue possible par des instances de stockage dédiées à la sauvegarde des données et à leur récupération en cas de problème.

— Des projets de ‘cloud computing‘ : que ce soit sur le mode privé, public, ou encore hybride et communautaire. Le processus d’industrialisation de la gestion des données informatiques amène aujourd’hui à la création de centres de données géants, partagés par des clients professionnels d’hébergeurs dont la plus-value repose sur un savoir faire en matière de sécurité et de conservation des données.

La technique de ‘cloud computing‘, qui permet de faire fonctionner de manière performante un système d’information avec des éléments physiquement distants les uns des autres, joue donc ici un grand rôle. Mais la sauvegarde et la récupération des données depuis des sites distants pose de nouvelles problématiques pour les équipes IT.

Tous ces changements majeurs exigent des pré requis : la sécurité et la sauvegarde des données doit être assurée, et ce avec une feuille de route sur la continuité de l’activité. Les cas critiques de pertes de données, d’erreur majeure du système, ou d’arrêt d’activité d’un centre de donnée doivent être pris en compte en priorité pour organiser un plan de reprise de l’activité IT rapidement

LIVRE BLANC: Sauvegarde et restauration avec HP StorageWorks P4000 (LeftHand) et Data Protector Pour assurer la protection des données dans un environnement virtualisé, vous devez penser à deux choses: – la protection de la machine virtuelle, – la protection de l’application INSTALLÉE sur la machine virtuelle L’utilisation des méthodes traditionnelles de sauvegarde dans les environnements virtuels peut toutefois avoir un impact négatif sur la performance des serveurs et du stockage, voire laisser vos données d’applications sans protection. Pour en savoir plus, cliquer ici .

.

Ce dossier dédié à la protection des données est constitué de 6 volets :

1- Les nouveaux enjeux du stockage

2- Les nouveaux défis: la virtualisation, le ‘cloud’

3- Etude Forrester Research : la perception des DSI

4- L’offre Data Protector: un meccano à options multiples

5- Les apports de VMware et Microsoft Hyper-V

6- Les diverses offres et alternatives disponibles 3 – Etude Forrester Research: la perception des DSI

Le cabinet Forrester Research a récemment mené une étude ayant pour objet l’impact du ralentissement économique, au cours de ces derniers mois, sur les priorités et les projets des DSI.

Cet impact a été plus particulièrement appréhendé sur les stratégies et le financement des opérations de sauvegarde et de restauration. Un groupe de 152 DSI ont été mis à contribution.

Des budgets peu impactés par la crise

De fait, l’étude dégage une tendance majeure : en dépit de la crise économique, une majorité d’entreprises continue à dépenser et à investir des budgets non négligeables dans les domaines de la sauvegarde et de la récupération des données. L’étude révèle même que 59% des personnes interrogées déclarent vouloir augmenter leurs dépenses. 27% mentionnent que les budgets resteront identiques, et seulement 14% prévoient une baisse des investissements dans ce domaine. Surtout, l’ensemble des personnes interrogées affirment utiliser ou prévoient très prochainement de mettre en œuvre des solutions de protection des données à base de disques, et ce sous forme d’appliances, de VTL, de snapshot, de réplication ou encore de service de sauvegarde en ligne. Par ailleurs, on constate la disparition progressive de l’usage des cassettes ou cartouches physiques pour les sauvegardes.

Mais ces évolutions technologiques ne s’opèrent que dans un cadre économique très précis. L’emploi d’outils de logiciels de sauvegarde ou encore de cartouches virtuelles doit s’intégrer naturellement dans les environnements informatiques pré existants, tout en réalisant de nouveaux défis techniques. Surtout, le coût de possession de ces nouvelles générations de matériels et de logiciel doit obligatoirement être plus efficient que les solutions existantes.

Consolidation, mise en conformité et sécurisation

Les autres conclusions de l’étude montrent que la période économique actuelle pousse les entreprises à réaliser des projets informatiques de consolidation, de mise en conformité, et de sécurisation des données sensibles. Ce sont donc les techniques de virtualisation des serveurs et d’optimisation du stockage qui sont le plus utilisées. La technologie de protection des données sur disques est également en forte voie d’adoption, et ce pour des raisons à la fois de meilleure performance des opérations de sauvegarde et de restauration des données, mais aussi de sécurisation (les données sont immédiatement disponibles en ligne, et sont moins sujettes à des pertes et des vols comme cela peut être le cas avec des supports physiques transportables).

En phase avec les préoccupations des DSI

Pour l’année 2009, selon l’étude, les objectifs opérationnels des DSI en matière de sauvegarde et de récupération des données sont :

– l’amélioration des objectifs de récupération,

– l’amélioration des taux de succès,

– la sauvegarde des serveurs virtuels. De plus, il semble bien que l’adoption des solutions de sauvegarde en mode disque aille dans le sens de ces objectifs.

A 64%, les personnes ayant mis en œuvre de telles solutions déclarent qu’elles l’ont fait parce qu’elles voulaient améliorer la vitesse de récupération. 59% l’ont fait pour améliorer les taux de succès, et 55% pour améliorer la vitesse de sauvegarde.

La technique de déduplication a commencé à se démocratiser en 2009. L’étude montre que 7% des entreprises avaient déjà déployé cette technique, alors que 22% la testent, et 56% prévoient un déploiement ultérieurement.

Fig. 1- Sur une échelle de notation de 1 (« pas du tout important ») à 5 (« très important »), quelles fonctions vous paraissent importantes dans une solution de ‘back-up’ et de protection des données? – protection/backup des serveurs virtualisés: pour 40%, ‘très important’ et pour 47%, ‘important’. – intégration avec les systèmes et applications IT existantes: pour 40%, ‘très important’ et pour 45%, ‘important’. – cryptage/chiffrement: pour 45%, ‘très important’ et pour 39%, ‘important’. Etude menée auprès de 152 responsables et décisionnaires IT. Etude réalisée par Forrester Research pour HP. ______

La virtualisation des serveurs va avoir un impact majeur sur les stratégies de sauvegarde et de protection des données.

67% des DSI interrogés le pensent. Cela implique des changements méthodologiques majeurs quant à la sauvegarde des données. L’augmentation du ration de machines virtuelles par instance physique exige de nouvelles solutions, et les utilisateurs souhaitent que les outils logiciels qu’ils utilisent déjà soient mis à jour en ce sens.

Mais la sauvegarde reste un défi pour les DSI

• Le volume de données que les entreprises doivent sauvegarder est en augmentation. Désormais, c’est le ‘tera‘ (tera-octets ou tera-byte) qui est l’unité de mesure du stockage et des sauvegardes.

52% des personnes interrogées dans l’étude estiment que la croissance des données à sauvegarder dans leur entreprise pour l’année 2009 sera en augmentation de +40% par rapport à l’année précédente. • Les fenêtres de sauvegarde se réduisent. Fini le temps où la nuit et le weekend permettaient aux équipes IT de réaliser des opérations de maintenance. Les entreprises internationales multi sites sont opérationnelles 24/24 et ne permettent plus ce type de fonctionnement.

• Les objectifs des équipes métiers exigent des sauvegardes plus fréquentes et des restaurations plus rapides. Une sauvegarde par jour fait courir le risque d’une perte de données en cas de crash sur une période de 8 à 12 heures, et dans bien des domaines, c’est un risque que les dirigeants ne veulent plus prendre.

Fig. 2 – Pourquoi avez-vous déployé ou allez-vous déployer une solution de protection des données fondée sur des disques? Les 4 premières raisons sont : – améliorer la vitesse des restaurations – améliorer le taux de réussite des back-ups et restaurations – améliorer la vitesse du ‘backup’ – supprimer le transport physique des bandes. Etude réalisée par Forrester Research pour HP. ______

Le challenge de la sauvegarde en environnement virtualisé

La virtualisation des serveurs va accélérer l’adoption des solutions de protection de données basées sur des disques. De nombreux grands comptes ont désormais des milliers de machines virtuelles à gérer. Le bénéfice des machines virtuelles en terme de réduction des coûts d’infrastructure est réel, mais cette technique a compliqué les opérations de sauvegarde, qui étaient déjà complexes.

Concrètement, les machines virtuelles qui fonctionnent sur une instance physique ne pourront pas toujours être sauvegardées dans une fenêtre dédiée en raison de limites de puissance, de mémoire, ou encore d’I/O. D’où l’importance pour les utilisateurs de trouver des solutions fiables qui résolvent cette limitation. C’est un des choix majeur d’acquisition des logiciels de sauvegarde.

Selon l’étude, le marché à répondu de manière efficace à ce défis puisque les principales solutions du marché sont désormais intégrées avec les offres des éditeurs d’hyperviseur pour faciliter les sauvegardes hors des instances physiques. Mais le passage à une sauvegarde sur disque s’impose tout de même puisque les solutions logicielles les plus performantes utilisent cette technique.

77% des personnes interrogées affirment à ce titre que la virtualisation affecte leurs méthodologies de sauvegarde.

Et 94% de cette population affirme que le passage à la virtualisation a entraîné pour eux une migration vers des instances de sauvegarde en mode disque. Sur la question des logiciels,91% des personnes interrogées affirment vouloir résoudre les problématiques de sauvegarde virtuelle avec des logiciels existants. Mais 88% effectuent des tests sur de nouveaux logiciels.

Enfin, les fonctionnalités les plus recherchées par les utilisateurs de logiciels de protection de données ont trait à la volumétrie et à la déduplication des données (84%), et ce pour réduire le nombre de données transmises.

. Fig. 3 – Quel gain d’espace volume constatez-vous de la déduplication? – un facteur de entre 1 à 10 et 1 à 20: 72% des répondants; – un facteur de 1 à 20 ou supérieur: 14% des répondants; Sondage auprès de 43 responsables et décisionnaires IT qui ont adopté la déduplication. Etude réalisée par Forrester Research pour HP.

. Tableau 1 – L’impact spectaculaire de la déduplication sur la volumétrie des ‘backups’:jusqu’à un facteur 10 sur une semaine

Un microsite à consulter chez HP Sur ce thème de la protection des données, HP propose un ensemble de solutions intégrées. Cf. site HP dédié à cette problématique; cliquer ici . Ce dossier dédié à la protection des données est constitué de 6 volets :

1- Les nouveaux enjeux du stockage

2- Les nouveaux défis: la virtualisation, le ‘cloud’

3- Etude Forrester Research : la perception des DSI

4- L’offre Data Protector: un meccano à options multiples

5- Les apports de VMware et Microsoft Hyper-V

6- Les diverses offres et alternatives disponibles

4 – L’offre Data Protector: un meccano à options multiples

Chez HP, l’offre qui regroupe l’ensemble des solutions de sauvegarde et de récupération des données s’appelle ‘Data Protector‘. Cette offre inclut des produits matériels, logiciels et du service. Elle vise à « combiner le meilleur des solutions existantes, qui peuvent être ainsi adaptées aux exigences de l’entreprise».

Les technologies proposées par HP sont diverses, «ce qui laisse toute latitude pour retenir celles qui conviennent le mieux ».

Pour les besoins d’extensibilité, Data Protector est capable de se dimensionner avec des serveurs virtuels et des environnements de stockage. Cette solution peut sauvegarder jusqu’à 17 péta-octets répartis sur 17 000 serveurs !

Par ailleurs, l’extensibilité du stockage virtuel permet une approche du type : “payez uniquement pour ce que vous utilisez” s’agissant du matériel.

Côté fonctionnalités, Data Protector permet d’effectuer des HA simple ou multi-sites. Par exemple, un scénario de sauvegarde peut être de procéder à des ‘snapshots’ toutes les demi- heures et de conserver les data pendant 24 heures. Il est également possible d’effectuer des copies DR à distance. On pourra aussi faire une sauvegarde sur disque effectuée après déduplication, avec une sauvegarde une fois par jour et la conserver pendant 6 mois. Enfin, au niveau des bibliothèques de bandes LTO MSL, la copie pourra être conservée pendant 10 ans, donc une marge de sécurité pour l’archivage des documents.

Sécurité des environnements virtuels

HP a fait en sorte que les machines virtuelles puissent être gérées en temps réel. Les ‘charges’ sur les serveurs peuvent être suivies via une console d’hypervision unique. Les environnements physiques et virtuels peuvent être ainsi gérés plus facilement. Par ailleurs, les solutions VMware permettent des états consolidés. La proposition de HP est d’étendre cette consolidation.

Surtout, le système doit également permettre la sécurisation de l’intégrité des données, et cela dans les processus de virtualisation aussi bien que lors d’une récupération ou restauration des données. Ces processus peuvent être automatisés. Fig.1 – HP Data Protector a été étendu pour protéger tous les environnements virtualisés: VMware mais également Microsoft Virtual Server, l’architecture Hyper-V, ainsi que XenServer de Citrix ou encore les ‘zones’ de Solaris (Oracle Sun). La plate-forme ‘HP Integrity VM Host’ supporte toutes les ‘VM’ du marché (sous Windows, Linux, HP-UX…). ______

Le support des 8 méthodes de protection VMware

DataProtector 6.1 supporte les 8 méthodes de protection de l’infrastructure VMware. Cela signifie une intégration complète avec la sauvegarde consolidée de VMware («Consolidated backup »), sauvegarde en ligne (on line legacy back-up), snapshots sur disque des serveurs avec un serveur VMware ESX, … ).

Par ailleurs, les ‘snapshots’ sont directement gérés depuis le menu GUI de DataProtector. En conséquence, il n’y a pas de processus de script, ni d’intervention de tierce partie dans l’opération.

Sur Hyper- V de Microsoft

HP annonce travailler également sur une extension pour Microsoft Hyper-V et VSS. Le 19 mai 2010, a été annoncée une amélioration de HP Data Protector qui permet de mieux utiliser encore ces 8 méthodes de protection avec l’environnement Microsoft Hyper-V sous Windows Server 2008 R2 (version HP Data Protector 6.11). Cette solution repose sur «HP Data Protector Zero Downtime Backup » ou ‘ZDB'(version 6.11) et un SAN HP StorageWorks P4000 (d’origine LeftHand).

(lire également : Partie 5 : Hyper-V)

LIVRE BLANC: Sauvegarde et restauration avec HP StorageWorks P4000 (LeftHand) et Data Protector Pour assurer la protection des données dans un environnement virtualisé, vous devez penser à deux choses: . la protection de la machine virtuelle, . la protection de l’application INSTALLÉE sur la machine virtuelle L’utilisation des méthodes traditionnelles de sauvegarde dans les environnements virtuels peut toutefois avoir un impact négatif sur la performance des serveurs et du stockage, voire laisser vos données d’applications sans protection. En savoir plus? Cliquer ici L’objectif de sauvegarde “zéro temps d’arrêt » ou ZDB

La solution proposée par HP présente aussi un autre avantage : elle pilote la création des ‘snapshots’ qui sont réalisés dans la matrice des disques. Il n’y a donc pas d’impact sur le serveur. Par ailleurs, au niveau du processus de récupération, intervient un «agent de sauvegarde». C’est pour cela que HP parle de bénéfices provenant du “meilleurs des deux mondes”.

La solution de sauvegarde proposée ici est optimisée : elle est adaptée à la classification des données. Les données critiques, en provenance d’un ERP, par exemple, ont généralement besoin d’un objectif de récupération (RTO) de 2 heures, voire moins. Certaines données, moins importantes, peuvent accepter des temps d’arrêt allant jusqu’à 12 ou 24 heures.

Data Protector Zero Downtime Backup ou ZDB est une technologie de sauvegarde par réplication sur disque. Elle repose sur des grappes de disques (ou ‘clusters’) pour permettre une sauvegarde “zéro impact” en l’effectuant sur une copie des données de production.

ZDB crée sur la grille (grappe, matrice, ‘array’) une copie des données pour la sauvegarde, puis effectue une opération de sauvegarde en utilisant cette copie stockée (appelée ‘copie miroir’, une réplique, ou encore, dans le cas du P4000, un ‘snapshot’). Ce ‘snapshot’ est présenté à un serveur hôte de sauvegarde monté sur le système d’exploitation et les données sont «streamées» vers la cassette («streamed to tape»).

Dans ce processus, HP utilise les fonctionnalités de Microsoft Volume Shadow Copy Writers (VSS). Ce cadre fournit l’infrastructure pour synchroniser les différentes parties intervenant dans l’opération : l’application, le stockage et Data Protector. Les copies logiques ainsi créées peuvent être ensuite utilisées de différentes manières : sauvegarde de fichiers ouverts et d’applications, récupération et restauration de données.

Cette offre HP, qui comprend donc notamment un SAN P4000 (d’origine LeftHand) est disponible, ainsi que la sauvegarde Data Protector, les solutions de librairies de bandes LTO-MSL (pour la sauvegarde à long terme).

Un agent de sauvegarde peut être rapidement configuré pour chaque machine virtuelle.

Au delà des fonctionnalités simples, les« applications virtualisées les plus complexes peuvent être protégées», affirme HP. L’essentiel des principaux déploiements peut être réalisé sur une période de 3 à 6 mois.

Fig. 2 Les 4 noeuds – du serveur d’applications au P4000

Les 4 étapes de la sauvegarde des données avec Data Protector Quatre étapes s’enchaînent logiquement:

1-Préparation de la sauvegarde

L’environnement Data Protector est installé et configuré. Les données d’application à sauvegarder résident sur un ou plusieurs volumes dui cluster (ici HP P4000 LeftHand).

Data Protector MS VSS (Volume Shadow Copy Integration de Microsoft) doit être installé sur le serveur d’application et de sauvegarde.

Le processus ne dépend pas du nombre de volumes utilisés

Les volumes de données P4000 concernés par les sessions ZDB doivent être présentés (« affectés) au serveur de sauvegarde (ou aux machines virtuelles)

2-Création d’un snapshot

Une fois que la session de sauvegarde a démarré, Data Protector résout les volumes concernés dans la sauvegarde. Pendant cette phase, Data Protector découvre les volumes de stockage sur lesquels se trouvent les objets sélectionnés. Il demande la création d’un ‘snapshot’ pour chacun de ces volumes. Les nouveaux volumes de ‘snapshot’ créés sont présentés et montés sur le serveur de sauvegarde.

3- Sauvegarde sur bande

Le snapshot étant alors visible sur le serveur de sauvegarde, les données peuvent être lues et diffusées en continu vers le périphérique de bande par l’infrastructure VSS. Une fois la présentation du snapshot terminée, la diffusion en continu de la sauvegarde vers la bande démarre.

4- Fin de la session de sauvegarde (schéma ci-dessous)

Aucun snapshot n’est conservé pour traitement ultérieur. Les données de sauvegarde se trouvent uniquement sur bande. Fig. 3 L’étape finale des 4 étapes clés de la sauvegarde ‘HP Data Protector’

Dernière des 4 étapes : une fois la sauvegarde sur bande terminée, les volumes de ‘snapshot’ présentés au serveur de sauvegarde sont ignorés, annulés depuis le serveur de sauvegarde. Aucun ‘snapshot’ n’est conservé pour traitement ultérieur. Les données de sauvegarde se trouvent uniquement sur bande. A noter que le volume original est toutefois présenté au serveur de sauvegarde. Dans l’exemple de ce schéma, les ‘snapshots’ sont donc automatiquement détruits. La restauration se fera donc depuis les bandes. Mais il est aussi possible de conserver une ou plusieurs copies des ‘snapshots’ dans la baie de stockage. Cela permet de faire une restauration quasi instantanée depuis ces ‘snapshots’. On est alors dans le cas de l’option suivante à ZDB qui s’appelle «Instant Recovery» (IR) et qui permet de faire cette restauration depuis les snapshots.

Les principaux avantages En résumé, les principaux avantages de la solution HP Data Protector sont: – une intégration très rapide (10 minutes) – une approche très flexible, extensible, qui combine DataProtector et le SAN HP P4000 (LeftHand). Pour chaque mise à jour ou migration vers une configuration plus importante, la transition vers des solutions de haut de gamme est facilitée (depuis les lignes de produit EVA et P4000 vers MSA). Enfin, le mode de licence proposé par HP est « reflexible » : l’entreprise cliente peut réutiliser la licence pour une durée de temps plus longue. Les licences sont indépendantes de l’application et du système d’exploitation. Pas de coûts additionnels en cas de migration.

Un microsite à consulter chez HP Sur ce thème de la protection des données, HP propose un ensemble de solutions intégrées. Cf. site HP dédié à cette problématique; cliquer ici

Ce dossier dédié à la protection des données est constitué de 6 volets :

1- Les nouveaux enjeux du stockage

2- Les nouveaux défis: la virtualisation, le ‘cloud’

3- Etude Forrester Research : la perception des DSI

4- L’offre Data Protector: un meccano à options multiples

5- Les apports de VMware et Microsoft Hyper-V

6- Les diverses offres et alternatives disponibles

5 – Les apports de VMware et Microsoft Hyper-V

En plus de ses outils de virtualisation, Vmware propose un outil de restauration des données pour les machines virtuelles. Il s’agit de VMware Data Recovery, qui permet la sauvegarde et la restauration sur disque. Vmware précise que cet outil est la “première ligne de défense”, c’est à dire que pour des travaux plus conséquents, une solution plus riche doit être prévue. La solution est intégrée à VMware vCenter Server pour permettre une gestion centralisée des tâches de sauvegarde. Elle comprend également une fonction de suppression des doublons de données à enregistrer sur le disque de stockage pour les sauvegardes. VMware Data Recovery se présente sous la forme d’une machine virtuelle qui s’exécute sur les hôtes VMware ESX et ESXi. VMware Data Recovery fournit donc une interface de gestion centralisée qui permet de sauvegarder et restaurer directement les machines virtuelles via VMware vCenter Server. Enfin, les machines virtuelles déplacées par VMware HA, VMware VMotion et VMware DRS sont automatiquement surveillées, ce qui permet de poursuivre les sauvegardes planifiées sans interruption.

L’alternative Microsoft Hyper-V

Cet outil permet via Windows Server 2008 R2 la virtualisation des serveurs et des postes clients (avec VDI pour les postes clients). Du point de vue de la sauvegarde, la dernière version de l’hyperviseur permet aux administrateurs d’ajouter ou de supprimer des fichiers vhd, ainsi que des disques ‘pass-through‘ connectés à un contrôleur SCSI virtuel, et ce sans redémarrer le système. Cela permet de gagner en flexibilité dans des scénarios de sauvegarde de centre de données.

Un microsite à consulter chez HP Sur ce thème de la protection des données, HP propose un ensemble de solutions intégrées. Cf. site HP dédié à cette problématique; cliquer ici .

Ce dossier dédié à la protection des données est constitué de 6 volets :

1- Les nouveaux enjeux du stockage

2- Les nouveaux défis: la virtualisation, le ‘cloud’

3- Etude Forrester Research : la perception des DSI

4- L’offre Data Protector: un meccano à options multiples

5- Les apports de VMware et Microsoft Hyper-V

6- Les diverses offres et alternatives disponibles 6 – Les diverses offres et alternatives disponibles

Le DX Object Storage de Dell

La ‘Plateforme Dell DX Object Storage’, dont l’objectif est l’évolutivité (de 3 To à de nombreux Po), utilise la technique de stockage d’objet, c’est à dire une conception d’espace d’adressage linéaire qui supprime la complexité du système de fichiers et la gestion des groupes de numéros d’unité logique et RAID.

Dell propose aussi une solution de sauvegarde sur disque Dell | EMC DD140. Cette solution intègre également des fonctionnalités de déduplication en ligne et de réplication. La prise en charge de la plupart des logiciels de sauvegarde et d’archivage est proposée.

EMC: les avantages de la déduplication

Chez EMC, Avamar Data Store rationalise le déploiement et la gestion des processus de sauvegarde et de restauration. Sa fonction phare est la déduplication des données à la source (pour les environnements VMware, les bureaux distants et les LAN de datacenters). EMC garantit une division par 500 du nombre de données à sauvegarder par jour, par 10 du temps de sauvegarde et par 50 le volume de stockage utilisé.

EMC a également intégré l’offre Data Domain.

Le client EMC NetWorker est intégré à la solution, ce qui permet de fusionner les capacités de déduplication et la sauvegarde/restauration traditionnelles à l’aide d’une interface de gestion et d’une fenêtre de sauvegarde communes.

HDS , Hitachi Data Systems

Hitachi Storage Cluster for Microsoft Hyper-V est une solution de continuité d’activité et de récupération des données pour les environnements virtualisés Microsoft Hyper-V. La solution permet la réplication de machines virtuelles et des données associées à un niveau local ou distant. C’est le logiciel Hitachi TrueCopy Synchronous qui permet de créer et de maintenir des copies dupliquées sur la plateforme Universal Storage Platform VM. Ces copies seront utilisées à des fins de duplication, de sauvegarde, et de récupération des données.

IBM, TIvoli Storage Manager

‘Tivoli Storage Manager’ assure la protection et la conservation des données. Cet outil réduit les délais de sauvegarde et de restauration et maximise la disponibilité des applications via des technologies avancées de restauration des données. Il permet la déduplication et le stockage hiérarchique. Il se décline en différentes versions. Tivoli Storage Manager FastBack se concentre sur les données serveur de Microsoft Windows (Microsoft Exchange, SQL, SAP, DB2 et Oracle ).

NetApp: Integrated Data Protection

Integrated Data Protection de NetApp propose des fonctions de sauvegarde destinées à réduire l’utilisation du nombre de serveurs, des outils de stockage et des ressources réseau. La restauration des données applicatives et des machines virtuelles s’effectuent en quelques minutes. NetApp propose surtout de remplacer des produits différents par une seule et même plateforme pour réaliser en haute disponibilité la sauvegarde, la conformité et la récupération de données directement depuis les instances de stockage.

Symantec: Backup Exec 2010

Backup Exec 2010 de Symantec intègre des fonctions de déduplication, de restauration granulaire, de protection des fichiers ouverts, de reprise après incident et de protection des sauvegardes pour Microsoft Exchange, SharePoint Services, SQL et les postes de travail Windows entre autres. La restauration granulaire est également possible pour les systèmes Exchange et Active Directory dans un environnement VMware ou Hyper-V.

A noter que les fonctions d’archivage unifié sont assurées par Enterprise Vault.

Computer Associates (CA) et la gamme ARCserve

CA ARCserve Backup. Il s’agit d’un outil de gestion centralisée et de déduplication des données (en cours d’homologation). Une présentation visuelle de l’infrastructure et fonctionnalités de reporting est disponible, et permet la gestion des opérations de sauvegarde et de restauration. CA annonce que la déduplication des données avec cet outil permet une réduction de plus de 80% de la capacité de stockage nécessaire pour les sauvegardes.

CA ARCserve D2D est un nouveau logiciel de sauvegarde sur disque, qui serait « le seul produit du marché intégrant des fonctionnalités de restauration à nu sur du matériel différent et de sauvegarde par instantanés incrémentiels granulaires ». C’est une technologie « maison », I2 (en cours d’homologation).

LIVRE BLANC: Sauvegarde et restauration avec HP StorageWorks P4000 (LeftHand) et Data Protector Pour assurer la protection des données dans un environnement virtualisé, vous devez penser à deux choses: . la protection de la machine virtuelle, . la protection de l’application INSTALLÉE sur la machine virtuelle L’utilisation des méthodes traditionnelles de sauvegarde dans les environnements virtuels peut toutefois avoir un impact négatif sur la performance des serveurs et du stockage, voire laisser vos données d’applications sans protection. En savoir plus? Cliquer ici

DOSSIER : Les nouveaux serveurs et la virtualisation

Ce dossier est constitué de six volets:

1- Machines ‘virtuelles’ et nouveaux serveurs

2- Quels bénéfices peut-on tirer de la virtualisation ? 3- Les solutions logicielles de virtualisation

4- Les matériels optimisés pour la virtualisation

5- Demain : après les serveurs, les postes clients

6- Glossaire

Sources: Cabinet Duquesne Research (Emmanuel Besluau), Cabinet IDC, Rédaction de Silicon.fr (Jean-Michel Manat, Pierre Mangin),

Partie 1 – Machines ‘virtuelles’ et nouveaux serveurs Pour de nombreuses entreprises, il est en effet impératif de réduire les coûts, notamment ceux de leur ‘datacenter’. Les serveurs de nouvelle génération sont configurés en machines dites virtuelles, c’est-à-dire capables de fonctionner à plusieurs en parallèle sur la même machine physique. En consolidant un parc de serveurs, ces configurations de systèmes virtuels permettent de réaliser des économies parfois très importantes, à la fois sur les matériels, la consommation énergétique et les ressources humaines. Ainsi, la virtualisation s’impose comme l’outil nécessaire pour optimiser une infrastructure informatique.

Beaucoup d’entreprises ont déjà franchi le pas, convaincues de la pertinence de ce modèle de systèmes virtualisés. Selon des chiffres fournis par IDC, le nombre de serveurs virtuels déployés en 2008 à l’échelle de la planète a ainsi dépassé celui des serveurs physiques vendus par les constructeurs.

LIVRE BLANC : Les applications stratégiques adoptent la plateforme x86. La technologie de virtualisation x86 permet d’améliorer la disponibilité des serveurs et des applications, la gestion des charges de travail et la gestion générale du système. Pour en savoir plus,téléchargez ici le document de synthèse - gratuit- d’IBM Le cabinet d’études estime que, d’ici à 2013, la proportion de serveurs virtualisés atteindra les 60 % des machines en fonctionnement. La plupart des responsables IT ne se demandent plus s’ils doivent migrer leur(s) datacenter(s) vers une architecture virtualisée, mais plutôt quand et comment. La quasi-totalité d’entre eux déclarent avoir au moins étudié la question, quand ils n’ont pas déjà franchi un premier pas en testant la technologie sur des serveurs de développement.

Mais le principal frein à l’essor de ces technologies reste lemanque d’expériences et de compétences dans ce domaine. L’administration et la maintenance des ressources informatiques s’en trouvent transformée. La tâche des administrateurs est d’autant plus délicate que les solutions des principaux fournisseurs évoluent en permanence, tout comme les matériels proposés par les constructeurs et les fabricants de puces. Ceux-ci travaillent en effet en étroite collaboration avec les éditeurs afin d’optimiser leurs matériels destinés à héberger ces machines virtuelles.

AGENDA : ‘Virtualization Tour 2009’Venez participer dans votre région au grand rendez-vous sur le virtualisation organisé en partenariat par IBM. Pour vous inscrire, consultez l’agenda, les dates et lieux de ce rendez-vous de la virtualisation : cliquez ici. LIVRE BLANC: Virtualisation du stockage IBM Présentations générales, techniques ou détaillées, laissez-vous guider dans la virtualisation du stockage IBM. Cliquez ici

Partie 2 – Quels bénéfices peut-on tirer de la virtualisation ?

Selon Emmanuel Besluau, expert en infrastructure et directeur du cabinet Duquesne Research, l’augmentation de la puissance des data centers ne peut désormais plus se faire en poussant la vitesse des processeurs, lesquels atteignent leur limite physique.

Cette puissance supérieure s’obtient donc en utilisant un procédé de gravure de plus en plus fin et en passant auxprocesseurs multicoeurs, comme cela s’est vu sur les processeurs z (mainframes) et p (Power) notamment, chez IBM. Or, leshyperviseurs sont aujourd’hui les plus à même de tirer profit des puces multicoeurs sans apporter de modifications importantes. Ces deux tendances (hausse de puissance et multicoeur) obligent soit à tout réécrire et recompiler, soit à passer à un modèle virtualisé. La consolidation de serveurs informatiques constitue l’un des principaux avantages de la virtualisation. En effet, la plupart des entreprises disposent de serveurs physiques dont les ressources ne sont exploitées que très partiellement.

Selon une étude du cabinet Duquesne Research menée en 2008, le taux moyen rapporté d’utilisation des serveurs serait d’environ :

. 40 % de leur capacité pour les serveurs de bases de données,

. 25 à 30 % pour les serveurs Web et ‘middlewares’,

. 20 % pour les serveurs bureautiques et d’applications.

Ces chiffres fournis par les entreprises utilisatrices doivent cependant être interprétés avec précaution et sont certainement surévalués. La plupart des études montrent en effet que letaux moyen réel d’utilisation d’un serveur se situe plutôt aux alentours de 15 % seulement !

A la lumière de ces chiffres, on comprend aisément les bénéfices potentiels que peut apporter la virtualisation : plutôt que d’entretenir, par exemple, cinq serveurs physiques utilisés à 10 ou 15 % de leurs capacités, on pourra les virtualiser sur une seule machine (sachant qu’il faudra conserver environ 15 % pour la couche de virtualisation elle-même) et réduire ainsi considérablement ses coûts d’exploitation, tout particulièrement en termes de consommation électrique. D’autant plus que celle-ci ne se limite pas à l’alimentation du data center : l’énergie consommée par les équipements de refroidissement augmente généralement d’environ 50 % la facture électrique globale.

Ce qui fait plus que doubler au total la facture !

Pourtant, le document de Duquesne Research précise : « Pour chaque Watt consommé en salle par une machine, il faut ajouter 0,5 Watts de refroidissement de la salle. » Les gains de place occasionnés constituent aussi un facteur important, notamment pour les entreprises dont les data centers arrivent à leur point de saturation. Si la solution de virtualisation est envisagée suffisamment en amont d’un projet de création d’un nouveau data center, les bénéfices pour l’entreprise sont encore plus significatifs puisqu’elles devront acquérir un nombre largement inférieur de machines et d’équipements.

LIVRE BLANC : Les applications stratégiques adoptent la plateforme x86. La technologie de virtualisation x86 permet d’améliorer la disponibilité des serveurs et des applications, la gestion des charges de travail et la gestion générale du système. Pour en savoir plus,téléchargez ici le document de synthèse - gratuit- d’IBM Facteur de flexibilité

Par ailleurs, la virtualisation permet de réduire la complexité d’une infrastructure informatique, ce qui se traduit par des gains de temps considérables pour les administrateurs IT.

Elle leur offre, d’une part, une flexibilité sans commune mesure avec les architectures traditionnelles : une machine virtuelle peut, par définition, très facilement déplacée d’une machine physique vers une autre (et sans avoir à être physiquement présent), alors que ce type d’opération nécessite de nombreuses manipulations dans le cas d’un serveur physique traditionnel.

La virtualisation doit permettre également d’obtenir une meilleure disponibilité des applications puisque les ressources allouées à chacune d’entre elles pourront être adaptées, automatiquement ou non, en fonction des besoins du moment.

D’autre part, on pourra rationaliser son architecture en faisant cohabiter des machines virtuelles ayant des profils de charges différents – par exemple l’une ayant une activité principalement diurne et l’autre fonctionnant la nuit. Autre facteur de flexibilité important : la virtualisation introduisant une couche logicielle invariante, on pourra modifier au-dessus sans toucher en dessous, par exemple faire croire à une application qu’elle dispose toujours d’un pilote pour un adaptateur même si celui-ci n’est plus présent.

* Facteur de sécurisation

Enfin, la virtualisation s’avère particulièrement utile en matière de sécurité dans la mesure où les machines virtuelles n’accèdent pas directement aux équipements périphériques (notamment les disques durs).

Ainsi, un virus ou tout autre logiciel malveillant ayant infiltré un système virtualisé ne pourra guère causer de dommages réels ; il suffira de le remplacer par une image saine sauvegardée précédemment pour que tout rentre dans l’ordre. En contrepartie, la virtualisation peut également devenir une source de panne commune à tous les systèmes invités.

* Un exemple de consolidation par virtualisation

L’institut Duquesne Research cite un cas concret de consolidation réussie grâce à la virtualisation et à des serveurs lames.

Une entreprise disposant de 1 200 serveurs physiques répartis sur 300 racks (dispersés sur plusieurs sites) décide de les remplacer par des machines virtuelles installées sur des serveurs lames.

Les résultats dépassent alors toutes les espérances de la DSI de cette entreprise: au final, les 1 200 serveurs désormais virtuels n’occupent plus que 8 racks (37 fois moins !) et consomment 30 fois moins d’énergie pour leur alimentation (seulement 15 kW contre 480 kW précédemment), tandis que la surface utilisée est divisée elle aussi par 37 : elle chute de 600 à 16 m² ! Le taux de charge de ces serveurs, qui était de 20 % initialement, s’élève désormais à 65 %, soit une efficacité plus de trois fois supérieure.

AGENDA : ‘Virtualization Tour 2009’Venez participer dans votre région au grand rendez-vous sur le virtualisation organisé en partenariat par IBM. Pour vous inscrire, consultez l’agenda, les dates et lieux de ce rendez-vous de la virtualisation : cliquez ici. LIVRE BLANC: Virtualisation du stockage IBM Présentations générales, techniques ou détaillées, laissez-vous guider dans la virtualisation du stockage IBM. Cliquez ici

Partie 3 : Les solutions logicielles de virtualisation A ce jour, les acteurs réellement en mesure de proposer une offre de virtualisation de serveurs destinée aux entreprises se limitent à quatre principaux éditeurs : VMware, Citrix, Microsoft et Oracle – sachant que le premier dispose d’une avance technologique tellement importante qu’elle en fait le leader incontesté du marché. Si chacun d’entre eux dispose d’un hyperviseur capable de répondre aux principaux besoins de leurs clients, cela ne suffit pas pour autant à constituer une offre complète et attractive. En effet, ces hyperviseurs nécessitent d’êtres complétés par des outils d’administration permettant aux gestionnaires IT de mener leurs projets de virtualisation de façon optimale. C’est donc principalement dans ce domaine que se joue aujourd’hui la compétition entre les différents protagonistes.

LIVRE BLANC : Les applications stratégiques adoptent la plateforme x86. La technologie de virtualisation x86 permet d’améliorer la disponibilité des serveurs et des applications, la gestion des charges de travail et la gestion générale du système. Pour en savoir plus,téléchargez ici le document de synthèse - gratuit- d’IBM vSphere (ex-ESX Server) de VMware

Précurseur de la virtualisation moderne dès la fin des années 90, VMware impose aujourd’hui une insolente domination à tous ses concurrents : selon les estimations de divers analystes, sa part de marché sur les serveurs virtualisés en production avoisinerait actuellement les 90 % grâce à son hyperviseur ESX Server, mais surtout à ses outils d’administration particulièrement avancés. ESX Server a été le premier hyperviseur à remplir tous les critères requis par les spécialistes du secteur pour constituer une solution permettant une utilisation sur un serveur de production. Rebaptisée eSphere, la version 4.0 d’ESX Server a pour ambition de répondre aussi bien aux exigences de très gros clients disposant d’infrastructures de cloud computing qu’à celles des PME – avec des offres et des tarifs distincts, bien entendu.

Seul bémol : bien conscient de son avance technologique, VMware la fait payer au prix fort à ses clients. L’éditeur propose cependant une version gratuite de sa technologie, ESXi, qui bénéficie depuis peu d’un outil d’installation, baptisé VMware Go. Egalement gratuit, celui-ci est principalement destiné aux PME souhaitant découvrir et tester la technologie de VMware.

XenServer de Citrix

Citrix a investi le marché de la virtualisation de serveurs en août 2008 en rachetant la société XenSource, alors éditrice de la solution open source Xen, pour la modique somme de 500 millions de dollars. Avec son hyperviseur XenServer, actuellement en version 5.5, Citrix mise sur un tout autre modèle économique que son principal rival VMware : la solution est en effet téléchargeable gratuitement sur son site.

C’est donc de ses offres de services et de ses outils d’administration, notamment Citrix Essentials, que l’éditeur tire tous ses revenus. En ces temps de crise, la gratuité de l’application elle-même semble être un argument de poids si l’on en juge par la part de marché croissante de XenServer.

Hyper-V de Microsoft

Tout comme Citrix, Microsoft tente de rattraper son retard sur VMware avec son hyperviseur Hyper-V, dont la version 2.0 a été officiellement présenté en juillet 2009. Celle-ci sera directement intégrée dans Windows Server 2008 R2, la dernière version de l’OS serveur de l’éditeur, mais aussi proposée gratuitement dans une version autonome (avec cependant des restrictions en termes de fonctionnalités).

L’une des principales innovations de cette seconde version de l’hyperviseur de Microsoft est la possibilité de faire migrer une machine virtuelle d’un serveur vers un autre, une fonctionnalité qui manquait cruellement à la version 1.0 et déjà présente depuis longtemps dans ESX Server et XenServer (cette migration n’est cependant réalisable que dans des conditions particulières).

Oracle VM

Dernier arrivé dans cette course à la virtualisation de serveurs, Oracle espère combler son retard sur ses concurrents avec son offre Oracle VM, dont la version 2.2 est attendue prochainement. L’éditeur a profité des technologies héritées de ses acquisitions de Sun en avril 2009, et surtout de Virtual Iron en mai dernier.

La version 2.1.2, actuellement disponible gratuitement, offre notamment des fonctions avancées de haute disponibilité des machines virtuelles et des serveurs de gestion. Oracle propose également des modèles gratuits contenant des images préconfigurées d’applications d’entreprise.

AGENDA : « Virtualization Tour 2009 » Venez participer dans votre région au grand rendez-vous sur le virtualisation organisé en partenariat par IBM. Pour vous inscrire, consultez l’agenda, les dates et lieux de ce rendez-vous de la virtualisation : cliquez ici. LIVRE BLANC: Virtualisation du stockage IBM Présentations générales, techniques ou détaillées, laissez-vous guider dans la virtualisation du stockage IBM. Cliquez ici

Partie 4 : Les matériels optimisés pour la virtualisation Ces éditeurs de solutions logicielles ne sont pas les seuls à s’être lancés dans la course à la virtualisation : les fabricants, au premier rang desquel les fondeurs de puces, ont très vite compris la nécessité d’adapter leurs matériels de façon à tirer le meilleur parti de ces technologies. Intel a ainsi développé depuis plusieurs années sa technologie de partition processeur VT-x (Virtualization Technology), qu’il a intégrée dans bon nombre de ses processeurs (Celeron, Core 2 Duo, Core 2 Quad, Xeon…).

LIVRE BLANC : Les applications stratégiques adoptent la plateforme x86. La technologie de virtualisation x86 permet d’améliorer la disponibilité des serveurs et des applications, la gestion des charges de travail et la gestion générale du système. Pour en savoir plus,téléchargez ici le document de synthèse - gratuit- d’IBM Chez Intel, cette technologie de virtualisation matérielle permet notamment d’optimiser le partage des ressources matérielles entre les différentes machines virtuelles fonctionnant sur le même processeur, et facilite ainsi la tâche des applications de virtualisation. AMD a également pris le train de la virtualisation matérielle depuis quelques années avec sa technologie baptisée AMD-V, qui équipe ses processeurs Opteron. Dernier modèle en date, présenté lors du salon VMworld 2009 : l’Opteron Istanbul 2419 EE à 6 coeurs.

Les constructeurs sont également très impliqués et collaborent étroitement avec les éditeurs de solutions de virtualisation pour proposer des serveurs optimisés.IBM a ainsi présenté, à l’occasion du salon VMworld organisé par VMware début août, une nouvelle version de son serveurIBM iDataPlex, l’IBM dx 360 M2, conçu autour de deux processeurs Xeon 5500 d’Intel. Plus puissant et offrant un meilleur ratio puissance/watt que ses prédécesseurs, ce serveur est surtout entièrement compatible avec la dernière version de l’hyperviseur de VMware, vSphere 4.

AGENDA : ‘Virtualization Tour 2009’Venez participer dans votre région au grand rendez-vous sur le virtualisation organisé en partenariat par IBM. Pour vous inscrire, consultez l’agenda, les dates et lieux de ce rendez-vous de la virtualisation : cliquez ici. LIVRE BLANC: Virtualisation du stockage IBM Présentations générales, techniques ou détaillées, laissez-vous guider dans la virtualisation du stockage IBM. Cliquez ici

Partie 5 : Demain : après les serveurs, les postes clients La virtualisation de serveurs arrivant aujourd’hui à maturité, l’un des prochains enjeux de cette technologie est la virtualisation des postes clients, également appeléeVDI (pour Virtual Desktop Infrastructure).

Celle-ci consiste à créer des images virtuelles des systèmes d’exploitation et des applications des salariés d’une entreprise, afin de permettre à ces derniers d’y accéder à distance à partir de n’importe quel ordinateur, voire d’un simple terminal. Les avantages de cette approche sont multiples. Outre la possibilité de mettre à la disposition des utilisateurs un environnement de travail entièrement sécurisé et accessible en permanence, elle permet de réduire drastiquement les coûts d’administration et de maintenance en les centralisant.

LIVRE BLANC : Les applications stratégiques adoptent la plateforme x86. La technologie de virtualisation x86 permet d’améliorer la disponibilité des serveurs et des applications, la gestion des charges de travail et la gestion générale du système. Pour en savoir plus,téléchargez ici le document de synthèse - gratuit- d’IBM (en format En pratique, le déploiement d’une solution de virtualisation des postes de travail demeure à ce jour une opération encore complexe pour les administrateurs IT, la technologie n’en étant encore qu’à ses balbutiements. On voit donc apparaître depuis peu des offres de services destinées à faciliter la tâche des entreprises ne disposant pas des compétences nécessaires en la matière.

IBM a ainsi présenté tout récemment sa solution Smart Business Desktop Cloud, qui devrait être disponible à partir d’octobre 2009 aux Etats-Unis et en Europe. Basée principalement sur l’hyperviseur ESXi de VMware, mais aussi sur des technologies issues deCitrix , cette solution permettra aux entreprises d’héberger les images de leurs postes de travail virtuels sur les serveurs d’IBM, qui en assurera également la gestion complète – moyennant un abonnement mensuel. AGENDA : ‘Virtualization Tour 2009‘ Venez participer dans votre région au grand rendez-vous sur le virtualisation organisé en partenariat par IBM. Pour vous inscrire, consultez l’agenda, les dates et lieux de ce rendez-vous de la virtualisation : cliquez ici. LIVRE BLANC: Virtualisation du stockage IBM Présentations générales, techniques ou détaillées, laissez-vous guider dans la virtualisation du stockage IBM. Cliquez ici

Partie 6 : Glossaire Virtualisation :

D’une manière générale, la virtualisation est l’ensemble des techniques et outils permettant de faire fonctionner simultanément plusieurs systèmes d’exploitation et/ou applications sur une seule machine physique. Dans le cadre d’une virtualisation complète, le système d’exploitation invité n’a aucun moyen de savoir que les ressources matérielles qu’il croit gérer sont en réalité purement virtuelles (logicielles).

Emulation :

Apparue dans les années 90, l’émulation diffère quelque peu de la virtualisation en ce sens qu’elle simule l’exécution des programmes en traduisant à la volée les instructions à destination du processeur. Son gros défaut est que cette interprétation des instructions génère une baisse notable des performances.

Hyperviseur (ou moniteur de machines virtuelles) :

On désigne ainsi la couche logicielle qui vient s’insérer entre la machine physique et les systèmes d’exploitation invités (hyperviseurs de type 1) ou bien entre le système d’exploitation hôte et les systèmes invités (hyperviseurs de type 2, les plus couramment utilisés).

Paravirtualisation :

Contrairement à la virtualisation dite complète, la paravirtualisation est une technique qui modifie le système d’exploitation invité de sorte qu’il soit ? conscient ? de fonctionner sur une machine virtuelle. Elle permet ainsi à ce système invité de mieux dialoguer avec le système hôte et d’augmenter sensiblement ses performances.

Système hôte (ou ‘host‘):

C’est le système d’exploitation installé directement sur la machine physique et sur lequel tourne l’application de virtualisation.

Système invité (ou ‘guest‘):

Le système invité (guest en anglais) est celui qui a été installé sur une machine virtuelle. Plusieurs systèmes invités peuvent cohabiter sur un même système hôte.

AGENDA : ‘Virtualization Tour 2009‘ Venez participer dans votre région au grand rendez-vous sur le virtualisation organisé en partenariat par IBM. Pour vous inscrire, consultez l’agenda, les dates et lieux de ce rendez-vous de la virtualisation : cliquez ici. LIVRE BLANC: Virtualisation du stockage IBM Présentations générales, techniques ou détaillées, laissez-vous guider dans la virtualisation du stockage IBM. Cliquez ici Dossier : banc d’essai exclusif des navigateurs web

Sommaire 1 – Les quatre principaux navigateurs du marché

2 – Leurs parts de marché

3 – Respect des standards et mémoire

4 – Performances JavaScript

5 – Performances générales et conclusion

Les quatre principaux navigateurs du marché

Google vient de dévoiler la troisième mouture de son navigateur web Chrome. Lors de notre dernier comparatif, en juillet dernier, Apple Safari était le plus rapide des navigateurs. Nous lui avions toutefois préféré Google Chrome, plus économe en ressources et plus prometteur sur le long terme.

Pour ce test, nous reprenons notre configuration de test, fraîchement réinstallée et toujours pourvue d’un processeur Intel Core 2 Duo T8300 cadencé à 2,4 GHz, assisté de 3 Go de mémoire vive. Le tout fonctionne sous Windows Vista SP2.

Nous avons mis sur le grill plusieurs navigateurs : Internet Explorer 8 (8.0.6001.18813), Firefox 3.5.3, Safari 4.0.3 (531.9.1), Chrome 3.0 (3.0.195.21) et Opera 10 (10.00 R1750).

Internet Explorer 8 est un produit assez fonctionnel. Son moteur de rendu HTML est rapide, contrairement à son interpréteur JavaScript, d’une lenteur affligeante. Pour les professionnels, Internet Explorer 8 reste souvent un passage obligé, car il est le seul à pouvoir jeter un pont vers les moteurs de rendu des précédents navigateurs Microsoft ainsi que les contrôles ActiveX.

Firefox 3.5.3 est un logiciel très équilibré : moteurs de rendu HTML et JavaScript de premier ordre, extensibilité sans pareil, etc. Le monde IT s’intéresse à ce produit à cause de son infrastructure avancée qui peut être mise à profit au sein de logiciels web présentant des interfaces graphiques évoluées. Par défaut, il n’est toutefois pas compatible avec les applications natives.

Les trois autres navigateurs web de notre comparatif sont boudés par le monde IT, et à raison. Aucun d’entre eux n’est suffisamment extensible pour permettre le déploiement d’applications web très spécifiques. De même, aucune technologie ne permet le lancement des applications natives. Les futures versions de Google Chrome pourraient cependant changer la donne en intégrant par défaut le support des extensions et la technologie Native Client qui permet de lancer du code x86 au sein des navigateurs web. Chrome sera alors un redoutable concurrent d’Internet Explorer dans le monde des solutions IT. Pour le reste, Safari 4.0.3, Chrome 3.0 et Opera 10 proposent des moteurs HTML véloces et plus respectueux des standards que ceux d’Internet Explorer 8 et de Firefox 3.5.3. Ils intègrent également des technologies avancées qui pourraient faire le bonheur des développeurs visant le marché des applications IT. Enfin, Safari et Chrome offrent des moteurs JavaScript d’une rapidité sans égale. Dans ce domaine, Opera 10 est malheureusement à la traine.

Sommaire 1 – Les quatre principaux navigateurs du marché

2 – Leurs parts de marché

3 – Respect des standards et mémoire

4 – Performances JavaScript

5 – Performances générales et conclusion

Parts de marché

Voici un état du marché, reprenant les dernières valeurs mesurées par des organismes de référence. Le premier tableau donne un état du marché mondial. Il mixe les données de Market Share, de StatCounter et du W3Counter. Internet Explorer continue de plonger, avec un score en baisse de plus de 3,3 %. Même constat pour Safari, pourtant installé par défaut sur les machines Apple. Tout ceci profite à Firefox, Chrome et – dans une moindre mesure – à Opera.

Le second tableau se concentre sur le marché européen, au travers d’une moyenne des évaluations de l’AT Internet Institue et de StatCounter. Ici, les parts de marché sont assez proches de celles relevées en juillet dernier. Nous notons toutefois un effritement de celles d’Internet Explorer et d’Opera, au profit de Safari, Chrome et Firefox.

Enfin, le dernier tableau reprend les chiffres de fréquentation du site W3Schools. Internet Explorer dégringole de 1,4 %. La plus forte hausse est Chrome, qui passe de 6 % à 7 % de parts de marché. Firefox (+0,1 %), Safari (+0,2 %) et Opera (inchangé) sauvent les meubles. Sommaire 1 – Les quatre principaux navigateurs du marché

2 – Leurs parts de marché

3 – Respect des standards et mémoire

4 – Performances JavaScript

5 – Performances générales et conclusion

Respect des standards et mémoire

Notre premier tableau le montre sans équivoque : tous les navigateurs du marché, hormis Internet Explorer, obtiennent un bon score au test Acid3.

Le second tableau montre la consommation mémoire en charge. Nous avons ouvert cinq onglets contenant des sites représentatifs : moteur de recherche Google, site d’actualitésSilicon.fr , l’application web Gmail, l’application Flash d’ARTE Radio et un portail massif, celui de TF1. Premier constat, Safari et Internet Explorer ne sont pas des modèles du genre en terme de consommation mémoire. Par contre, Firefox se débrouille très bien. Du beau travail de la part des développeurs.

Le dernier tableau montre la quantité de mémoire restituée au système lors de la fermeture des onglets. Le trio de tête est inattendu : Chrome, qui caracole en tête, Internet Explorer et Firefox. Safari et Opera obtiennent ici de piètres résultats qui ne laissent augurer rien de bon pour ceux qui laissent leur navigateur web ouvert pendant de longues périodes.

Sommaire 1 – Les quatre principaux navigateurs du marché

2 – Leurs parts de marché

3 – Respect des standards et mémoire

4 – Performances JavaScript 5 – Performances générales et conclusion

Performances JavaScript

Nous utilisons le benchmark Google V8 au sein de notre premier tableau. Il favorise nettement les navigateurs basés sur le WebKit. Sans surprise, Chrome et Safari s’en sortent donc ici avec brio, très loin devant la concurrence. Vous pouvez voir sur le second tableau que Safari conserve sa couronne au test SunSpider. Chrome réduit l’écart, mais n’arrive pas à rattraper son adversaire.

Pour départager nos deux champions, nous avons fait appel à la très lourde (mais aussi très complète) suite de tests Dromaeo. Nos deux challengers écrasent ici la concurrence. Le résultat est sans appel : si Safari se montre très véloce, c’est bien Chrome qui propose le moteur JavaScript le plus rapide des deux navigateurs.

Vous noterez les performances systématiquement en retrait d’Internet Explorer. Pour Opera, les choses ne sont guères plus encourageantes. Il est temps que les développeurs des deux compagnies présentent des moteurs JavaScript de nouvelle génération. Pour Firefox, les résultats sont dans la moyenne, mais n’ont rien de transcendant. Sommaire 1 – Les quatre principaux navigateurs du marché

2 – Leurs parts de marché

3 – Respect des standards et mémoire

4 – Performances JavaScript

5 – Performances générales et conclusion

Performances générales

Avec Peacekeeper, ce n’est pas seulement la vitesse du moteur JavaScript qui est évaluée, mais tous les éléments du navigateur : chargement des données, affichage, animations, etc. Si cet ensemble de tests semble favoriser certains logiciels, ces résultats sont dans l’ensemble plutôt pertinents. Là encore, Safari et Chrome sont au coude à coude. Opera s’en sort correctement, contrairement à Internet Explorer. Enfin, Firefox est le grand absent de notre tableau, puisqu’il échoue à ce test.

Armés de ces informations, vous voilà prêts à choisir le navigateur de vos rêves. Ceux qui surfent peu pourront sans problème se contenter d’Internet Explorer. Firefox est toutefois un produit de meilleure qualité, plus performant et très équilibré. Si la nouveauté ne vous effraie pas, tentez des solutions alternatives : Safari est parfait sur des machines rapides alors que le minimaliste Chrome fera le bonheur des possesseurs de netbooks. Quant à Opera, ce logiciel reste une suite Internet très prisée.

Dans le monde IT, le choix est plus difficile : Internet Explorer reste largement utilisé, mais Firefox demeure plus facilement extensible. Attention également à Chrome, dont certaines caractéristiques pourront attirer les professionnels : mises à jour transparentes, intégration de Gears, arrivée programmée des extensions et de Native Client. DOSSIER: Les navigateurs Web de nouvelle génération au banc d’essai !

La cuvée 2009 des navigateurs web est maintenant accessible, et ce, aussi bien chez Microsoft et Mozilla que chez Apple, Google et Opera. En fait, seule la mouture définitive d’Opera 10 manque encore à l’appel.

Voilà donc le moment propice pour effectuer un testin extenso de ces nouveaux produits. Nous avons mis sur le grill Internet Explorer 8, Firefox 3.5, Safari 4.0.2, Chrome 2.0 et la dernière version en date d’Opera 10.

La machine de test est un ordinateur pourvu d’un processeur Intel Core 2 Duo T8300 cadencé à 2,4 GHz, épaulé par 3 Go de mémoire vive. Le tout fonctionne sous Windows Vista SP2. Nous avons limité l’utilisation des greffons au seul composant Flash (10.0.22.87).

Nous avons rencontré de multiples bogues avec Internet Explorer 8. Ce dernier casse certaines parties de notre OS (pourtant fraichement installé). Une situation inacceptable. Pour le reste, les performances de ce navigateur sont dans la moyenne… des logiciels de 2008. Son moteur de rendu HTML est véloce, contrairement au calamiteux interpréteur JavaScript. Bon point pour Microsoft, certaines fonctionnalités d’Internet Explorer 8 sont uniques en leur genre et permettent réellement d’augmenter la productivité de l’internaute.

Firefox 3.5 est une demi-déception. Quelques problèmes de stabilité et des microblocages agaçants lors de l’exécution du code JavaScript gâchent le plaisir. Cela serait pardonnable si ce logiciel proposait une vitesse de traitement identique à celle de Safari ou de Chrome. Malheureusement, nos tests vont montrer que le navigateur de la fondation Mozilla est loin du compte dans ce domaine. Reste que Firefox est le produit le mieux pensé de notre sélection. De plus, ses fonctionnalités sont extensibles à l’infini par le biais des modules complémentaires. Une valeur sure.

Avec Safari 4.0.2, Apple entend proposer le navigateur web le plus fonctionnel et le plus rapide du marché. Sur ce dernier point, nous allons découvrir que la firme a tout à fait raison. Un bémol toutefois : lors du rendu de multiples onglets, et lorsque Flash est massivement utilisé, le processeur est fortement chargé. Aucun des autres navigateurs de ce test n’a rencontré un tel problème (du moins, pas aussi prononcé). À l’opposé, Chrome propose des réglages internes qui frisent la perfection dans ce domaine. Notez que Safari est très fonctionnel et adopte la meilleure stratégie de rendu des pages web.

Chrome 2.0 prend le contrepied d’Opera. Ce produit minimaliste se concentre sur les applications web. Un peu plus lent que Safari, il a le mérite de mieux distribuer les ressources entre les tâches de rendu HTML, d’exécution du code JavaScript et d’utilisation des greffons. Nous sentons là que le travail des équipes de Google commence à donner des résultats. Il en faudra cependant plus pour convaincre les utilisateurs de Firefox, habitués aux modules complémentaires. Attention cependant, car la firme met au point une technologie concurrente.

Opera 10 est un OVNI. C’est une des rares suites Internet encore développées. Ce logiciel est donc bien plus qu’un simple navigateur. Malheureusement, les années ont marqué ce produit, qui se fait aujourd’hui distancer par la concurrence : performances JavaScript d’un autre temps, consommation mémoire pas si avantageuse que cela,etc. Opera conserve toutefois son moteur HTML exceptionnel, au rendu aussi irréprochable que rapide.

Parts de marché : Internet Explorer toujours premier

Ceci ne sera une surprise pour personne : Internet Explorer cède du terrain depuis déjà plusieurs mois. Toutefois, il conserve une large avance sur ses concurrents.

Les parts de marché au niveau mondial ont été calculées en prenant la moyenne de Market Share et de StatCounter. Les chiffres sont sans appel : Internet Explorer domine avec 62,53 % de parts de marché, devant Firefox à 26,54 %. Mention spéciale pour Safari, qui regroupe 5,71 % des utilisateurs. Au niveau européen, l’AT Internet Institute et StatCounter nous ont servi de référence. Avec 33,87 % de parts de marché, Firefox commence à sérieusement menacer Internet Explorer (54,89 %). Parmi nos trois autres protagonistes, c’est Opera qui s’en sort le mieux, avec 5,01 % d’utilisateurs.

Les statistiques de W3Schools concernent un public de webmasters et de développeurs qui sont – par définition – des early adopters. De fait, ces derniers travaillent dès aujourd’hui aux applications et sites web qui verront le jour ces prochains mois. Ils préfèrent Firefox (47,30 %) à Internet Explorer (40,70 %). Avec six pour cent de parts de marché, Chrome semble également vivement les intéresser.

Respects des standards : Opera et Safari prennent la tête

Il est toujours complexe d’évaluer la conformité aux standards des produits qui passent entre nos mains. Les tests Acid restent une référence dans ce domaine, en particulier l’Acid3 qui évalue de très nombreux éléments.

Les navigateurs web ont largement amélioré leur score à ce test. Opera et Safari arrivent ainsi à l’achever, alors que Chrome et Firefox n’échouent que de peu. Seul reste Internet Explorer, dont le score de 20 points est d’une autre époque. Consommation mémoire : la surprise !

Il y a encore quelques années, Opera était le plus léger de tous les navigateurs web. Depuis, il a été rejoint, puis doublé par Firefox. Nous avons sélectionné un ensemble de dix sites web. La moitié forme le ‘top 5′ des adresses françaises les plus visitées. L’autre se compose de sites sécurisés, lourds en HTML ou entièrement axés sur Flash.

La surprise est de taille : Chrome, qui n’était pourtant pas un modèle en terme de consommation mémoire, passe carrément en première place, suivi par Firefox et Opera. Internet Explorer et Safari sont particulièrement gourmands. Lorsque nous refermons les onglets de nos dix sites de test, Chrome est – là aussi – le logiciel qui restitue le plus de mémoire, ce qui conforte sa suprématie dans ce domaine. Internet Explorer s’en sort avec les honneurs, tout comme Firefox. Par contre, Opera ferme la marche. Nous ne pouvons donc plus guère le conseiller aux utilisateurs qui ne disposent que de peu de mémoire vive.

JavaScript : Firefox perd du terrain

Difficile d’évaluer les performances des moteurs JavaScript des navigateurs. Certains tests favorisent la vitesse d’affichage, d’autres le calcul pur,etc. De plus, certains logiciels exécutent le code JavaScript plus rapidement que précédemment, mais au prix de ralentissements ou même de coupures dans l’exécution du logiciel (comme nous avons pu le constater avec Firefox 3.5).

Internet Explorer 8 et notre version de test d’Opera 10 disposent toujours d’un simple interpréteur JavaScript. D’autres logiciels, comme Safari et Chrome, adoptent des moteurs très véloces avec compilateur just in time. Enfin, Firefox vient de basculer lui aussi vers un modèle de nouvelle génération. La mise au point de TraceMonkey a cependant été difficile et les résultats ne sont que partiellement satisfaisants.

La V8 Benchmark Suite met en valeur la vitesse de rendu des navigateurs, en plus de celle du code JavaScript. Les produits basés sur le WebKit dominent ici. Les autres navigateurs obtiennent des résultats très médiocres à ce test.

Le test SunSpider est un classique. Safari est sacré champion, suivi de près par Chrome, qui le doublera peut-être lors de la sortie du prochain Chrome 3.0. Firefox obtient de bons résultats, mais peine à nous convaincre.

Dromaeo est un des tests les plus complets et les plus lourds du marché. Ici, il confirme la suprématie de Safari, mais aussi les bonnes performances de Chrome. Firefox se place tout juste entre les moteurs JavaScript de nouvelle génération… et les anciens. Voilà qui est peu rassurant.

Peacekeeper évalue la rapidité d’exécution du code JavaScript, l’affichage des images et des animations, et la vitesse de rendu des pages HTML. La différence entre le plus rapide des navigateurs (ici Safari) et le plus lent (Internet Explorer) s’estompe nettement. Voilà qui montre que si Internet Explorer est le plus lent des navigateurs web dans de multiples domaines (animations, JavaScript, etc.), son moteur de rendu HTML est plus efficace que la moyenne. Ceci se paye toutefois par un respect des standards plus approximatif. Chrome vainqueur ?

Nous attendions beaucoup de Firefox 3.5. Hélas, ses performances pures ne lui permettent pas de rejoindre les plus rapides de ses concurrents. La porte est donc grande ouverte aux solutions alternatives que sont Safari et Chrome. Gageons toutefois que nombre d’utilisateurs choisiront de conserver Firefox, qui a su trouver un équilibre apte à satisfaire le plus grand nombre.

Safari est de loin le plus rapide des navigateurs web. Son moteur de rendu est sans égal et sa technologie de préchargement des pages fonctionne bien plus efficacement qu’ailleurs. Tout ceci donne une impression de fluidité très appréciable. Hélas, le prix à payer est important. Safari est tout d’abord bien trop gourmand en mémoire. De plus, le déséquilibre constaté dans l’attribution des ressources processeur se ressent nettement lorsque vous ouvrez de nombreux onglets.

Au risque d’être taxés de manque d’objectivité, Chrome nous a laissé une bien meilleure impression. Il offre moins de fonctionnalités, mais son interface est plus intuitive. Il est de surcroît très peu gourmand en mémoire et se démarque par son affectation des ressources particulièrement fine. Enfin, l’arrivée prochaine de modules d’extension lui permettra de dépasser Safari en terme de fonctionnalités. Une stratégie à long terme, qui pourrait fort se révéler payante.