Analytique : Microsoft Organise Le Travail Avec Volometrix

Total Page:16

File Type:pdf, Size:1020Kb

Analytique : Microsoft Organise Le Travail Avec Volometrix Toyota mise 50 millions de dollars sur l’IA dans ses voitures L’engouement pour la voiture connectée ou plus encore les véhicules autonomes ne se dément pas. Que ce soit Google, Apple ou Uber, les sociétés technologiques investissent massivement dans le futur de l’automobile. Les constructeurs ne sont pas en reste comme le montre l’annonce d’investissements de la part de Toyota. La firme Japonaise a en effetannoncé un partenariat avec le MIT (Massachussetts Institute of Technology) et L’Université de Stanford pour développer l’intelligence artificielle dans le domaine de l’automobile. Toyota a décidé d’investir 50 millions sur 5 ans dans cette initiative. Dans le même temps, le constructeur a annoncé le recrutement du Dr Gill Pratt, ancien responsable des programmes à la DARPA (Defense Advanced Research Projects Agency) avec un focus sur les problématiques de robotique. Des recherches pas limitées à la voiture Il a été embauché pour justement accélérer et diriger les recherches sur les véhicules intelligents et la robotique. Il a expliqué que « la clé des programmes avec les centres de recherche est de cibler la capacité des technologies dans les véhicules à reconnaître les objets autour de l’auto dans différents environnements, de fournir une action sur cet environnement et interagir en toute sécurité avec les occupants, les autres véhicules et les piétons ». Si les véhicules autonomes sont les priorités des recherches menées, Toyota estime que les travaux sur les interactions homme-machine auront aussi des impacts sur d’autres secteurs y compris dans notre quotidien. A suivre… A lire aussi : Gartner met la voiture connectée au sommet de son Hype Cycle Vincent Costet, BMW « Sécurité, confort et divertissement, 3 piliers de la voiture connectée » crédit photo © vichie81 – shutterstock Analytique : Microsoft organise le travail avec VoloMetrix Microsoft a fait l’acquisition de VoloMetrix, qui propose un outil d’amélioration de l’organisation du travail pour gagner en productivité en entreprise. Le montant de la transaction n’a pas été divulgué. L’éditeur basé à Seattle (à proximité de Redmond, siège de Microsoft) emploie une quarantaine d’employés. Dans unbillet de blog, Microsoft précise ainsi : « Aujourd’hui, la plupart d’entre nous ne possède pas les outils et les informations afin de nous aider à prendre de meilleures décisions au sujet de notre ressource la plus rare au travail : notre temps. » Une analogie avec les trackers de fitness est également faite pour souligner l’importance d’optimiser son temps de travail avec des outils adaptés. Si les appareils électroniques dans la mouvance du « quantified self » permettent d’améliorer son hygiène de vie, de nouvelles solutions permettent, elles, maintenant d’optimiser son organisation au travail. C’est dans cette logique que Microsoft a racheté VoloMetrix pour résoudre cette problématique : « Au regard de la gestion du temps, notre entreprise se concentre-t-elle sur les priorités ? » Une intégration dans Office 365 Les technologies de VoloMetrix seront intégrées dans Office Delve, la première application pratique d’Office Graph, et dans le service Delve Organizational Analytics annoncé à la conférence Ignite et dont la bêta sera lancée dans le courant du mois. Associés au machine learning (technologie d’intelligence artificielle) et aux bases de données des entreprises, les outils analytiques de productivité fleurissent sur le marché. Ils devront maintenant prouver leur efficace sur le terrain, tout en limitant l’aspect intrusif dans l’espace collaboratif, souligne ITespresso. A ce jour, VoloMetrix a levé 17 millions de dollars suivant deux tours de table, le dernier ayant été mené en octobre 2014 par Split Rock Partners (12 millions de dollars). Une précédente levée de fonds avait été prise en main par Shasta Ventures. Créé en 2011, VoloMetrix compte des clients aussi prestigieux que Facebook, Boeing, Qualcomm, Seagate, Symantec, et Genentech. A lire aussi : Microsoft France, le bon élève sur Windows 10 AWS et Microsoft font voler l’aviation américaine dans le Cloud Crédit photo : volometrix Télégrammes : Windows 10 par continents, Une apps visualise les ondes, Salesforce achète Akta, Sony Pictures négocie avec ses ex-employés Le site StatCounter qui retrace les configurations des utilisateurs sur 3 millions de site dans le monde, donne un aperçu original de la migration vers Windows 10 selon les continents. En tête, l’Australie a succombé majoritairement au nouvel OS de Microsoft avec 7,59% d’adoption, suivent ensuite l’Europe (notamment grâce à laFrance parmi les bons élèves) et les Etats-Unis, respectivement 7,51% et 6,63%. Plus étonnant, l’Antarctique arrive en 4e position avec un taux de pénétration de 5,94%. Elle devance l’Amérique du Sud (4,98%), l’Asie (3,37%) et l’Afrique (2,9%). Une application, Architecture Radio, pourrait voler au secours des personnes atteintes d’hypersensibilité aux ondes électromagnétiques. Un développeur néerlandais, spécialisé dans la datavisualisation a élaboré un programme capable de détecter et de rendre visibles les satellites d’observation et les antennes relais, ainsi que les ondes émises. L’application sera disponible sur iOS en décembre prochain et plus tard sur Android. Les mauvaises langues diront que la première chose à faire pour une personne électrosensible est de se débarrasser de son téléphone ou de sa tablette. Toujours est-il que cette pathologie a été récemment reconnue par la justice en France par une décision d’un tribunal de Toulouse. Salesforce poursuit ses emplettes avec l’acquisition de Akta, un cabinet de conseil spécialisé dans la transformation numérique des entreprises, développement d’applications, relations clients, etc. Il a notamment accompagné plusieurs grandes sociétés dans ce domaine, SpotOn, Agentis Energy, SocialCrunch, Starbucks, Motorola Solutions ou Verizon. Ce rachat n’est pas surprenant, car d’autres sociétés se sont déjà adjoint les compétences d’experts de cabinets similaires comme Google avec Mike & Maaike, de Fjord Design par Accenture ou de Hot Studio par Facebook. Sony Pictures a donc préféré un accord à l’amiable plutôt qu’un procès. Des anciens employés de la firme avaient intenté un procès après le piratage massif de leur employeur. On se souvient qu’ennovembre dernier un groupe sous le pseudo GOP (Guardian of Peace) avait revendiqué le vol de données allant des derniers films jusqu’aux mails des dirigeants. Les soupçons se sont portés sur la Corée du Nord en représailles de la sortie du film « L’interview qui tue ». Les ex-employés considèrent que les studios de cinéma ont manqué à leurs obligations de protéger suffisamment les données personnelles de ses salariés. On ne connaît pas les détails de la négociation, mais on peut se douter que le volet financier doit être conséquent. Crédit Photo : Juefraphoto-Shutterstock Amazon Machine Learning prend ses quartiers en Europe Le service Amazon Machine Learning s’invite sur le datacenter de Dublin (en Irlande) de la firme américaine. Une aubaine pour les entreprises devant – ou souhaitant – héberger leurs applications sur le sol européen, afin de réduire les temps de latence, ou de répondre à des problématiques de localisation des données. « Ce service fournit des outils et assistants de visualisation qui vous guident à travers le processus de création de modèles de Machine Learning, sans avoir besoin d’en maîtriser les algorithmes et techniques complexes, explique Amazon. Il est hautement évolutif et peut générer des milliards de prédictions chaque jour. » Pour l’analyse prédictive Ce service a été initialement proposé aux États-Unis, et ce dès avril 2015 (voir à ce propos notre article « DaaS, Machine Learning, conteneurs, stockage : Amazon booste son Cloud »). L’offre Amazon Machine Learning se veutun concurrent d’Azure Machine Learning, proposé par Microsoft (voir « Avec Azure Machine Learning, Microsoft met de l’intelligence dans les données »). Amazon donne quelques idées d’applications pratiques de cette technologie : mise en place de modèles prédictifs de détection des fraudes ; personnalisation du contenu d’un site web via l’analyse prédictive ; classement des données et textes non structurés ; prévision de la perte de clients. À lire aussi : Croissance de +80 % pour Amazon Web Services Amazon finalise Aurora, son alternative Cloud à MySQL Amazon Web Services fait les yeux doux aux développeurs Crédit photo : © Ken Wolter – Shutterstock.com Alibaba va ouvrir une plate-forme d’intelligence artificielle Parallèlement à ses activités de commerce en ligne, Alibaba poursuit a grande vitesse le développement de ses services Cloud. Le groupe chinois annonce le lancement de DTPAI, une nouvelle offre de son Cloud public Aliyun tirant parti des technologies d’intelligence artificielle. La première en Chine, selon l’entreprise. La plate-forme combine technologies de machine learning et d’algorithmes propres à Alibaba présentés dans une interface de type « drag and drop ». Ce service permettrait ainsi aux développeurs de mettre en place des outils de prédiction des comportements des consommateurs sans avoir à écrire une seule ligne de code. « DTPAI contient des algorithmes de machine learning matures et avancés dont l’efficacité est vérifiée par des scénarios poussés établis à partir des données d’Alibaba récupérées depuis les activités de Taobao, Alipay Tmall [filiales du groupe, NDLR) », déclare Xiao Wei, directeur produit, à nos confrères de VentureBeat. Ou le Big Data au service de l’intelligence artificielle. La plate-forme s’appuiera sur des « workloads » de classification, de clustering, de fonction d’abstraction et de statistiques massives pour proposer son offre de « deep learning ». 100 pétaoctets de données en 6 heures DT PAI opère depuis la plate-forme Open Data Processing Service (ODPS) qui, aux dires du groupe, peut traiter 100 Po (1000 To) de données en 6 heures. ODPS avait été lancée en juillet 2014 pour aider à gérer les demandes de prêts des fournisseurs des sites de e-commerce du groupe. Alyun lancera une première offre d’essai gratuite du service dans les prochaines semaines.
Recommended publications
  • Revolution R Enterprise 6.1 README
    Revolution R Enterprise 6.1 README Revolution R Enterprise 6.1 for 32-bit and 64-bit Windows and 64-bit Red Hat Enterprise Linux (RHEL 5.x and RHEL 6.x) features an updated release of the RevoScaleR package that provides fast, scalable data management and data analysis: the same code scales from data frames to local, high-performance .xdf files to data distributed across a Windows HPC Server cluster, Windows HPC Server Azure Burst cluster, or IBM Platform Computing LSF cluster. RevoScaleR also allows distribution of the execution of essentially any R function across cores and nodes, delivering the results back to the user. Installation instructions and instructions for getting started are provided in your confirmation e-mail. What’s New in Revolution R Enterprise 6.1 Big Data Decision Tree Models New RevoScaleR function rxDTree can be used to create decision tree models. It is based on a binning algorithm so that it can scale to huge data. Both classification and regression trees are supported. The model objects returned can be made to inherit from the rpart class of the rpart package, so that plot.rpart, text.rpart, and printcp can be used for subsequent analysis. Prediction for models fitted by rxDTree can be done using rxPredict. See Chapter 10 of the RevoScaleR User’s Guide for examples on how to create decision tree models with rxDTree. Additional information is available in the rxDTree help file, seen by entering ?rxDTree at the R command line. Support for Compression in .xdf Files RevoScaleR’s .xdf files can now be created using zlib compression.
    [Show full text]
  • Frequently Asked Questions About Rcpp
    Frequently Asked Questions about Rcpp Dirk Eddelbuettel Romain François Rcpp version 0.12.7 as of September 4, 2016 Abstract This document attempts to answer the most Frequently Asked Questions (FAQ) regarding the Rcpp (Eddelbuettel, François, Allaire, Ushey, Kou, Chambers, and Bates, 2016a; Eddelbuettel and François, 2011; Eddelbuettel, 2013) package. Contents 1 Getting started 2 1.1 How do I get started ?.....................................................2 1.2 What do I need ?........................................................2 1.3 What compiler can I use ?...................................................3 1.4 What other packages are useful ?..............................................3 1.5 What licenses can I choose for my code?..........................................3 2 Compiling and Linking 4 2.1 How do I use Rcpp in my package ?............................................4 2.2 How do I quickly prototype my code?............................................4 2.2.1 Using inline.......................................................4 2.2.2 Using Rcpp Attributes.................................................4 2.3 How do I convert my prototyped code to a package ?..................................5 2.4 How do I quickly prototype my code in a package?...................................5 2.5 But I want to compile my code with R CMD SHLIB !...................................5 2.6 But R CMD SHLIB still does not work !...........................................6 2.7 What about LinkingTo ?...................................................6
    [Show full text]
  • Machine Learning Is Driving an Innovation Wave in Saas Software
    Machine Learning is Driving an Innovation Wave in SaaS Software By Jeff Houston, CFA [email protected] | 512.364.2258 SaaS software vendors are enhancing their soluti ons with machine learning (ML) algorithms. ML is the ability of a computer to either automate or recommend appropriate actions by applying probability to data with a feedback loop that enables learning. We view ML as a subset of artificial intelligence (AI), which represents a broad collection of tools that include/leverage ML, such as natural language processing (NLP), self-driving cars, and robotics as well as some that are tangent to ML, such as logical rule-based algorithms. Although there have been multiple “AI Winters” since the 1950s where hype cycles were followed by a dearth of funding, ML is now an enduring innovation driver, in our opinion, due in part to the increasing ubiquity of affordable cloud-based processing power, data storage—we expect the pace of breakthroughs to accelerate. automation, customer support, marketing, and human resources) through both organic and M&A These innovations will make it easier for companies initiatives. As for vertical-specific solutions, we think to benefit beyond what is available with traditional that a new crop of vendors will embrace ML and business intelligence (BI) solutions, like IBM/ achieve billion-dollar valuations. VCs are making big Cognos and Tableau, that simply describe what bets that these hypotheses will come to fruition as happened in the past. New ML solutions are demonstrated by the $5B they poured into 550 amplifying intelligence while enabling consistent and startups using AI as a core part of their solution in better-informed reasoning, behaving as thought 20162.
    [Show full text]
  • Revolution R Enterprise™ 7.1 Getting Started Guide
    Revolution R Enterprise™ 7.1 Getting Started Guide The correct bibliographic citation for this manual is as follows: Revolution Analytics, Inc. 2014. Revolution R Enterprise 7.1 Getting Started Guide. Revolution Analytics, Inc., Mountain View, CA. Revolution R Enterprise 7.1 Getting Started Guide Copyright © 2014 Revolution Analytics, Inc. All rights reserved. No part of this publication may be reproduced, stored in a retrieval system, or transmitted, in any form or by any means, electronic, mechanical, photocopying, recording, or otherwise, without the prior written permission of Revolution Analytics. U.S. Government Restricted Rights Notice: Use, duplication, or disclosure of this software and related documentation by the Government is subject to restrictions as set forth in subdivision (c) (1) (ii) of The Rights in Technical Data and Computer Software clause at 52.227-7013. Revolution R, Revolution R Enterprise, RPE, RevoScaleR, RevoDeployR, RevoTreeView, and Revolution Analytics are trademarks of Revolution Analytics. Other product names mentioned herein are used for identification purposes only and may be trademarks of their respective owners. Revolution Analytics. 2570 W. El Camino Real Suite 222 Mountain View, CA 94040 USA. Revised on March 3, 2014 We want our documentation to be useful, and we want it to address your needs. If you have comments on this or any Revolution document, send e-mail to [email protected]. We’d love to hear from you. Contents Chapter 1. What Is Revolution R Enterprise? ....................................................................
    [Show full text]
  • Iotools: High-Performance I/O Tools for R by Taylor Arnold, Michael J
    CONTRIBUTED RESEARCH ARTICLE 6 iotools: High-Performance I/O Tools for R by Taylor Arnold, Michael J. Kane, and Simon Urbanek Abstract The iotools package provides a set of tools for input and output intensive data processing in R. The functions chunk.apply and read.chunk are supplied to allow for iteratively loading contiguous blocks of data into memory as raw vectors. These raw vectors can then be efficiently converted into matrices and data frames with the iotools functions mstrsplit and dstrsplit. These functions minimize copying of data and avoid the use of intermediate strings in order to drastically improve performance. Finally, we also provide read.csv.raw to allow users to read an entire dataset into memory with the same efficient parsing code. In this paper, we present these functions through a set of examples with an emphasis on the flexibility provided by chunk-wise operations. We provide benchmarks comparing the speed of read.csv.raw to data loading functions provided in base R and other contributed packages. Introduction When processing large datasets, specifically those too large to fit into memory, the performance bottleneck is often getting data from the hard-drive into the format required by the programming environment. The associated latency comes from a combination of two sources. First, there is hardware latency from moving data from the hard-drive to RAM. This is especially the case with “spinning” disk drives, which can have throughput speeds several orders of magnitude less than those of RAM. Hardware approaches for addressing latency have been an active area of research and development since hard-drives have existed.
    [Show full text]
  • Integrating R with Azure for High-Throughput Analysis Hugh Analysis Shanahan
    Integrating R with Azure for High- throughput Integrating R with Azure for High-throughput analysis Hugh analysis Shanahan Hugh Shanahan Department of Computer Science Royal Holloway, University of London [email protected] @HughShanahan Hugh Shanahan Integrating R with Azure for High-throughput analysis Applicability to other domains Integrating R with Azure for High- throughput analysis This project started out doing something very specific Hugh for the domain I work in (Computational Biology). Shanahan I promise that there will be no Biology in this talk !! Realised can be extended to running high-throughput jobs in R. Contrast with MapReduce / R formalisms (HadoopStreaming, Rhipe, Revolution Analytics, ... ) - parallelisation happens outside of individual R script. Hugh Shanahan Integrating R with Azure for High-throughput analysis Applicability to other domains Integrating R with Azure for High- throughput analysis This project started out doing something very specific Hugh for the domain I work in (Computational Biology). Shanahan I promise that there will be no Biology in this talk !! Realised can be extended to running high-throughput jobs in R. Contrast with MapReduce / R formalisms (HadoopStreaming, Rhipe, Revolution Analytics, ... ) - parallelisation happens outside of individual R script. Hugh Shanahan Integrating R with Azure for High-throughput analysis Applicability to other domains Integrating R with Azure for High- throughput analysis This project started out doing something very specific Hugh for the domain I work in (Computational Biology). Shanahan I promise that there will be no Biology in this talk !! Realised can be extended to running high-throughput jobs in R. Contrast with MapReduce / R formalisms (HadoopStreaming, Rhipe, Revolution Analytics, ..
    [Show full text]
  • Quarterly Enterprise Software Market Review 1Q 2019
    Quarterly Enterprise Software Market Review 1Q 2019 Boston San Francisco 200 Clarendon Street, Floor 45 601 Montgomery Street, Suite 2010 Boston, MA 02116 San Francisco, CA 94111 Peter M. Falvey Michael H.M. Shea Christopher J. Pingpank Michael S. Barker Managing Director Managing Director Managing Director Managing Director 617.896.2251 617.896.2255 617.896.2218 415.762.8101 [email protected] [email protected] [email protected] [email protected] Jeffrey G. Cook Brad E. McCarthy Misha Cvetkovic Principal Principal Vice President 617.896.2252 617.896.2245 415.762.8104 [email protected] [email protected] [email protected] www.shea-co.com Member FINRA & SIPC Copyright ©2019 Shea & Company Overview People ▪ Industry Expertise ▪ Process Excellence 1 2 24 15+ >70 Firm focused exclusively Offices in Boston and San Professionals focused on Years of experience Transactions completed on enterprise software Francisco the software industry amongst our senior representing billions of bankers dollars in value Mergers & Acquisitions Private Placements & Capital Raising Corporate Strategy ■ Sell-side and buy-side M&A advisory ■ Late-stage venture, growth equity and buyouts ■ Corporate development advisory ■ Divestitures ■ Recapitalizations ■ Balance sheet and capital structure review ■ Restructuring ■ IPO advisory ■ Fairness opinions has received an investment from has received an investment from Superior Outcomes has been acquired by has acquired Shea & Company has advised on important transactions representing billions of dollars in
    [Show full text]
  • BIG DATA 50 the Hottest Big Data Startups of 2014
    BIG DATA 50 The hottest big data startups of 2014 Jeff Vance Table of Contents Big Data Startup Landscape – Overview .................................................................................. i About the Author ................................................................................................................. iii Introduction – the Big Data Boom .......................................................................................... 1 Notes on Methodology & the origin of the Big Data 50 ............................................................. 2 The Big Data 50 ..................................................................................................................... 5 Poised for Explosive Growth ....................................................................................................... 5 Entrigna ................................................................................................................................... 5 Nuevora ................................................................................................................................... 7 Roambi .................................................................................................................................... 9 Machine Learning Mavens ........................................................................................................ 10 Oxdata ................................................................................................................................... 10 Ayasdi ...................................................................................................................................
    [Show full text]
  • REVOLUTION ANALYTICS = ACTUARIAL EYE (Part 1)
    REVOLUTION ANALYTICS = ACTUARIAL EYE (Part 1) “Perhaps the most important cultural trend today: The explosion of data about every aspect of our world and the rise of applied math gurus who know how to use it.” – Chris Anderson, editor-in-chief of Wired. “There is a real appetite in the business to understand more and to think about how we assemble and use data, also making sure we have the right people to ask the right questions of the data – because one without the other is not helpful.” - Wendy Thorpe, AMP Why Analytics? Organizations are built on great decisions and great decisions are built on great predictions. So what are great predictions built on? The answer is ANALYTICS!!! So in case you are wondering what this could possibly mean for you as a prospective actuary, the answer depends on what kind of actuary you want to be. Let me quote Duncan West here: If you are in a leadership role in your organization, get data onto the strategic agenda. Many companies talk about the importance of data but talk is not cheap. Do they manage themselves in ways that demonstrates the importance? Actuaries in any role need to go away from a regulatory and compliance mindset that accuracy is the most important way to measure success. They should measure success by helping the business to make good decisions. And actuaries at all levels need to help develop the skills necessary to show insights to the business. Insights are useless if the business can’t understand them. So communicating insight is a key part of an actuarial role.
    [Show full text]
  • Software Equity Group Flash Report
    Software Equity Group Flash Report 2015 Select M&A Transactions and Valuations and Financial and Valuation Performance of 250+ Publicly Traded Software, SaaS and Internet Companies by Product Category October LEADERS IN SOFTWARE M&A • Industry leading boutique investment bank, founded in 1992, representing public and private software and We Do Deals. internet companies seeking: • Strategic exit • Growth capital • Buyout • Inorganic growth via acquisition • Buy and sell-side mentoring • Fairness opinions and valuations • Sell-side client revenue range: $5 - 75 million • Buy-side clients include private equity firms and NASDAQ, NYSE and foreign exchange listed companies • Clients span virtually every software technology, product category, delivery model and vertical market • Global presence providing advice and guidance to more than 2,000 private and public companies throughout US, Canada, Europe, Asia-Pacific, Africa and Israel • Strong cross-functional team leveraging transaction, operating, legal and engineering experience • Unparalleled software industry reputation and track record. • Highly referenceable base of past clients Copyright © 2015 by Software Equity Group, L.L.C., All Rights Reserved ABOUT SOFTWARE EQUITY GROUP Software Equity Group is an investment bank and M&A advisory serving the software and technology sectors. Founded in 1992, our firm has guided and advised companies on five continents, including privately-held software and technology companies in the United States, Canada, Europe, Asia Pacific, Africa and Israel. We have represented public companies listed on the NASDAQ, NYSE, American, Toronto, London and Euronext exchanges. Software Equity Group also advises several of the world's leading private equity firms. We are ranked among the top ten investment banks worldwide for application software mergers and acquisitions.
    [Show full text]
  • Book of Abstracts
    Book of Abstracts June 27, 2015 1 Conference Sponsors Diamond Sponsor Platinum Sponsors Gold Sponsors Silver Sponsors Open Analytics Bronze Sponsors Media Sponsors 2 Conference program Time Tuesday Wednesday Thursday Friday 08:00 Registration opens Registration opens Registration opens Registration opens 08:30 – 09:00 Opening session (by Rector peR! M. Johansen, Aalborg University) Aalborghallen 09:00 – 10:00 Romain François Di Cook Thomas Lumley Aalborghallen Aalborghallen Aalborghallen 10:00 – 10:30 Coffee break Coffee break Coffee break (15 min) ee break Sponsored by Quantide Sponsored by Alteryx ff Session 1 Session 4 10:30 – 12:00 Sponsor session (10:15) Kaleidoscope 1 Kaleidoscope 4 Aalborghallen Aalborghallen Aalborghallen incl. co Morning Tutorials DataRobot Ecology Medicine Gæstesalen Gæstesalen RStudio Teradata Networks Regression Musiksalen Musiksalen Revolution Analytics Reproducibility Commercial Offerings alteryx Det Lille Teater Det Lille Teater TIBCO H O Interfacing Interactive graphics 2 Radiosalen Radiosalen HP 12:00 – 13:00 Sandwiches Lunch (standing buffet) Lunch (standing buffet) Break: 12:00 – 12:30 Sponsored by Sponsored by TIBCO ff Revolution Analytics Ste en Lauritzen (12:30) Aalborghallen Session 2 Session 5 13:00 – 14:30 13:30: Closing remarks Kaleidoscope 2 Kaleidoscope 5 Aalborghallen Aalborghallen 13:45: Grab ’n go lunch 14:00: Conference ends Case study Teaching 1 Gæstesalen Gæstesalen Clustering Statistical Methodology 1 Musiksalen Musiksalen ee break Data Management Machine Learning 1 ff Det Lille Teater Det Lille
    [Show full text]
  • Mergers in the Digital Economy
    2020/01 DP Axel Gautier and Joe Lamesch Mergers in the digital economy CORE Voie du Roman Pays 34, L1.03.01 B-1348 Louvain-la-Neuve Tel (32 10) 47 43 04 Email: [email protected] https://uclouvain.be/en/research-institutes/ lidam/core/discussion-papers.html Mergers in the Digital Economy∗ Axel Gautier y& Joe Lamesch z January 13, 2020 Abstract Over the period 2015-2017, the five giant technologically leading firms, Google, Amazon, Facebook, Amazon and Microsoft (GAFAM) acquired 175 companies, from small start-ups to billion dollar deals. By investigating this intense M&A, this paper ambitions a better understanding of the Big Five's strategies. To do so, we identify 6 different user groups gravitating around these multi-sided companies along with each company's most important market segments. We then track their mergers and acquisitions and match them with the segments. This exercise shows that these five firms use M&A activity mostly to strengthen their core market segments but rarely to expand their activities into new ones. Furthermore, most of the acquired products are shut down post acquisition, which suggests that GAFAM mainly acquire firm’s assets (functionality, technology, talent or IP) to integrate them in their ecosystem rather than the products and users themselves. For these tech giants, therefore, acquisition appears to be a substitute for in-house R&D. Finally, from our check for possible "killer acquisitions", it appears that just a single one in our sample could potentially be qualified as such. Keywords: Mergers, GAFAM, platform, digital markets, competition policy, killer acquisition JEL Codes: D43, K21, L40, L86, G34 ∗The authors would like to thank M.
    [Show full text]