La Historia De Internet Se Remonta Al Temprano Desarrollo De Las Redes De Comunicación. La Idea De Una Red De Computadoras Dise

Total Page:16

File Type:pdf, Size:1020Kb

La Historia De Internet Se Remonta Al Temprano Desarrollo De Las Redes De Comunicación. La Idea De Una Red De Computadoras Dise Historia de Internet La historia de Internet se remonta al temprano desarrollo de las redes de comunicación. La idea de una red de computadoras diseñada para permitir la comunicación general entre usuarios de varias computadoras sea tanto desarrollos tecnológicos como la fusión de la infraestructura de la red ya existente y los sistemas de telecomunicaciones. Las más antiguas versiones de estas ideas aparecieron a finales de los años cincuenta. Implementaciones prácticas de estos conceptos empezaron a finales de los ochenta y a lo largo de los noventa. En la década de 1980, tecnologías que reconoceríamos como las bases de la z), que se hizo común. La infraestructura de Internet se esparció por el mundo, para crear la moderna red mundial de computadoras que hoy conocemos. Atravesó los países occidentales e intentó una penetración en los países en desarrollo, creando un acceso mundial a información y comunicación sin precedentes, pero también una brecha digital en el acceso a esta nueva infraestructura. Internet también alteró la economía del mundo entero, incluyendo las implicaciones económicas de la burbuja de las .com. Un método de conectar computadoras, prevalente sobre los demás, se basaba en el método de la computadora central o unidad principal, que simplemente consistía en permitir a sus terminales conectarse a través de largas líneas alquiladas. Este método se usaba en los años cincuenta por el Proyecto RAND para apoyar a investigadores como Herbert Simon, en Pittsburgh (Pensilvania), cuando colaboraba a través de todo el continente con otros investigadores de Santa Mónica (California) trabajando en demostración automática de teoremas e inteligencia artificial. Un pionero fundamental en lo que se refiere a una red mundial, J.C.R. Licklider, comprendió la necesidad de una red mundial, según consta en su documento de enero, 1960, Man-Computer Symbiosis (Simbiosis Hombre- Computadora). "una red de muchos [ordenadores], conectados mediante líneas de comunicación de banda ancha" las cuales proporcionan "las funciones hoy existentes de las bibliotecas junto con anticipados avances en el guardado y adquisición de información y [otras] funciones simbióticas" J.C.R Licklider1 En octubre de 1962, Licklider fue nombrado jefe de la oficina de procesado de información DARPA, y empezó a formar un grupo informal dentro del DARPA del Departamento de Defensa de los Estados Unidos para investigaciones sobre ordenadores más avanzadas. Como parte del papel de la oficina de procesado de información, se instalaron tres terminales de redes: una para la System Development Corporation en Santa Monica, otra para el Proyecto Genie en la Universidad de California (Berkeley) y otra para el proyecto Multics en el Instituto Tecnológico de Massachusetts. La necesidad de Licklider de redes se haría evidente por los problemas que esto causó. "Para cada una de estas tres terminales, tenía tres diferentes juegos de comandos de usuario. Por tanto, si estaba hablando en red con alguien en la S.D.C. y quería hablar con alguien que conocía en Berkeley o en el M.I.T. sobre esto, tenía que irme de la terminal de la S.C.D., pasar y registrarme en la otra terminal para contactar con él. Dije, es obvio lo que hay que hacer: si tienes esas tres terminales, debería haber una terminal que fuese a donde sea que quisieras ir y en donde tengas interactividad. Esa idea es el ARPANet." Robert W. Taylor, co-escritor, junto con Licklider, de "The Computer as a Communications Device" (El Ordenador como un Dispositivo de Comunicación), en una entrevista con el New York Times2 Como principal problema en lo que se refiere a las interconexiones está el conectar diferentes redes físicas para formar una sola red lógica. Durante los años 60, varios grupos trabajaron en el concepto de la conmutación de paquetes. Normalmente se considera que Donald Davies (National Physical Laboratory), Paul Baran (Rand Corporation) y Leonard Kleinrock (MIT) lo han inventado simultáneamente.3 La conmutación es una técnica que nos sirve para hacer un uso eficiente de los enlaces físicos en una red de computadoras. Un Paquete es un grupo de información que consta de dos partes: los datos propiamente dichos y la información de control, en la que está especificado la ruta a seguir a lo largo de la red hasta el destino del paquete. Mil octetos es el límite de longitud superior de los paquetes, y si la longitud es mayor el mensaje se fragmenta en otros paquetes La primera conexión ARPANET fuera de los Estados Unidos se hizo con NORSAR en Noruega en 1973, justo antes de las conexiones con Gran Bretaña. Todas estas conexiones se convirtieron en TCP/IP en 1982, al mismo tiempo que el resto de las ARPANET ARPANET De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda La red de computadoras ARPANET significa(Advanced Research Projects Agency Network) fue creada por encargo del Departamento de Defensa de los Estados Unidos ("DoD" por sus siglas en inglés) como medio de comunicación para los diferentes organismos del país. El primer nodo se creó en la Universidad de California, Los Ángeles y fue la espina dorsal de Internet hasta 1990, tras finalizar la transición al protocolo TCP/IP iniciada en 1983. El concepto de una red de computadoras capaz de comunicar usuarios en distintas computadoras fue formulado por J.C.R. Licklider de Bolt, Beranek and Newman (BBN) en agosto de 1962, en una serie de notas que discutían la idea de "Red Galáctica". En octubre del mismo año, Licklider fue convocado por ARPA (Agencia de Investigación de Proyectos Avanzados) perteneciente al Departamento de Defensa de los Estados Unidos. En este foro, convenció a Ivan Sutherland y Bob Taylor de la importancia del concepto antes de abandonar la agencia, y antes de que se iniciara trabajo alguno. Mientras tanto, Paul Baran estaba trabajando desde 1959 en la RAND Corporation en una red segura de comunicaciones capaz de sobrevivir a un ataque con armas nucleares, con fines militares. Sus resultados se publicaron a partir de 1960, y en ellos se describían dos ideas clave: El uso de una red descentralizada con múltiples caminos entre dos puntos. La división de mensajes completos en fragmentos que seguirían caminos distintos. La red estaría capacitada para responder ante sus propios fallos. El resumen final de este esquema se presentó en 1962 y se publicó en 1964. En la misma época, Leonard Kleinrock ya trabajaba en el concepto de almacenar y reenviar mensajes en su tesis doctoral en el MIT. Esto incluía un importante análisis de la teoría de colas aplicada a las redes de comunicaciones (publicado como libro en 1964). Su trabajo aún no incluía la idea de fragmentación en paquetes. Por último, Donal Davies, del Laboratorio Nacional de Física comenzó a relacionar todos estos conceptos en 1965, después de asistir a una conferencia en el Reino Unido sobre multiplexación en el tiempo. Su investigación tuvo lugar independientemente de los trabajos de Baran, de los que no tuvo conocimiento hasta 1966. Casualmente, fue Davies quien empezó a usar el término "paquete". En este estado de las cosas, cuatro centros de investigación independientes (DARPA, la corporación RAND, el MIT y NPL en el Reino Unido) acabarían convirtiéndose en los primeros nodos experimentales de ARPANET. Nacimiento de ARPANET En el verano de 1968 ya existía un plan completo y aprobado por ARPA. De manera que se celebró un concurso con 140 potenciales proveedores. Sin embargo, solamente 12 de ellos presentaron propuestas. En 1969, el contrato se adjudicó a BBN (donde había trabajado Licklider, creador del concepto de Red Galáctica). El 29-10-1969 se transmite el primer mensaje a través de ARPANET y en menos de un mes (el 21-11-1969) se establece el primer enlace entre las universidades de Standford y la UCLA. La oferta de BBN seguía el plan de Roberts rápidamente. Los pequeños ordenadores se denominaron Procesadores del interfaz de mensajes (IMPs). Éstos implementaban la técnica de almacenar y reenviar y utilizaban un módem telefónico para conectarse a otros equipos (a una velocidad de 50 kbits por segundo). Los ordenadores centrales se conectaban a los IMPs mediante interfaces serie a medida. Los IMP se implementaron inicialmente con ordenadores DDP-516 de Honeywell. Contaban con 24 kilobytes de memoria principal con capacidad para conectar un máximo de cuatro ordenadores centrales, y comunicarlos con otros seis IMP remotos. BBN tuvo disponible todo el hardware y el software necesario en tan sólo nueve meses. Primer despliegue La ARPANET inicial consistía en cuatro IMPs instalados en: UCLA, donde Kleinrock creó el Centro de medición de red. Un ordenador SDS Sigma 7 fue el primero en conectarse. El Augmentation Research Center en el Instituto de investigación de Stanford, donde Doug Engelbart creó el novedoso sistema NLS, un incipiente sistema de hipertexto. Un ordenador SDS 940 fue el primero en conectarse. La Universidad de California, con un IBM 360. El Departamento Gráfico de la Universidad de Utah, donde Ivan Sutherland se trasladó. Con un PDP-10 inicialmente conectado. El primer enlace de ARPANET se estableció el 21 de noviembre de 1969 entre UCLA y Stanford. el 5 de diciembre del mismo año, toda la red inicial estaba lista. En marzo de 1970 ARPANET cruzó hasta la costa Este cuando la propia BBN se unió a la red. En 1971 ya existían 23 ordenadores conectados, pertenecientes a universidades y centros de investigación. Este número creció hasta 213 ordenadores en 1981 con una nueva incorporación cada 20 días en media y llegar a alcanzar los 500 ordenadores conectados en 1983. 2) ¿Qué significa TCP/IP? TCP/IP es un conjunto de protocolos. La sigla TCP/IP significa "Protocolo de control de transmisión/Protocolo de Internet" y se pronuncia "T-C-P-I- P". Proviene de los nombres de dos protocolos importantes del conjunto de protocolos, es decir, del protocolo TCP y del protocolo IP.
Recommended publications
  • Diapositiva 1
    TRANSFERENCIA O DISTRIBUCIÓN DE ARCHIVOS ENTRE IGUALES (peer-to-peer) Características, Protocolos, Software, Luis Villalta Márquez Configuración Peer-to-peer Una red peer-to-peer, red de pares, red entre iguales, red entre pares o red punto a punto (P2P, por sus siglas en inglés) es una red de computadoras en la que todos o algunos aspectos funcionan sin clientes ni servidores fijos, sino una serie de nodos que se comportan como iguales entre sí. Es decir, actúan simultáneamente como clientes y servidores respecto a los demás nodos de la red. Las redes P2P permiten el intercambio directo de información, en cualquier formato, entre los ordenadores interconectados. Peer-to-peer Normalmente este tipo de redes se implementan como redes superpuestas construidas en la capa de aplicación de redes públicas como Internet. El hecho de que sirvan para compartir e intercambiar información de forma directa entre dos o más usuarios ha propiciado que parte de los usuarios lo utilicen para intercambiar archivos cuyo contenido está sujeto a las leyes de copyright, lo que ha generado una gran polémica entre defensores y detractores de estos sistemas. Las redes peer-to-peer aprovechan, administran y optimizan el uso del ancho de banda de los demás usuarios de la red por medio de la conectividad entre los mismos, y obtienen así más rendimiento en las conexiones y transferencias que con algunos métodos centralizados convencionales, donde una cantidad relativamente pequeña de servidores provee el total del ancho de banda y recursos compartidos para un servicio o aplicación. Peer-to-peer Dichas redes son útiles para diversos propósitos.
    [Show full text]
  • P2P Networking and Applications
    P2P Networking and Applications John F. Buford Heather Yu Eng Keong Lua AMSTERDAM • BOSTON • HEIDELBERG • LONDON NEW YORK • OXFORD • PARIS • SAN DIEGO u' SAN FRANCISCO • SINGAPORE • SYDNEY • TOKYO MORGAN Morean Kaufmann Publishers is an imprint of Elsevier Table of Contents Preface xvii About the Authors xxi CHAPTER 1 Introduction 1 P2P Emerges as a Mainstream Application 1 The Rise of P2P File-Sharing Applications 1 Voice over P2P (VoP2P) 4 P2PTV 5 P2P Networking and the Internet 8 P2P Overlays and Network Services 8 Impact of P2P Traffic on the Internet 10 Motivation for P2P Applications 11 P2P from the End User's Perspective 11 Is P2P = Piracy? 12 P2P Strengths and Benefits 12 P2P Open Issues 14 P2P Economics 14 The P2P Value Proposition 14 Barrier to Entry 15 Revenue Models and Revenue Collection 15 P2P Application Critical Mass 16 Anatomy of Some P2P Business Models 17 VoP2P 17 File Sharing 19 Social Impact 21 Technology Trends Impacting P2P 22 Summary 23 Further Reading 23 CHAPTER 2 Peer-to-Peer Concepts 25 Operation of a P2P System 25 The User View 25 P2P Beyond the Desktop Computer 26 Overlay View 28 Principles of the P2P Paradigm 29 A Graph Theoretic Perspective 31 Overview 31 Overlay 31 Graph Properties 33 Object Storage and Lookup 34 vi Table of Contents A Design Space Perspective 35 A Routing Performance Perspective 36 Routing Geometries and Resilience 36 Tradeoff Between Routing State and Path Distance 37 Churn and Maintaining the Overlay 37 Locality 39 An Implementation Perspective: OverlayWeaver 41 Summary 43 For Further
    [Show full text]
  • Wired 13.01: the Bittorrent Effect
    Wired 13.01: The BitTorrent Effect Search: Wired Magazine 6 Search The BitTorrent Effect Movie studios hate it. File-swappers love it. Bram Cohen's blazing-fast P2P software has turned the Internet into a universal TiVo. For free video-on-demand, just click here. By Clive ThompsonPage 1 of 5 next » "That was a bad move," Bram Cohen tells me. We're huddled over a table in Feature: his Bellevue, Washington, house playing a board game called Amazons. Cohen The Bit Torrent Effect picked it up two weeks ago and has already mastered it. The 29-year-old programmer consumes logic puzzles at the same rate most of us buy magazines. Plus: Behind his desk he keeps an enormous plastic bin filled with dozens of Rubik's A Better Way to Share Files Cube-style twisting gewgaws that he periodically scrambles and solves throughout the day. Cohen says he loves Amazons, a cross between chess and the Japanese game Go, because it is pure strategy. Players take turns dropping more and more tokens on a grid, trying to box in their opponent. As I ponder my next move, Cohen studies the board, his jet-black hair hanging in front of his face, and tells me his philosophy of the perfect game."The best strategy games are the ones where you put a piece down and it stays there for the whole game," he explains. "You say, OK, I'm staking out this area. But you can't always figure out if that's going to work for you or against you.
    [Show full text]
  • NET Institute*
    NET Institute* www.NETinst.org Working Paper #07-42 October 2007 Online Peer-to-peer Communities: An Empirical Investigation of a Music Sharing Network as a Dynamic Two-sided Network Bin Gu, University of Texas, Yun Huang, University of Texas, Wenjing Duan, George Washington University Andrew Whinston, University of Texas * The Networks, Electronic Commerce, and Telecommunications (“NET”) Institute, http://www.NETinst.org, is a non-profit institution devoted to research on network industries, electronic commerce, telecommunications, the Internet, “virtual networks” comprised of computers that share the same technical standard or operating system, and on network issues in general. ONLINE PEER-TO-PEER COMMUNITIES: AN EMPIRICAL INVESTIGATION OF A MUSIC SHARING COMMUNITY AS A 1 DYNAMIC TWO-SIDED NETWORK Bin Gu2, Yun Huang2, Wenjing Duan3, Andrew Whinston2 Abstract Online peer-to-peer communities and online social networks have become increasingly popular. In particular, the recent boost of online peer-to-peer communities leads to exponential growth in sharing of user-contributed content which have brought profound changes to business and economic practices. Understanding the formation and sustainability of such peer-to-peer communities has important implications for businesses. We develop a dynamic two-sided network model that relates growth of communities to interactions between contribution and consumption of resources in online sharing activities. Using online music sharing data collected from a popular IRC music sharing service over five years, we empirically apply the model to identify dynamics in the music sharing community. We find that the music sharing community demonstrates distinctive characteristics of a two-sided network. Contribution in the community leads to more consumption and consumption leads to more contribution, creating positive network effects in the community.
    [Show full text]
  • Smart Internet 2010 Report
    SMART INTERNET TECHNOLOGY CRC SMART INTERNET 2010 REPORT SMART INTERNET 2010 Version: General distribution Date of Publication: August 2005 Authors: Trevor Barr, Alex Burns, Darren Sharp Faculty of Life and Social Sciences Swinburne University of Technology Established and supported under the Australian Government’s Cooperative Research Centres Programme Acknowledgment The editorial team who compiled and wrote sections of this report, and the individual section contributors, wish to collectively thank all of the interviewees who so generously gave of their time, and their thoughts, for this report. The interviewees responded in person, or by email, or in taped telephone conversations. Many were overseas and agreed to be interviewed at difficult times for them. Every endeavour has been made to fully acknowledge the views of those external experts who were consulted and quoted for the compilation of this report. Disclaimer This report contains references, comments and views regarding the topic of Smart Internet 2010. The recipient acknowledges that these references, comments and views reflect opinions and assumptions by the individual contributors, editorial team and Smart Internet Technology CRC Pty Ltd concerning the future, which may or may not prove correct. Smart Internet Technology CRC Pty Ltd and its respective directors and officers expressly disclaim any liability, representations or warranties expressed or implied contained in this report or any omissions from it. This disclaimer extends to any other information whether written or not, provided at any time by or on behalf of the Smart Internet Technology CRC Pty Ltd. © Smart Internet Technology CRC Pty Ltd 2005. All Rights Reserved. All trademarks mentioned in this document are the property of their respective owners.
    [Show full text]
  • 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28
    UMG Recordings, Inc. et al v. Veoh Networks, Inc. et al Doc. 78 1 Re: Docket # 71 Steven A. Marenberg (101033) ([email protected]) 2 Elliot Brown (150802) ([email protected]) Brian Ledahl (186579) ([email protected]) 3 Benjamin Glatstein (242034) ([email protected]) IRELL & MANELLA LLP 4 1800 Avenue of the Stars, Suite 900 Los Angeles, California 90067-4276 5 Telephone: (310) 277-1010 Facsimile: (310) 203-7199 6 Attorneys for Plaintiffs 7 ADDITIONAL COUNSEL LISTED 8 ON SIGNATURE PAGE 9 UNITED STATES DISTRICT COURT 10 CENTRAL DISTRICT OF CALIFORNIA 11 WESTERN DIVISION 12 13 UMG RECORDINGS, INC., et al., ) Case No. CV-07-05744 AHM (AJWx) 14 ) ) JOINT STIPULATION UNDER 15 Plaintiffs, ) LOCAL RULE 37-2 REGARDING ) UMG RECORDINGS, INC.’S 16 ) MOTION TO COMPEL v. ) RESPONSES TO DISCOVERY 17 ) AGAINST VEOH NETWORKS, INC. ) 18 VEOH NETWORKS, INC., ) Filed Concurrently Herewith: ) [Declaration of Brian Ledahl and 19 ) Jennifer A. Golinveaux] Defendant. ) 20 ) ) Magistrate: Hon. Andrew J. Wistrich 21 ) ) Date: August 11, 2008 22 ) Time: 10:00 a.m. ) Courtroom: 690 23 ) ) Discovery Cutoff: January 12, 2009 24 ) Pretrial Conference: April 6, 2009 ) Trial Date: April 21, 2009 25 26 REDACTED PURSUANT TO INTERIM PROTECTIVE ORDER ENTERED 27 ON MAY 21, 2008-CONFIDENTIAL INFORMATION OMITTED 28 UNREDACTED COPY FILED UNDER SEAL 1899242 Dockets.Justia.com 1 TABLE OF CONTENTS 2 Page 3 I. INTRODUCTORY STATEMENTS ...............................................................2 4 A. UMG’s Introductory Statement .............................................................2
    [Show full text]
  • Singing for the School
    Journal of Theoretical and Applied Electronic Commerce Research This paper is Available online at ISSN 0718–1876 Electronic Version www.jtaer.com VOL 1 / ISSUE 3 / DECEMBER 2006 / 42 - 57 © 2006 Universidad de Talca - Chile P2P's Significance for eBusiness: Towards a Research Agenda Roger Clarke1 1 Xamax Consultancy Pty Ltd, Canberra, Australia and Visiting Professor in eCommerce at Uni. of Hong Kong, in Cyberspace Law and Policy at Uni. of N.S.W. and in Computer Science at A.N.U. [email protected] Received 25 April 2006; received in revised form 15 August 2006; accepted 13 October 2006 Abstract Applications running over peer-to-peer (P2P) networks have exploded since the late 1990s. Research is needed into many aspects of P2P. These include architecture, application functionality, and the categories of digital works that are shared using P2P facilities. A range of significant strategic, consumer and policy issues also arise, such as challenges to the operation of copyright, defamation and other censorship laws. Organisations affected by P2P are devising and deploying countermeasures, such as technological protections for digital works and attempts to identify devices and users. These too require study. This paper presents the landscape of research opportunities, indicating methods that might be appropriately applied to the various kinds of questions. Key words: P2P overlay networks, P2P applications, file-sharing, strategic impacts, policy impacts 42 P2P's Significance for eBusiness: Towards a Research Agenda Roger Clarke Journal of Theoretical and Applied Electronic Commerce Research This paper is Available online at ISSN 0718–1876 Electronic Version www.jtaer.com VOL 1 / ISSUE 3 / DECEMBER 2006 / 42 - 57 © 2006 Universidad de Talca - Chile 1 Introduction Applications of Peer-to-peer (P2P) technology have exploded since the late 1990s.
    [Show full text]
  • Detection of Encrypted Traffic Generated by Peer-To-Peer Live
    UNIVERSIDADE DA BEIRA INTERIOR Engenharia Detection of Encrypted Traffic Generated by Peer-to-Peer Live Streaming Applications Using Deep Packet Inspection André Filipe Ferreira Esteves Dissertation submitted in candidature for the degree of Master of Science in Computer Science and Engineering (2nd Cycle Degree) Supervisor: Dr. Mário Marques Freire Covilhã, October 2011 ii Work financed by FEDER funds through Programa Operacional Factores de Competitividade – COMPETE and by national funds through the Portuguese Fundação para a Ciência e a Tecnologia within the project TRAMANET: Traffic and Trust Management in Peer-to-Peer Networks with contracts PTDC/EIA/73072/2006 and FCOMP-01-0124-FEDER-007253. i ii Acknowledgements First i would like to start thanking the person who give the chance to integrate his dynamic research team where work and fun walk side by side, to professor Mário Freire my gratitude, for all the scientific knowledge acquired along this work, for the motivation, and also for the almost unlimited resources provided to make this research possible. I would also like to thank David Milheiro for the help mounting the research test-bed, and João Gomes and professor Pedro Inácio for the great suggestions to improve my work. I am also grateful to the University of Beira Interior, in special to the Computer Science Department and to the Multimedia Signal Processing research group for all the support and equipment provided for this work, and also for having such delight place to work. To my parents and my brother for all the motivation and support over the years, as without them i would not have made here.
    [Show full text]
  • Architecture of P2P Systems
    Architecture of P2P systems Peer-to-peer systems often implement an abstract overlay network, built at Application Layer, on top of the native or physical network topology. Such overlays are used for indexing and peer discovery and make the P2P system independent from the physical network topology. Content is typically exchanged directly over the underlying Internet Protocol (IP) network. Anonymous peer-to-peer systems are an exception, and implement extra routing layers to obscure the identity of the source or destination of queries. In structured peer-to-peer networks, peers (and, sometimes, resources) are organized following specific criteria and algorithms, which lead to overlays with specific topologies and properties. They typically use distributed hash table-based (DHT) indexing, such as in the Chord system (MIT).[2] Unstructured peer-to-peer networks do not impose any structure on the overlay networks. Peers in these networks connect in an ad-hoc fashion[3]. Ideally, unstructured P2P systems would have absolutely no centralized system, but in practice there are several types of unstructured systems with various degrees of centralization. Three categories can easily be seen. In pure peer-to-peer systems the entire network consists solely of equipotent peers. There is only one routing layer, as there are no preferred nodes with any special infrastructure function. Hybrid peer-to-peer systems allow such infrastructure nodes to exist, often called supernodes.[4] . In centralized peer-to-peer systems, a central server is used for indexing functions and to bootstrap the entire system. Although this has similarities with a structured architecture, the connections between peers are not determined by any algorithm.
    [Show full text]
  • Sandvine Global Internet Phenomena Report
    Global Internet Phenomena Report 1H 2012 Executive Summary The Global Internet Phenomena Report: 1H 2012 shines a light on fixed and mobile data networks around the world, identifying facts, fads, and the future trends that will shape the Internet’s future. Within this report, we present a mix of high-level observations, regional-focused analysis, deep-dives into specific subjects, and educational tidbits. Communications service providers (CSPs) in particular are in the position to act on this information, but we believe that the findings will be of interest to a wide range of readers. At the highest level, we observed that Real-Time Entertainment (comprised mostly of streaming video and audio) is the largest traffic category on every network we examined. Furthermore, with the sole exception of NorthAmerica’s fixed access networks (where Netflix is dominant), YouTube is the largest single source of Real-Time Entertainment traffic. With appeal that crosses regions, access technologies and devices, YouTube has emerged to account for more Internet traffic than any other service. We also observed that rich communication services like WhatsApp, that replace traditional source of operator revenue, continue to enjoy widespread adoption – we counted an average of 7.6 million WhatsApp messages per day on a mobile operator with 1 million subscribers. North America’s mobile networks have the highest proportion of Real-Time Entertainment traffic – in fact, the majority of mobile data in North America is streaming audio and video. YouTube leads the way, accounting for 23.4% of daily traffic, but Pandora Radio has emerged to make up 6.4%.
    [Show full text]
  • Survey on Peer-Assisted Content Delivery Networks
    Accepted Manuscript Survey on Peer-assisted Content Delivery Networks Nasreen Anjum, Dmytro Karamshuk, Mohammad Shikh-Bahaei, Nishanth Sastry PII: S1389-1286(17)30046-4 DOI: 10.1016/j.comnet.2017.02.008 Reference: COMPNW 6107 To appear in: Computer Networks Received date: 26 July 2016 Revised date: 13 February 2017 Accepted date: 14 February 2017 Please cite this article as: Nasreen Anjum, Dmytro Karamshuk, Mohammad Shikh-Bahaei, Nishanth Sastry, Survey on Peer-assisted Content Delivery Networks, Computer Networks (2017), doi: 10.1016/j.comnet.2017.02.008 This is a PDF file of an unedited manuscript that has been accepted for publication. As a service to our customers we are providing this early version of the manuscript. The manuscript will undergo copyediting, typesetting, and review of the resulting proof before it is published in its final form. Please note that during the production process errors may be discovered which could affect the content, and all legal disclaimers that apply to the journal pertain. ACCEPTED MANUSCRIPT Survey on Peer-assisted Content Delivery Networks 1 2, 3, 4, Nasreen Anjum , Dmytro Karamshuk ∗, Mohammad Shikh-Bahaei ∗, Nishanth Sastry ∗ Department of Informatics, King’s College London Abstract Peer-assisted content delivery networks have recently emerged as an economically viable alternative to traditional content delivery approaches: the feasibility studies conducted for several large content providers suggested a remark- able potential of peer-assisted content delivery networks to reduce the burden of user requests on content delivery servers and several commercial peer-assisted deployments have been recently introduced. Yet there are many tech- nical and commercial challenges which question the future of peer-assisted solutions in industrial settings.
    [Show full text]
  • Liveshift: Atime-Shiftedp2p Multimediastreamingapproach
    Zurich Open Repository and Archive University of Zurich Main Library Strickhofstrasse 39 CH-8057 Zurich www.zora.uzh.ch Year: 2013 LiveShift: a time-shifted P2P multimedia streaming approach Hecht, Fabio Posted at the Zurich Open Repository and Archive, University of Zurich ZORA URL: https://doi.org/10.5167/uzh-89253 Dissertation Published Version Originally published at: Hecht, Fabio. LiveShift: a time-shifted P2P multimedia streaming approach. 2013, University of Zurich, Faculty of Economics. LiveShift: A Time-Shifted P2P Multimedia Streaming Approach Doctoral Thesis For the Degree of Doctor of Informatics At the Faculty of Economics, Business Administration And Information Technology of the University of Zurich by Fabio Victora Hecht from Brazil Accepted on the recommendation of Prof. Dr. Burkhard Stiller Dr. Tobias Hoßfeld 2013 The Faculty of Economics, Business Administration and Information Tech- nology of the University of Zurich herewith permits the publication of the aforementioned dissertation without expressing any opinion on the views contained therein. Zurich, January 23, 2013 The Vice Dean of the Academic Program in Informatics: Prof. Dr. Harald C. Gall Abstract Interest in multimedia streaming – download and immediate playback of audio and video content – on the Internet has grown immensely in the last decade. Traditional client/server (C/S) and content distribution network (CDN) architectures, though technically simpler, are expensive, since they require infrastructure to grow according to the number of simultaneous clients. This results in the existence of only a few large content providers, thus support for transmission of events without great commercial appeal is restricted. The peer-to-peer (P2P) architecture, on the contrary, allows low-cost and scalable distribution of multimedia content by users them- selves, without requiring large infrastructure investments.
    [Show full text]