World Wide Web 18 Web 2.0 24 Wikipedia 27

Total Page:16

File Type:pdf, Size:1020Kb

World Wide Web 18 Web 2.0 24 Wikipedia 27 Teoria e Tecnica dei Nuovi Media - Prof.Pescatore a/a 2010-2011 PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]]. PDF generated at: Wed, 03 Nov 2010 19:55:26 UTC Indice Voci Storia 1 ARPANET 1 Internet 2 Digitalizzazione 10 World Wide Web 18 Web 2.0 24 Wikipedia 27 Cultura 43 Multimedialità 43 Ipertesto 44 Convergenza (multimedialità) 47 Intelligenza collettiva 48 Social media 52 Contenuto generato dagli utenti 56 Comunità virtuale 58 Wiki 62 Realtà aumentata 70 Alternate reality game 72 Open source 73 Software libero 79 Tecnologia 86 Portale:Informatica/Telematica 86 Protocollo di rete 92 Suite di protocolli Internet 96 Indirizzo IP 98 File Transfer Protocol 102 Hypertext Transfer Protocol 106 Uniform Resource Locator 110 Browser 111 File sharing 116 Peer-to-peer 124 IPTV 135 Web TV 138 Streaming 140 Forum (Internet) 142 Note Fonti e autori delle voci 145 Fonti, licenze e autori delle immagini 147 Licenze della voce Licenza 149 1 Storia ARPANET ARPANET (acronimo di "Advanced Research Projects Agency NETwork", in italiano "rete dell'agenzia dei progetti di ricerca avanzata"), anche scritto ARPAnet o Arpanet, venne studiata e realizzata nel 1969 dal DARPA, l'agenzia del Dipartimento della Difesa degli Stati Uniti responsabile per lo sviluppo di nuove tecnologie ad uso militare. Si tratta della forma per così dire embrionale dalla quale poi nel 1983 nascerà Internet. Arpanet fu pensata per scopi militari statunitensi durante la Guerra Fredda, ma paradossalmente ne nascerà uno dei più grandi progetti civili: una rete globale che collegherà tutta la Terra. Storia Nel 1958 il Governo degli Stati Uniti decise di creare un istituto di ricerca. L'istituto venne denominato ARPA (acronimo di Advanced Research Projects Agency) e il suo compito era ambizioso: cercare una soluzione alle problematiche legate alla sicurezza nella rete di comunicazioni Il progetto venne realizzato in piena Guerra fredda con la collaborazione di varie università americane, ma, contrariamente a ciò che si crede, non aveva lo scopo di costruire una rete di comunicazione militare in grado di resistere anche ad un attacco Arpanet nel 1974 nucleare su vasta scala (questa idea deriva dagli studi che Paul Baran aveva iniziato nel 1959 alla RAND corporation sulle tecnologie di comunicazione sicura). Per tutti gli anni Settanta ARPAnet continuò a svilupparsi in ambito universitario e governativo, ma dal 1974, con l'avvento dello standard di trasmissione TCP/IP (Transmission Control Protocol/Internet Protocol), il progetto della rete prese ad essere denominato Internet. È negli anni ottanta, grazie all'avvento dei personal computer, che un primo grande impulso alla diffusione della rete al di fuori degli ambiti più istituzionali e accademici ebbe il suo successo, rendendo di fatto potenzialmente collegabili centinaia di migliaia di utenti. Fu così che gli "utenti" istituzionali e militari cominciarono a rendere partecipi alla rete i membri della comunità scientifica che iniziarono così a scambiarsi informazioni e dati, ma anche messaggi estemporanei ed a coinvolgere, a loro volta, altri "utenti" comuni. Nacque in questo modo, spontaneamente, l'e-mail, la posta elettronica, i primi newsgroup e di fatto una rete: Internet. Da Arpanet a Internet Nel 1983 ARPA esaurì il suo scopo: lo stato chiuse l'erogazione di fondi pubblici, la sezione militare si isolò, necessitando di segretezza assoluta a protezione delle proprie informazioni, e nacque perciò MILNET. Con il passare del tempo, l'esercito si disinteressò sempre più del progetto (fino ad abbandonarlo nel 1990), che rimase sotto il pieno controllo delle università, diventando un utile strumento per scambiare le conoscenze scientifiche e per comunicare. In seguito, nei primi anni novanta, con i primi tentativi di sfruttamento commerciale, grazie a una serie di servizi da essa offerti, ebbe inizio il vero boom di Arpanet, nel frattempo rinominata Internet, e negli stessi anni nacque una nuova architettura capace di semplificare enormemente la navigazione: la World Wide Web. ARPANET 2 ARPANET fu la prima rete a commutazione di pacchetto del mondo. La commutazione di pacchetto, ora base dominante della tecnologia usata per il trasferimento di voce e dati in tutto il mondo, era un concetto nuovo e importante nelle telecomunicazioni. Mediante questa tecnica, i messaggi e le informazioni vengono suddivisi in pacchetti di lunghezza fissa e ogni singolo pacchetto diventa un'unità a sé stante, capace di viaggiare sulla rete in modo completamente autonomo. Non è importante che tutti i pacchetti che compongono un determinato messaggio rimangano uniti durante il percorso o arrivino nella sequenza giusta. Le informazioni che essi convogliano al loro interno sono sufficienti per ricostruire, una volta arrivati a destinazione, l'esatto messaggio originale. La sostanziale differenza con Internet è che quest'ultima si compone di migliaia di singole reti, ciascuna che raccoglie a sua volta un numero più o meno grande di host. Il sistema di connessione può essere vario: fibra ottica per le grandi distanze, cavo coassiale e doppino telefonico, satellite, onde radio, raggi infrarossi. Si tratta di un mondo in continua trasformazione, ma nel suo insieme lo spazio Internet è sempre disponibile e la sua esistenza non dipende dall'iniziativa di una singola azienda oppure di un singolo governo. Bibliografia • Matthew Lyon, Katie Hafner, La storia del futuro. Le origini di Internet. Feltrinelli, 1998. ISBN 8807460181. Internet Internet[1] (dal latino inter, "tra" e dall'inglese net, "rete", tra la rete) è una rete di computer mondiale ad accesso pubblico attualmente rappresentante il principale mezzo di comunicazione di massa. Chiunque infatti disponga di un computer e degli opportuni software, appoggiandosi a un Internet service provider che gli fornisce un accesso a Internet attraverso una linea di telecomunicazione dedicata (ADSL, HDSL, VDSL, GPRS, HSDPA, ecc.) o una linea telefonica della Rete Telefonica Generale (POTS, ISDN, GSM, UMTS, ecc.), può accedere a Internet ed utilizzare i suoi servizi. Ciò è reso possibile da una suite di protocolli di rete chiamata "TCP/IP" dal nome dei due principali, il TCP e l'IP, la "lingua" comune con cui i computer di Internet si interconnettono e comunicano tra loro indipendentemente dalla loro architettura hardware e software. Costituita da alcune centinaia di milioni di computer collegati tra loro con i più svariati mezzi trasmissivi, Internet è anche la più grande rete di computer attualmente esistente, motivo per cui è definita "rete delle reti" o "rete globale" collegando tra loro reti LAN, MAN e WAN. In quanto rete di telecomunicazione (una rete di computer è un sottotipo per comunicazione dati di una rete di telecomunicazioni) come diffusione è seconda solo alla Rete Telefonica Generale, anch'essa di diffusione mondiale e ad accesso pubblico, ma comprendente il pianeta in maniera ancor più 'capillare' di Internet. Quest'ultima condivide largamente la rete telefonica per l'accesso dei suoi utenti ed è destinata, in un futuro non troppo lontano con il miglioramento della tecnologia VoIP, a soppiantarla inglobandola in sè in quanto basata sulla più efficiente tecnica della commutazione di pacchetto. Internet offre i più svariati servizi, i principali dei quali sono il World Wide Web e la posta elettronica, ed è utilizzata per le comunicazioni più disparate: private e pubbliche, lavorative e ricreative, scientifiche e commerciali. I suoi utenti, in costante crescita, nel 2008 hanno raggiunto quota 1,5 miliardi e, visto l'attuale ritmo di crescita, si prevede che saliranno a 2,2 miliardi nel 2013.[2] La prima pubblicazione in cui si teorizza una rete di computer mondiale ad accesso pubblico è On-line man computer communication dell'agosto 1962, pubblicazione scientifica degli statunitensi Joseph C.R. Licklider e Welden E. Clark. Nella pubblicazione Licklider e Clark, ricercatori del Massachusetts Institute of Technology, danno anche un nome alla rete da loro teorizzata: "Intergalactic Computer Network". Ma prima che tutto ciò diventi una realtà è necessario attendere fino al 1991 quando il governo degli Stati Uniti d'America emana la High performance computing act, la legge con cui per la prima volta viene prevista la possibilità di ampliare, ad opera Internet 3 dell'iniziativa privata e con finalità di sfruttamento commerciale, una rete Internet fino a quel momento rete di computer mondiale di proprietà statale e destinata al mondo scientifico. Questo sfruttamento commerciale che subito viene messo in atto anche dagli altri Paesi. Nel 1993 il CERN, l'istituzione europea dove nasce il World Wide Web, decide di rendere pubblica la tecnologia alla base del World Wide Web in modo che sia liberamente implementabile da chiunque. A questa decisione fa seguito un immediato e ampio successo del World Wide Web in ragione delle funzionalità offerte, della sua efficienza e, non ultima, della sua facilità di utilizzo. Da tale successo ha inizio la crescita esponenziale di Internet che in pochissimi anni porterà la rete delle reti a cambiare per sempre la società umana rivoluzionando il modo di relazionarsi delle persone come quello di lavorare tanto che nel 1998 si arriverà a parlare di "nuova economia". Struttura Internet può essere vista come una rete logica di enorme complessità appoggiata a strutture fisiche e collegamenti di vario tipo (fibre ottiche, cavi coassiali, collegamenti satellitari, doppino telefonico, collegamenti su radiofrequenza (WiFi), su ponti radio, su raggi laser e su onde convogliate su condotte elettriche o addirittura idrauliche) che interconnette un agente umano o automatico ad un altro agente tramite, Utenti internet espressi in decine di migliaia per nazione, dati CIA The World Factbook 2007 praticamente, qualsiasi tipo di computer o elaboratore elettronico oggi o in futuro esistente o immaginabile, tanto da considerarlo quasi un mass media. Ogni dispositivo connesso direttamente ad Internet si chiama host (ospite in inglese) o end system (sistema finale o terminale utente) mentre la struttura che collega i vari host si chiama link di comunicazione.
Recommended publications
  • GNU/Linux AI & Alife HOWTO
    GNU/Linux AI & Alife HOWTO GNU/Linux AI & Alife HOWTO Table of Contents GNU/Linux AI & Alife HOWTO......................................................................................................................1 by John Eikenberry..................................................................................................................................1 1. Introduction..........................................................................................................................................1 2. Symbolic Systems (GOFAI)................................................................................................................1 3. Connectionism.....................................................................................................................................1 4. Evolutionary Computing......................................................................................................................1 5. Alife & Complex Systems...................................................................................................................1 6. Agents & Robotics...............................................................................................................................1 7. Statistical & Machine Learning...........................................................................................................2 8. Missing & Dead...................................................................................................................................2 1. Introduction.........................................................................................................................................2
    [Show full text]
  • TRABAJO DE DIPLOMA Título: Diseño De La Página Web De Antenas
    FACULTAD DE INGENIERÍA ELÉCTRICA Departamento de Telecomunicaciones y Electrónica TRABAJO DE DIPLOMA Título: Diseño de la Página Web de Antenas Autor: Alaín Hidalgo Burgos Tutor: Dr. Roberto Jiménez Hernández Santa Clara 2006 “Año de la Revolución Energética en Cuba” Universidad Central “Marta Abreu” de Las Villas FACULTAD DE INGENIERÍA ELÉCTRICA Departamento de Telecomunicaciones y Electrónica TTRRAABBAAJJOO DDEE DDIIPPLLOOMMAA Diseño de la Página Web de Antenas Autor: Alaín Hidalgo Burgos e-mail: [email protected] Tutor: Dr. Roberto Jiménez Hernández Prof. Dpto. de Telecomunicaciones y electrónica Facultad de Ing. Eléctrica. UCLV. e-mail: [email protected] Santa Clara Curso 2005-2006 “Año de la Revolución Energética en Cuba” Hago constar que el presente trabajo de diploma fue realizado en la Universidad Central “Marta Abreu” de Las Villas como parte de la culminación de estudios de la especialidad de Ingeniería en Telecomunicaciones y Electrónica, autorizando a que el mismo sea utilizado por la Institución, para los fines que estime conveniente, tanto de forma parcial como total y que además no podrá ser presentado en eventos, ni publicados sin autorización de la Universidad. Firma del Autor Los abajo firmantes certificamos que el presente trabajo ha sido realizado según acuerdo de la dirección de nuestro centro y el mismo cumple con los requisitos que debe tener un trabajo de esta envergadura referido a la temática señalada. Firma del Tutor Firma del Jefe de Departamento donde se defiende el trabajo Firma del Responsable de Información Científico-Técnica PENSAMIENTO “El néctar de la victoria se bebe en la copa del sacrificio” DEDICATORIA Dedico este trabajo a mis padres, a mí hermana y a mi novia por ser las personas más hermosas que existen y a las cuales les debo todo.
    [Show full text]
  • The New England College of Optometry Peer to Peer (P2P) Policy
    The New England College of Optometry Peer To Peer (P2P) Policy Created in Compliance with the Higher Education Opportunity Act (HEOA) Peer-to-Peer File Sharing Requirements Overview: Peer-to-peer (P2P) file sharing applications are used to connect a computer directly to other computers in order to transfer files between the systems. Sometimes these applications are used to transfer copyrighted materials such as music and movies. Examples of P2P applications are BitTorrent, Gnutella, eMule, Ares Galaxy, Megaupload, Azureus, PPStream, Pando, Ares, Fileguri, Kugoo. Of these applications, BitTorrent has value in the scientific community. For purposes of this policy, The New England College of Optometry (College) refers to the College and its affiliate New England Eye Institute, Inc. Compliance: In order to comply with both the intent of the College’s Copyright Policy, the Digital Millennium Copyright Act (DMCA) and with the Higher Education Opportunity Act’s (HEOA) file sharing requirements, all P2P file sharing applications are to be blocked at the firewall to prevent illegal downloading as well as to preserve the network bandwidth so that the College internet access is neither compromised nor diminished. Starting in September 2010, the College IT Department will block all well-known P2P ports on the firewall at the application level. If your work requires the use of BitTorrent or another program, an exception may be made as outlined below. The College will audit network usage/activity reports to determine if there is unauthorized P2P activity; the IT Department does random spot checks for new P2P programs every 72 hours and immediately blocks new and emerging P2P networks at the firewall.
    [Show full text]
  • Community and Communication
    Community and 12 Communication A large, diverse, and thriving group of volun- teers produces encyclopedia articles and administers Wikipedia. Over time, members of the Wikipedia community have developed conventions for interacting with each other, processes for managing content, and policies for minimizing disruptions and maximizing use- ful work. In this chapter, we’ll discuss where to find other contributors and how to ask for help with any topic. We’ll also explain ways in which community members interact with each other. Though most discussion occurs on talk pages, Wikipedia has some central community forums for debate about the site’s larger policies and more specific issues. We’ll also talk about the make-up of the community. First, however, we’ll outline aspects of Wikipedia’s shared culture, from key philosophies about how contributors How Wikipedia Works (C) 2008 by Phoebe Ayers, Charles Matthews, and Ben Yates should interact with each other to some long-running points of debate to some friendly practices that have arisen over time. Although explicit site policies cover content guidelines and social norms, informal philosophies and practices help keep the Wikipedia community of contributors together. Wikipedia’s Culture Wikipedia’s community has grown spontaneously and organically—a recipe for a baffling culture rich with in-jokes and insider references. But core tenets of the wiki way, like Assume Good Faith and Please Don’t Bite the Newcomers, have been with the community since the beginning. Assumptions on Arrival Wikipedians try to treat new editors well. Assume Good Faith (AGF) is a funda- mental philosophy, as well as an official guideline (shortcut WP:AGF) on Wikipedia.
    [Show full text]
  • Étude De La Pratique Du Téléchargement Légal Et Illégal Sur Internet
    Étude de la pratique du téléchargement légal et illégal sur Internet Travail de Bachelor réalisé en vue de l’obtention du Bachelor HES par : Julien MARIETHOZ Conseiller au travail de Bachelor : (David Billard, Professeur HES) Genève, le 12 mai 2010 Haute École de Gestion de Genève (HEG-GE) Informatique de Gestion Déclaration Ce travail de Bachelor est réalisé dans le cadre de l’examen final de la Haute école de gestion de Genève, en vue de l’obtention du titre d’ « informaticien de gestion ». L’étudiant accepte, le cas échéant, la clause de confidentialité. L'utilisation des conclusions et recommandations formulées dans le travail de Bachelor, sans préjuger de leur valeur, n'engage ni la responsabilité de l'auteur, ni celle du conseiller au travail de Bachelor, du juré et de la HEG. « J’atteste avoir réalisé seul le présent travail, sans avoir utilisé des sources autres que celles citées dans la bibliographie. » Fait à Genève, le 12 mai 2010 Julien MARIETHOZ Étude de la pratique du téléchargement légal et illégal sur Internet MARIETHOZ, Julien iv Remerciements Dans le cadre de la réalisation de ce travail, je tiens à remercier tous ceux qui ont pu y contribuer directement ou indirectement : M. David Billard pour son encadrement et ses conseils. Carole, ma femme, qui a pris le temps de s’occuper de notre petit qui est né le jour après la date de début officiel, me permettant de me concentrer sur ce travail. Tous ceux qui ont pris le temps de répondre à mon questionnaire, en me fournissant les données nécessaires à ce rapport.
    [Show full text]
  • Free Ares 3.0
    Free ares 3.0 Ares, free and safe download. Ares latest version: Fast and unlimited P2P file sharing. Ares is a great P2P client Developer. Aresgalaxy | More Programs (3). Ares free download. Licence Free OS Support Windows XP, Windows Vista, Horizon Innovative Xbox modding tool. Ares Gold free download. Get new version of Ares Gold. A free file-sharing program ✓ Free ✓ Updated ✓ Download now. Ares is a P2P file exchange program that, with the passing of time, has established itself as one of the best Ares screenshot 3 Free v MB. Ares. Ares is a free open source file sharing program that enables users to share any digital file including images, audio, video, software, documents. Ares is a free open source file sharing program that enables users to share any digital file including images, audio, video, software, documents, etc. You may. Download Ares Galaxy for Windows. Ares Galaxy is an open source Peer to Peer software which lets you share images, documents, software, audio and video. Download Ares Galaxy for free. A free peer-to-peer (P2P) BitTorrent file sharing client. Ares Galaxy is a free, open source BitTorrent and chat. Ares is a peer to peer file sharing program that enables users to share 0; 3 star. 0; 2 star. 1; 1 star. 0. All Versions. out of 58 votes. 5 star. Download Ares Ares. August, 23rd - % Safe - Open Source. Free Download. ( MB) Safe & Secure Ares Date released: 07 Oct Download Ares Plus Program for the titular P2P network that gives you faster downloads. AresGalaxy is a free open source Filesharing Bittorrent p2p Client with a powerful search, works behind firewalls.
    [Show full text]
  • The Machine That Builds Itself: How the Strengths of Lisp Family
    Khomtchouk et al. OPINION NOTE The Machine that Builds Itself: How the Strengths of Lisp Family Languages Facilitate Building Complex and Flexible Bioinformatic Models Bohdan B. Khomtchouk1*, Edmund Weitz2 and Claes Wahlestedt1 *Correspondence: [email protected] Abstract 1Center for Therapeutic Innovation and Department of We address the need for expanding the presence of the Lisp family of Psychiatry and Behavioral programming languages in bioinformatics and computational biology research. Sciences, University of Miami Languages of this family, like Common Lisp, Scheme, or Clojure, facilitate the Miller School of Medicine, 1120 NW 14th ST, Miami, FL, USA creation of powerful and flexible software models that are required for complex 33136 and rapidly evolving domains like biology. We will point out several important key Full list of author information is features that distinguish languages of the Lisp family from other programming available at the end of the article languages and we will explain how these features can aid researchers in becoming more productive and creating better code. We will also show how these features make these languages ideal tools for artificial intelligence and machine learning applications. We will specifically stress the advantages of domain-specific languages (DSL): languages which are specialized to a particular area and thus not only facilitate easier research problem formulation, but also aid in the establishment of standards and best programming practices as applied to the specific research field at hand. DSLs are particularly easy to build in Common Lisp, the most comprehensive Lisp dialect, which is commonly referred to as the “programmable programming language.” We are convinced that Lisp grants programmers unprecedented power to build increasingly sophisticated artificial intelligence systems that may ultimately transform machine learning and AI research in bioinformatics and computational biology.
    [Show full text]
  • HTTP Cookie - Wikipedia, the Free Encyclopedia 14/05/2014
    HTTP cookie - Wikipedia, the free encyclopedia 14/05/2014 Create account Log in Article Talk Read Edit View history Search HTTP cookie From Wikipedia, the free encyclopedia Navigation A cookie, also known as an HTTP cookie, web cookie, or browser HTTP Main page cookie, is a small piece of data sent from a website and stored in a Persistence · Compression · HTTPS · Contents user's web browser while the user is browsing that website. Every time Request methods Featured content the user loads the website, the browser sends the cookie back to the OPTIONS · GET · HEAD · POST · PUT · Current events server to notify the website of the user's previous activity.[1] Cookies DELETE · TRACE · CONNECT · PATCH · Random article Donate to Wikipedia were designed to be a reliable mechanism for websites to remember Header fields Wikimedia Shop stateful information (such as items in a shopping cart) or to record the Cookie · ETag · Location · HTTP referer · DNT user's browsing activity (including clicking particular buttons, logging in, · X-Forwarded-For · Interaction or recording which pages were visited by the user as far back as months Status codes or years ago). 301 Moved Permanently · 302 Found · Help 303 See Other · 403 Forbidden · About Wikipedia Although cookies cannot carry viruses, and cannot install malware on 404 Not Found · [2] Community portal the host computer, tracking cookies and especially third-party v · t · e · Recent changes tracking cookies are commonly used as ways to compile long-term Contact page records of individuals' browsing histories—a potential privacy concern that prompted European[3] and U.S.
    [Show full text]
  • EDFS 687 Technology Education for Teachers
    EDFS 687 Technology Education for Teachers College of Charleston EDFS 687 Technology Education for Teachers Course Term- Spring, 2010 Credit Hours- 3 Meeting Time and Place: W 4:00-6:45 - ECTR 214 Instructor's Name: Dr. Bob Perkins Office Hours: Tuesday & Thursday 2:00 - 4:30 Office Location: 86 Wentworth St. Office phone/ 953-5699 Fax/ 953-8109 Email: [email protected] Web Page http://perkinsr.people.cofc.edu/classes/EDFS687/ Course Description: This is an introductory course for pre-service and in-service teachers using technology in the classroom. Students become familiar with application software such as word processing, databases and hypermedia, desktop publishing, and telecommunications, and learn to evaluate hardware and software. Course Text/Materials: Required Text: ● Thorsen, T. (2006). TechTactics: Technology for teachers. Boston: Pearson / A. B. Longman. Optional Software: ● Microsoft Office 2003 for Students and Teachers ● SmartTech Notebook software (instructions for downloading are available in WebCT) Other: ● USB Flash Drive; ● access to WebCT & Edisto email account file:///K|/Arachne/classes/EDFS687/EDFS687Perkins.htm (1 of 7)2/1/2010 1:49:38 PM EDFS 687 Technology Education for Teachers Course Objectives: All teacher preparation programs in the School of Education (SOE) are guided by a commitment to Making the Teaching Learning Connection through three Elements of Teacher Competency (ETC) which are at the heart of the SOE Conceptual Framework: ● 1. Understanding and valuing the learner, ● 2. Knowing what and how to teach and asses and how to create environments in which learning occurs, and ● 3. Understanding yourself as a professional. These three competencies underlie all learning objectives in this course, helping the candidate develop the knowledge, skills, and dispositions necessary to become an effective teacher.
    [Show full text]
  • UTEP Standard 20: Software Licensing 20.1 All Software Used On
    UTEP Standard 20: Software Licensing 20.1 All software used on University devices will be used in accordance with the applicable software license. Unauthorized or unlicensed use of software is regarded as a serious violation subject to disciplinary action and any such use is without the consent of the University. (a) UTEP Information Security Policies: UTEP provides a sufficient number of cost-effective, licensed copies of core business software to enable faculty members, staff, and students to perform their work in an expedient and effective manner. (b) Systems administrators have the right to remove software from University devices for cause. For example, if a user in unable to show proof of license, or if the software is not required for University business purpose, or causes problems on the University- owned device. (c) All departments/colleges are responsible for the accurate accounting of software purchased by their respective department/ college and must ensure that the installation of the software complies with the license agreement of the software. For audit purposes, departments/colleges must maintain proof of purchase and/or original installation media for each software package. Third- party software in the possession of UTEP must not be copied unless such copying is consistent with relevant license agreements and prior management approval of such copying has been obtained, or copies are being made for contingency planning purposes. (d) All software purchases shall go through the UTEP Purchasing Department. (e) All commercial software used on computing systems must be supported by a software license agreement that specifically describes the usage rights and restrictions of the product and shall be purchased through the Purchasing Department.
    [Show full text]
  • Wiki Comunità Di Pratica
    STRUMENTI SOFTWARE PER LA COOPERAZIONE DI RETE Comunità Wiki Comunità di pratica Le comunità di pratica e di apprendimento sono gruppi sociali che hanno come obiettivo finale il generare conoscenza organizzata e di qualità cui ogni individuo può avere libero accesso. In queste comunità gli individui mirano a un apprendimento continuo e hanno consapevolezza delle proprie conoscenze. Non esistono differenze di tipo gerarchico: tutti hanno uguale importanza perché il lavoro di ciascuno è beneficio per l’intera comunità. La finalità è il miglioramento collettivo. Chi entra in questo tipo di organizzazione mira a un modello di condivisione; non esistono spazi privati o individuali, in quanto tutti condividono tutto. Chi ha conoscenza e la tiene per sé è come se non l’avesse. Le comunità di pratica tendono all'eccellenza, a prendere ciò che di meglio produce ognuno dei collaboratori. Questo metodo costruttivista punta ad una conoscenza che si costruisce insieme e rappresenta un modo di vivere, lavorare e studiare. É questa una concezione che si differenzia notevolmente dalle società di tipo individualistico. Tra queste troviamo la società occidentale dove tra gli uomini prevale la competizione e manca quella collaborazione che invece funge da motore pulsante nelle comunità di pratica. Le teorie di McLuhan Fra i più importanti teorici delle comunità di pratica c'è Marshall McLuhan. Negli strumenti del comunicare egli afferma: "nel regime della tecnologia elettrica il compito dell’uomo diventa quello di imparare e di sapere; tutte le forme di ricchezza derivano dallo spostamento d’informazione". Secondo il mito greco dell'alfabeto, prima dell'arrivo di re Cadmo (che introdusse in Grecia le lettere fonetiche), la conoscenza e il potere erano monopolio sacerdotale, in quanto la scrittura prealfabetica, con i suoi innumerevoli segni, era difficile da apprendere.
    [Show full text]
  • L'exemple De Wikipédia Laure Endrizzi Chargée D'études Et De Recherche, Cellule Veille Scientifique Et Technologique, INRP, Lyon
    La communauté comme auteur et éditeur : l’exemple de Wikipédia Laure Endrizzi To cite this version: Laure Endrizzi. La communauté comme auteur et éditeur : l’exemple de Wikipédia. Journée nationale du réseau des URFIST : Evaluation et validation de l’information sur internet, Jan 2007, Paris, France. edutice-00184888 HAL Id: edutice-00184888 https://edutice.archives-ouvertes.fr/edutice-00184888 Submitted on 2 Nov 2007 HAL is a multi-disciplinary open access L’archive ouverte pluridisciplinaire HAL, est archive for the deposit and dissemination of sci- destinée au dépôt et à la diffusion de documents entific research documents, whether they are pub- scientifiques de niveau recherche, publiés ou non, lished or not. The documents may come from émanant des établissements d’enseignement et de teaching and research institutions in France or recherche français ou étrangers, des laboratoires abroad, or from public or private research centers. publics ou privés. Journée d'études des URFIST 31 janvier 2007, Paris « Evaluation et validation de l'information sur internet » La communauté comme auteur et éditeur : l'exemple de Wikipédia Laure Endrizzi chargée d'études et de recherche, cellule Veille scientifique et technologique, INRP, Lyon Résumé L’ensemble des technologies dites 2.0 place l’usager au cœur de la création des contenus numériques tout en l’inscrivant dans une dynamique collective. Ces transformations remettent en cause le modèle éditorial traditionnel, sans offrir de représentations claires et stabilisées des modes de production et de validation qui sont à l’œuvre. Avec l’exemple de Wikipédia, nous tenterons de comprendre les mécanismes de la régulation éditoriale, pour ensuite nous interroger sur les formes d’expertise sollicitées et les figures de l’auteur.
    [Show full text]