UNIVERSIDADE ESTADUAL DE CAMPINAS INSTITUTO DE FILOSOFIA E CIÊNCIAS HUMANAS

RAPHAEL DE SOUZA SILVEIRAS

PODERES E CONTRAPODERES NA INTERNET: GOVERNANÇA, ARQUITETURA E RESISTÊNCIA NA REDE DE REDES

CAMPINAS 2019

RAPHAEL DE SOUZA SILVEIRAS

PODERES E CONTRAPODERES NA INTERNET:

GOVERNANÇA, ARQUITETURA E RESISTÊNCIA NA REDE DE REDES

Tese apresentada ao Instituto de Filosofia e Ciências Humanas da Universidade Estadual de Campinas como parte dos requisitos exigidos para obtenção do título de Doutor em Sociologia.

Orientadora: Prof.ª Dr.ª Gilda Figueiredo Portugal Gouvêa

ESTE TRABALHO CORRESPONDE À VERSÃO FINAL DA TESE DEFENDIDA PELO ALUNO RAPHAEL DE SOUZA SILVEIRAS, E ORIENTADA PELA PROF.ª DR.ª GILDA FIGUEIREDO PORTUGAL GOUVÊA.

CAMPINAS 2019

UNIVERSIDADE ESTADUAL DE CAMPINAS INSTITUTO DE FILOSOFIA E CIÊNCIAS HUMANAS

A Comissão Julgadora do trabalho de Defesa de Tese de Doutorado, composta pelos Professores Doutores a seguir descritos, em sessão pública realizada em 27 de maio de 2019, considerou o candidato Raphael de Souza Silveiras aprovado.

Prof.ª Dr.ª Gilda Figueiredo Portugal Gouvêa Prof. Dr. Pedro Peixoto Ferreira Prof.ª Dr.ª Marta Mourão Kanashiro Prof. Dr. Leonardo Ribeiro da Cruz Prof. Dr. Rafael Alves da Silva

A Ata de Defesa com as respectivas assinaturas dos membros encontra-se no SIGA/Sistema de Fluxo de Dissertações/Teses e na Secretaria do Programa de Pós-Graduação em Sociologia do Instituto de Filosofia e Ciências Humanas

Àqueles que lutam pela liberdade de acesso ao saber

Agradecimentos Este trabalho certamente não foi feito sozinho. Ele foi fruto de diversos diálogos que consegui manter com diversas pessoas, as quais me apoiaram durante todo esse longo percurso. Uma das pessoas que estavam ali, desde 2008, me acompanhando em duas iniciações científicas que se transformaram numa monografia, num mestrado e agora no doutorado foi a professora Gilda. Agradeço e muito a ela pela oportunidade dessas orientações e em especial pela confiança e consequente liberdade que me deu para realizar a pesquisa. Agradeço a todos os membros da banca de qualificação e/ou da defesa pela leitura atenta e generosa contribuição que fizeram para o aprimoramento da minha pesquisa: Pedro Peixoto Ferreira, Flávio Wagner, Marta Kanashiro, Leonardo Cruz e Rafael Silva. Antes mesmo da defesa, tive a oportunidade de receber diversas considerações de grandes amigos que leram a versão preliminar da tese. Agradeço demais pela leitura muitas vezes demorada e consequentemente sensível da tese. Esses comentários foram cruciais para eu repensar algumas coisas que para mim parecia estar explicado ou mesmo para estar atento a coisas que não havia mencionado: Mark, Raul, Rodolfo, Bruno e Stefano. O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - Brasil (CAPES) – Código de Financiamento 001. Agradeço à Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) pelo financiamento da pesquisa (Processo n° 2014/13165-0), o que me possibilitou desenvolvê-la sem ter que me dedicar a outros trabalhos para viver e pela possibilidade de fazer o intercâmbio para Los Angeles. Este momento foi essencial para o amadurecimento da pesquisa. A partir da mediação da FAPESP, agradeço e muito o(a) parecerista pelas colocações construtivas ao longo da pesquisa. Durante boa parte da minha vida na Unicamp morei na casa E-07 da moradia. Sou eternamente grato ao pessoal que viveu comigo por lá. Passaram diversas pessoas e permaneceram inúmeras amizades, as quais me ensinaram a chamar a E-07 de casa, me ajudaram a tornar aquele espaço um lar. Desde que me mudei de Campinas, fui muito bem acolhido na “Surreal” quando precisava ir para a Unicamp. Fico muito feliz de ter conhecido vocês e por toda a felicidade que vocês me proporcionaram. Mark Datysgeld e Bruno Coscia, muito obrigado por me ajudarem no processo de conhecimento da Governança da Internet, seja me apresentando diversos atores ou mesmo me ajudando a compreender os bastidores da gI. Agradeço também pelas conversas informais trocadas e pela amizade estabelecida. Senhor Williams, muito obrigado por auxiliar a me colocar no espaço acadêmico, a me auxiliar na compreensão das estruturas de poder que compõem esse ambiente e qual é a posição que tendem a nos colocar na academia, e pelo que devemos lutar ali.

Bruna Mendonça, obrigado pela amizade e pelas conversas sobre as ciências sociais. Elas me ajudaram a ver a beleza das ciências sociais e em como podemos ter uma visão diferenciada sobre o mundo a partir disso. Maryanna Simão, obrigado pelos diálogos e pelos desabafos em relação ao mundo acadêmico. Foi muito bom aprender a ver a universidade a partir das biológicas. Agradeço Henrique e Luã por todos os momentos que pudemos trocar ideias, tanto dentro quanto fora da Unicamp, que me ajudaram pontos que me fez ver a tese com outros olhos. Raulzito, muito obrigado por tudo, agradeço pelas várias conversas sobre Foucault e Bourdieu que acabaram ajudando a compor algumas das discussões que apresento aqui. Lê e Danilo, muito obrigado por todas as conversas, todos os afetos e por ter tornado minha vida em Barão Geraldo muito mais colorida durante todos esses anos! Stefano e Fernando, agradeço pela amizade que tem se amadurecido cada vez mais desde 2007. Muito obrigado pelos comentários ao trabalho, às dúvidas tiradas e ao fato de ter a convicção de que posso contar com vocês sempre que eu precisar. Fico muito feliz de ver que hoje que temos condições de escolher quais são os caminhos que queremos percorrer e não apenas a seguir aqueles que somos obrigados a percorrer. Temos, felizmente, o privilégio da escolha. E soubemos traçar muito bem nossos passos com uma visão crítica à academia, não compreendendo ela como a panaceia para as soluções dos problemas sociais. Rodolfo e Bruno, meus parceiros, só tenho a agradecer pela presença de vocês na minha vida, sempre abertos a conversas, das mais triviais às existenciais. Agradeço muito a vocês pela visão que hoje tenho sobre produção de conhecimento e o não endeusamento da academia ou de autores acadêmicos. Produzimos, refletimos e contribuímos com nosso espaço, atuamos no mundo e buscamos a transformação dele, mesmo que seja a partir de microfísicas. Agradeço a Inajara por toda atenção quando fui conversar sobre ecossistema e biosfera do ponto de vista biológico para saber se eu não estava escrevendo besteiras na minha pesquisa. Fico muito feliz de ter uma pessoa como você por perto. Mãe, Gui e Paty, agradeço por tudo que vocês fizeram e têm feito por mim. Sempre confiaram em mim, nos meus esforços e objetivos, sempre levaram a sério meu trabalho no meio universitário e estavam do meu lado nos momentos ímpares da minha vida, mostrando como a vida é importante de ser vivida. E não faltou paciência do lado de vocês durante todo esse processo no mundo universitário, onde as férias e os finais de semana acabavam sendo a extensão do trabalho da semana. Felizmente, todo esse esforço alcançou um resultado, um resultado muito positivo e que vocês tiveram papel fundamental para ele se tornar realidade. Peço desculpas àqueles que por um lapso de memória não mencionei e que de algum modo fizeram parte dessa jornada.

Não se perguntará nunca o que o livro quer dizer, significado ou significante, não se buscará nada compreender num livro, perguntar-se-á com o que ele funciona, em conexão com o que ele faz ou não passar intensidades, em que multiplicidades ele se introduz e metamorfoseia a sua, com que corpos sem órgãos ele faz convergir o seu. Um livro existe apenas pelo fora e no fora (Deleuze; Guattari, [1980]: 18)

Entusiasma-me o extraordinário e por vezes muito oportuno engenho da humanidade. Se o leitor se vir num barco naufragando e todas as baleeiras tiverem partido, uma tampa de piano surgindo à deriva e flutuando o suficiente para o manter à tona servirá perfeitamente de improvisado salva-vidas. Não quer isto dizer, contudo, que a melhor forma de conceber um salva-vidas seja na forma de uma tampa de piano. Sou de opinião que, ao aceitarmos os improvisados expedientes de outrora como únicos meios de resolver um determinado problema, nos andamos a agarrar a outras tantas tampas de piano.

Buckminster Fuller ([1968]: 03).

Resumo O presente trabalho investiga como se exerce a governança da Internet, seus limites técnicos e nacionais, e quais são os atores centrais dessa rede de redes. Para isso, recorre primeiro ao conhecimento de elementos que contribuem para a constituição dessa rede mundial de computadores, como cibernética, formação da arquitetura da rede de um ponto de vista histórico e tecnopolítico, para então identificar os principais atores que compõem a governança da Internet. Nesse sentido, realiza o estudo da governança da Internet tendo em vista uma análise ascendente e a leitura em intensidade proposta por Deleuze. Por fim, traça elementos compositivos do fluxo e refluxo da condução de condutas dessa rede, mostrando os rudimentos fundamentais tanto de mecanismos de poder quanto os pontos de fuga da Internet, evidenciando o movimento que o controle dessa rede possui, sua ineficácia constitutiva e as espontaneidades rebeldes que essa configuração da rede contribui para fazer surgir. Esta tese se faz importante em dois pontos: na medida em que a Internet é presente em parte expressiva da população mundial e um conhecimento de fôlego sobre a mesma cooperaria para utilizações mais críticas; e por contribuir com o debate sobre a governança na Internet no campo sociológico. Palavras-chave: Internet; Poder; Rede de computadores; Governança da Internet.

Abstract The present work investigates how Internet governance is conducted, what are its technical and national boundaries, and which are the key players of this network of networks. To do this, it first resorts to the knowledge of elements that contribute to the constitution of this worldwide network of computers, such as cybernetics, the formation of the network architecture from a historical and technopolitical point of view, and then to the identification of the key players of the Internet governance. In this sense, the study of Internet governance is performed in view of an upward analysis and the reading in intensity, proposed by Deleuze. Finally, compositional elements of the ebb and flow of conducts conduction of this network are traced, showing the fundamental elements of both power mechanisms and Internet vanishing points, also evidencing the movement that the control of this network has, its constitutive inefficiency and the rebellious spontaneities that this network configuration contributes to emerge. This thesis is important in two regards: inasmuch as the Internet is present in a significant part of the world population, a deep knowledge on it would cooperate for more critical uses; and for contributing to the debate on Internet governance in the sociological field. Keywords: Internet; Power; ; Internet Governance.

Lista de siglas e abreviaturas ACTA: Anti-Counterfeiting Trade Agreement → Acordo Comercial Anticontrafação AFriNIC: African Network Information Centre → Centro de Informação da Rede Africana AIEE: American Institute of Electrical Engineers → Instituto Americano de Engenheiros Elétricos ALAC: At-Large Advisory Committee → Comitê Consultivo At-Large ALS: At-Large Structure → Estrutura At-Large Anatel: Agência Nacional de Telecomunicações ANSP: Academic Network at São Paulo → Rede Acadêmica de São Paulo AOL: America Online APNIC: Asia-Pacific Network Information Centre → Centro de Informações da Rede Ásia- Pacífico ARIN: American Registry for Internet Numbers → Registro Americano para Números da Internet ARPA: Advanced Research Project Agency → Agência de Projetos de Pesquisa Avançada ARPANET: Advanced Research Projects Agency Network → Rede da Agência de Projetos de Pesquisa Avançada AS: Autonomous System → Sistema Autônomo ASN: Autonomous System Number Número de Sistema Autônomo ASO: Address Supporting Organization Oorganização de Apoio a Endereços ATM: Asynchronous Transfer Mode → Modo de Transferência Assíncrona BBC: British Broadcasting Corporation → Corporação Britânica de Radiodifusão BCP: Best Current Practices → Melhores Práticas Atuais BGP: Border Gateway Protocol → Protocolo de Roteamento de Borda BIT: BInary digiT → dígito binário BITNET: Because It’s There Network CCNSO: Country Code Domain Name Supporting Organization → Organização de Apoio a Nomes com Códigos de Países ccTLD: country code Top-Level Domain → Domínio de Topo de Código de País CCWG-Accountability: Cross Community Working Group on Enhancing ICANN Accountability → Grupo de trabalho entre comunidades sobre o aprimoramento da responsabilidade da ICANN CDN: Content Delivery Network → Rede de Entrega de Conteúdo CEO: Chief Executive Officer → Chefe Executivo de Ofício CERN: Organisation Européenne pour la Recherche Nucléaire → Centro Europeu para Física Nuclear CGI.br: Comitê Gestor da Internet no Brasil CMSI: Cúpula Mundial sobre a Sociedade da Informação CNRI: Corporation for National Research Initiatives → Corporação para Iniciativas Nacionais de Pesquisa CSNET: Computer Science Network → Rede de Ciência da Computação DARPA: Defense Advanced Research Projects Agency → Agência de Projetos de Pesquisa Avançada de Defesa : Digital Audio Tape → Fita de Áudio Digital DHCP: Dynamic Host Configuration Protocol → Protocolo de Configuração Dinâmica de Hospedeiros DNA: Deoxyribonucleic acid → Ácido desoxirribonucleico DoC: Department of Commerce → Departamento de Comércio do governo norte-americano DoD: Department of Defense → Departamento de Defesa DSL: Digital Subscriber Line → Linha Digital de Assinante

DSLAM: Digital Subscriber Line Access Multiplexer → Multiplexador Digital de Acesso à Linha de Assinante DNS: Domain Name System → Sistema de Nome de Domínio DNSSEC: Domain Name System Security Extensions → Extensões de Segurança do Sistema de Nomes de Domínio EFF: Electronic Frontier Foundation → Fundação Fronteira Eletrônica EGP: Exterior Gateway Protocol EUA: Estados Unidos da América FAPESP: Fundação de Amparo à Pesquisa do Estado de São Paulo Fermilab: Fermi National Accelerator Laboratory → Laboratório Nacional de Acelerador Fermi FNC: Federal Networking Council → Conselho Federal de Redes dos Estados Unidos FTP: File Transfer Protocol → Protocolo de Transferência de Arquivos FTTC: Fiber to the Curb → Fibra para a Calçada FTTH – Fiber to the Home → Fibra para o Lar FTTN: Fiber to the Node or Neighborhood → Fibra para o Nó ou Vizinhança GAC: Governmental Advisory Committee → Comitê Consultivo Governamental GADS: Gateway Algorithms and Data Structures → Algoritmos de Borda e Estruturas de Dados GEO: Geoestationary Earth Orbit → Órbita Terrestre Geoestacionária gI: Governança da Internet GTGI: Grupo de Trabalho sobre Governança da Internet GNSO: Generic Names Supporting Organization → Organização de Apoio a Nomes Genéricos gTLD: generic Top-Level Domain → Domínio de Topo Genérico HDLC: High-Level Data Link Control → Controle de Enlace de Dados de Alto Nível HTML: HyperText Markup Language → Linguagem de Marcação de Hipertexto HTTP: HyperText Transfer Protocol → Protocolo de Transferência de Hipertexto IAB: Internet Architecture Board → Conselho de Arquitetura da Internet IANA: Internet Assigned Numbers Authority → Autoridade para Atribuição de Números da Internet IBM: International Business Machines → Máquinas de Negócios Internacionais ICANN: Internet Corporation for Assigned Names and Numbers → Corporação da Internet para Atribuição de Nomes e Números ICCB: Internet Configuration Control Board Painel de Controle de Configuração da Internet ICG: IANA Stewardship Transition Coordination Group → Grupo de Coordenação da Transição da Supervisão da IANA ICMP: Internet Control Message Protocol → Protocolo de Mensagem de Controle da Internet IDN: Internationalized Domain Name → Nome de Domínio Internacionalizado IEEE ou I3E: Institute of Electrical and Electronics Engineers → Instituto de Engenheiros Elétricos e Eletrônicos IETF: Internet Engineering Task Force → Força-tarefa de engenharia da Internet IESG: Internet Engineering Steering Group → Grupo Diretor de Engenharia da Internet IGF: Internet Governance Forum → Fórum de Governança da Internet IGP: Interior Gateway Protocol inSIG: India School on Internet Governance → Escola da Índia sobre Governança da Internet IoT: Internet of Things → Internet das Coisas IP: Internet Protocol → Protocolo de Internet IPNSIG: InterPlanetary Networking Special Interest Group → Grupo de Interesse Especial em Redes Interplanetárias

IRE: Institute of Radio Engineers → Instituto de Engenheiros de Rádio IRTF: Internet Research Task Force Força-Tarefa de Pesquisa na Internet ISI: Information Science Institute → Instituto de Ciência da Informação ISO: International Organization for Standardization → Organização Internacional para Padronização ISOC: Internet Society → Sociedade da Internet ISP: Internet Service Providers → Provedores de Serviço de Acesso IUF: Internet Ungovernance Forum → Fórum da Desgovernança da Internet ETSI: European Telecommunications Standards Institute → Instituto Europeu de Padrões de Telecomunicações IX, IXP ou PTT: Internet Exchange, Internet Exchange Point → Ponto de Troca de Tráfego LACNIC: Latin America and Caribbean Network Information Centre → Registro de Endereços da Internet para a América Latina LAN: Local Area Network LNCC → Rede de Área Local Laboratório Nacional de Computação Científica LSD: Lysergsäurediethylamid → Dietilamida do Ácido Lisérgico MAC: Media Access Control → Acesso de Controle à Mídia MAN: Metropolitan Area Network → Rede de Área Metropolitana MCTIC: Ministério da Ciência, Tecnologia, Inovações e Comunicações MEO: Medium-Earth Orbit → Órbita Terrestre Média MIT: Massachusetts Institute of Technology → Instituto de Tecnologia de Massachusetts NAP: Network Access Point → Ponto de Acesso de Rede NAT: Network Address Translation → Tradução de Endereço de Rede NCP: Network Control Protocol → Protocolo de Controle de Rede NCSA: National Center for Supercomputing Applications → Centro Nacional de Aplicações de Supercomputação NGN: Next Generation Networking Rede de Nova Geração NIC: Network Interface Card → Placa de Rede NIC.br: Núcleo de Informação e Coordenação do Ponto BR NIR: National Internet Registry → Registro Nacional da Internet NPL: National Physical Laboratory → Laboratório Físico Nacional NSA: → Agência de Segurança Nacional NSF: National Science Foundation → Fundação Nacional da Ciência NSFNET: National Science Foundation Network → Rede da Fundação Nacional da Ciência NTIA: National Telecommunications and Information Administration → Administração Nacional de Telecomunicações e Informação NUPEF: Núcleo de Pesquisas, Estudos e Formação NWG: Network Working Group → Grupo de Trabalho de Rede OCP: Open Compute Project→ Projeto de Computação Aberta OLT: Optical Line Terminator OMC: Organização Mundial do Comércio OMPI: Organização Mundial da Propriedade Intelectual ONT: Optical Network Terminator ONU: Organização das Nações Unidas OSI: Open System Interconnection → Interconexão de Sistemas Abertos OSPF: Open Shortest Path First → Abra o Caminho Mais Curto Primeiro P2P: Peer-to-Peer → Par-a-Par ou Ponto-a-Ponto PAN: Personal Area Network → Rede de Área Pessoal PLC: Power Line Communication → Comunicação de Linha de Energia PPP: Point-to-Point Protocol → Protocolo Ponto a Ponto

PTI: Public Technical Identifiers → Identificadores Técnicos Públicos RALO: Regional At-Large Organization → Organização Regional At-Large RAND: Research and Development → Pesquisa e Desenvolvimento RFC: Request for Comments → Pedido de Comentários RIP: Routing Information Protocol → Protocolo de Informação de Roteamento RIPE NCC: Réseaux IP Européens Network Coordination Centre → Centro de Coordenação de Rede das Redes IP Europeias RIR: Regional Internet Registry → Registro Regional da Internet RJ: Rio de Janeiro RNP: Rede Nacional de Pesquisa RSSAC: Root System Advisory Committee → Comitê Consultivo do Sistema de Servidor-Raiz SGDC: Satélite Geoestacionário de Defesa e Comunicações Estratégicas SMS: Short Message Service → Serviço de Mensagens Curtas SMTP: Simple Mail Transfer Protocol → Protocolo de Transferência de Correio Simples SNA: System Network Architecture → Arquitetura de Rede do Sistema SSAC: Security and Stability Advisory Committee → Comitê Consultivo de Segurança e Estabilidade TAG: Technical Architecture Group → Grupo de Arquitetura Técnica TCP: Transmission Control Protocol → Protocolo de Controle de Transmissão TIC: Tecnologia de Informação e Comunicação TLG: Technical Liaison Group → Grupo de Contato Técnico TPAC: Technical Plenary/ Advisory Committee → Plenária Técnica / Comitê Consultivo UCLA: University of California, Los Angeles → Universidade da Califórnia em Los Angeles UDP: User Datagram Protocol → Protocolo de Datagrama do Usuário UDRP: Uniform Domain-Name Dispute-Resolution Policy → Política para Resolução de Disputa Uniforme sobre Nome de Domínio UIT: ITU – International Telecommunication Union → União Internacional de Telecomunicações URL: Uniform Resource Locator → Localizador Uniforme de Recurso USC: University of Southern California → Universidade do Sul da Califónia VoIP: Voice over IP → Voz sobre IP W3C: World Wide Web Consortium → Consórcio da Rede Mundial de Computadores WAIS: Wide Area Information Servers → Servidores de Informação de Área Ampla WAN: Wide Area Network → Rede de Longa Distância WWW: World Wide Web → Rede Mundial de Computadores XML: eXtensible Markup Language → Linguagem de Marcação Extensiva

Sumário Apresentação ...... 17 Introdução – Imergindo na rede ...... 20 Capítulo 1 – Cibernética e ciberespaço: aportes compositivos ...... 41 1.1 – Imersão pela cibernética: composição do cosmos ...... 41 1.2 – Conceitos e métodos ...... 44 1.3 – Entropia na cibernética: deterioração e influências ...... 50 1.4 – Comunicação e controle da rede ...... 58 Capítulo 2 – Arquitetura da rede – I ...... 61 2.1 – Elementos históricos ...... 62 2.2 – Padrão, protocolo e camadas da Internet ...... 73 2.3 – Camada física ...... 87 2.4 – Redes, conexões, equipamentos, relações ...... 97 Capítulo 3 – Arquitetura da rede – II ...... 111 3.1 – Enlace ...... 111 3.2 – Rede ...... 119 3.3 – Transporte ...... 126 3.4 – Aplicação ...... 129 Capítulo 4 – Governança da Internet – I ...... 152 4.1 – Concepções de governança da Internet ...... 152 4.2 – Abordagens para o estudo da governança da Internet ...... 160 4.3 – Panorama da governança da Internet...... 165 4.4 – Atores, conflitos e contexto ...... 170 Capítulo 5 – Governança da Internet – II ...... 184 5.1 – ICANN ...... 184 5.2 – CGI.br ...... 205 5.3 – IETF ...... 213 5.4 – ISOC e W3C ...... 222 5.5 – Outros atores e conflitos ...... 228 5.6 – IGF e NETmundial ...... 232 Capítulo 6 – Poderes e contrapoderes na Internet ...... 243 6.1 – Vulnerabilidades da rede ...... 247 6.2 – Estado e vigilância ...... 256 6.3 – Consequências da vigilância ...... 262 6.4 – Contrapoderes ...... 265 6.5 – Fluxos e refluxos na rede ...... 280

Considerações finais ...... 284 Referências ...... 291 Livros e artigos ...... 291 Documentos ...... 303 Jornais e exposições ...... 308 Sites ...... 312 Vídeos ...... 313 Anexos ...... 314 Anexo I – Foucault e Deleuze na Internet: considerações teórico-metodológicas ...... 314 Anexo II – Tabela para análise dos atores ...... 343 Anexo III – Camada lógica da governança digital ...... 345 Anexo IV – Taxonomia desagregada da governança da Internet ...... 347 Anexo V – Tipos de governança multissetorial ...... 348 Anexo VI – Tabela com exemplos de restrições que podem ser realizadas pelos intermediários 349 Anexo VII – Google Maps Timeline 2018 ...... 350 Anexo VIII – Tráfego de bots comparado com o total de tráfego entre 2012 e 2016 ...... 355 Anexo IX – Pontos de vulnerabilidade da rede ...... 356

17

Apresentação

O trabalho presente nesta tese é o resultado do projeto que comecei a construir ainda no calor dos últimos passos dados para a conclusão do meu mestrado no final de 2013. Nesse sentido, ele foi diretamente influenciado pelas várias inquietações que surgiram durante o mestrado, cujo título é Consultas Públicas para o Marco Civil da Internet e Reforma da Lei de Direito Autoral: a relação entre direito, Internet e Estado na contemporaneidade (Silveiras, [2014]). Conforme avancei no doutorado, algumas dessas questões foram respondidas, enquanto outras se mostraram deslocadas diante do projeto ao qual havia me proposto a desenvolver. No mestrado, minha preocupação era compreender como o Estado brasileiro passava de fomentador a ator disposto a estabelecer um marco civil da Internet no Brasil, constituindo assim uma estrutura burocrática com potencial para realizar o governo de seus cidadãos na Internet. Estava preocupado também com a ideia de consultas públicas online e em que medida o desenvolvimento da Internet pode contribuir para uma democracia mais participativa. Ao analisar o material que consegui juntar através de revisões bibliográficas, entrevistas e participação em eventos sobre o assunto, percebi como o espaço de debate sobre a Internet e seu governo dependia de uma interdisciplinaridade calcada, em grande medida, em conhecimentos ditos técnicos, direito, relações internacionais, política, entre outras áreas do saber. Ali pude vislumbrar a importância da interdisciplinaridade e como processos de ultraespecialização acabavam por limitar meu horizonte sociológico. Foi a partir especificamente de uma entrevista realizada no mestrado que resolvi desenvolver minha pesquisa de doutorado. Nessa entrevista com um ator relevante sobre Internet, após realizadas as perguntas previamente elaboradas, fiz uma questão polêmica no final sobre qual era a relação política entre uma instituição específica brasileira e outra internacional. Entre diversas frases que compuseram a resposta, foi uma das primeiras que mais me chamou atenção. Era algo como: “Você não pode confundir o técnico com o político”. No mesmo instante me recordei da noção de negação em Freud (2014), a qual nos deixa sensíveis às negações realizadas pelo interlocutor. A partir disso, comecei a me questionar sobre a tecnopolítica da Internet. Mas não poderia dizer que o doutorado foi apenas o desdobramento da pesquisa realizada no mestrado. Durante minha monografia, intitulada Indivíduo, coerção e sociedade: estudo da coerção social a partir de Durkheim, Bourdieu e Foucault (Silveiras, [2012]), estava preocupado em refletir sobre a relação entre indivíduo e sociedade considerando a coerção social. Além disso, me preocupava em saber como perceber, identificar, alterar e, na

18

medida do possível, resistir às coerções sociais. Ali estava presente também a constituição de uma subjetividade que aparecia como resultado desse complexo de relações de poder. No doutorado, constituo esse campo da governança da Internet e aquilo que está para além dele justamente para oferecer condições de, num trabalho de maior fôlego e maturidade, precisar o tipo de subjetividade que essas condições de poderes e contrapoderes na rede estimulam a florescer. Nesse sentido, esta tese é o resultado de uma série de inquietações da vida cotidiana que o espaço acadêmico me auxiliou a delineá-la e colocá-la numa linguagem mais formal. Este espaço também me ofereceu ferramentas para lidar com esses questionamentos. Tive uma série de dificuldades para construir este trabalho interdisciplinar. Não tenho dúvidas de que entre essas dificuldades a mais complicada foi compreender a dimensão “técnica” da Internet. Para isso, recorri a manuais técnicos, artigos, vídeos e atores. Foi um processo longo de imersão até alcançar o mínimo de maturidade e conhecimento para escrever páginas sobre o assunto. Pois tive que sair da zona de conforto e lidar com um conjunto de conceitos, expressões, relações, lógicas, etc., que até então me era desconhecido. E foi justamente durante esse percurso que a tecnopolítica da Internet se mostrou de maneira evidente para mim. É certo que, com esse ato de imergir no meio “técnico”, eu trouxe dali muito dessa linguagem que pode soar estranha aos não iniciados nessa área do saber. E em alguns momentos os detalhes considerados técnicos poderão soar como se estivessem em excesso no texto, sobrecarregando-o. Essa é uma crítica relevante e que a aceito de bom grado. Contudo, coloquei neste trabalho aquilo que me inquietava e que pode, em grande medida, incomodar aquele que não tem intimidade com a composição tecnopolítica da Internet. Todavia, não entendo que esses detalhes devem ser vistos como condicionantes para compreender o trabalho como um todo. Pelo contrário, acredito que o leitor deve se embrenhar nas temáticas que mais o envolva e se preocupar em reter aquilo que mais o toque sobre o que escrevi aqui acerca dessa complexa rede mundial de computadores e sua governança. No âmbito intelectual e metodológico, os autores que mais me influenciaram nesta pesquisa foram Foucault e Deleuze. Ora, se a discussão sobre método em Foucault e Deleuze parece algo árido e que poderia não contribuir para o escopo da minha pesquisa, não se pode negar que eles apresentam preceitos metodológicos que podem ser considerados numa análise sociológica. Nesse sentido, tentei mostrar no trabalho do mestrado a relevância da concepção de dispositivo em Foucault e a ressignificação dessa concepção proposta por Deleuze, algo que contribuiu para dar meus primeiros passos na utilização de seus princípios metodológicos a fim de desenvolver minha percepção em relação a meu objeto de análise. No doutorado, fiz

19

uma pesquisa mais intensa quanto a questões teórico-metodológicas sobre Foucault e Deleuze considerando em que medida poderiam contribuir com a análise do meu objeto de investigação. Escrevi um pequeno texto que não oferece respostas precisas, mas que serviu de base para me orientar no decorrer da pesquisa. Todavia, achei mais oportuno deixá-lo como anexo do que incorporá-lo no texto da tese (Anexo I). No que diz respeito a uma orientação para analisar os atores, me aproveitei desse mesmo texto para estabelecer alguns pontos que estive atento em relação a todos os atores observados (Anexo II). Durante esses anos de doutoramento, tive a oportunidade de me relacionar não apenas com uma longa revisão bibliográfica, mas também circular por espaços que foram ímpares para compreender meu objeto de análise e responder às questões que me propus durante a escrita do projeto. Entre espaços, cursos e eventos, destaco os seguintes: Escola de Governança da Internet, realizado pelo NIC.br (2014); ICANN 53, Buenos Aires (2014); Fórum de Governança da Internet (IGF), João Pessoa (2015); V Semana da Infraestrutura da Internet, realizado pelo NIC.br (2015); Escola de Governança da Internet na Índia, Hyderabad (2016); ICANN 57, Hyderabad (2016); visita na sede do NIC.br (2017); visita na sede da ICANN (2017); visita num data center em 2017; pude ver os históricos submarinos que chegam em Porthcurno, Reino Unido (2018); e mesmo conhecer o CERN (2018). Também tive condições de fazer um intercâmbio de um ano em Los Angeles, entre 2016 e 2017. Para além de todas as experiências que tive na Califórnia e que foram ímpares para o desenvolvimento da pesquisa, devo destacar minha visita ao Vale do Silício e ao histórico servidor presente na Universidade da Califórnia, em Los Angeles (UCLA), experiências que me ajudaram a compreender um pouco da atmosfera da constituição da Internet. Todas essas experiências de caráter relacional e físico, foram cruciais para me aproximar da Internet transcendendo os elementos conceituais e me tornando corporalmente mais sensível às tramas dessa rede que nos envolve e que em vários momentos conduzem nossas condutas. Nesse sentido, todo esse movimento intelectual e afetivo me ofereceu condições para refletir e objetivar uma estética da existência/resistência própria que dialoga com a Internet. E é justamente isso, o exercício para tornar a Internet algo mais poroso e permeável – e a consequente constituição de estéticas da existência/resistência relacionadas à Internet e ao contexto no qual estamos inseridos –, que tomo como norte para a apresentação deste trabalho.

20

Introdução – Imergindo na rede

Cada especialista percebeu, subitamente, que lhe concerniam, igualmente, átomos, moléculas e células. Notaram que não havia, realmente, uma linha divisória entre seus ramos profissionais. Não tencionaram fazê-lo, mas seus campos profissionais estavam sendo integrados – inadvertidamente, de sua parte, mas, aparentemente, de modo proposital – pela evolução inexorável. Assim, por ocasião da 2ª Guerra Mundial, os cientistas começaram a criar novas designações profissionais: o bioquímico, o biofísico, e assim por diante. Foram forçados a isso. Apesar de seus esforços deliberados no sentido de especializarem-se, foram imergindo em áreas de atuação cada vez mais inclusivas. Desse modo, o homem que se especializava deliberadamente foi impelido a retroceder, inconscientemente, para novamente empregar suas potencialidades abrangentes inatas. Buckminster Fuller ([1968]1: 25-6).

26 de agosto de 1990 Nessa primavera, um homem da Califórnia, simbolicamente, se suicidou utilizando-se de um programa de computador para buscar e destruir suas contribuições feitas ao longo dos anos para uma conversa eletrônica contínua gerenciada por um grupo de computação denominado Well. Após várias semanas, imitou seu suicídio “virtual” ao se matar no mundo real. Blair Newman foi um dos membros mais ativos do Well, uma comunidade eletrônica criada há cinco anos e operada em escritórios de Whole Earth Review, uma editora em Sausalito, Califórnia, com raízes na contracultura da década de 1960. Milhares de pessoas na área da Baía de São Francisco costumam usar seu computador para, por meio do Well, entrar em um bate-papo eletrônico digitado, e, com frequência, se encontram pessoalmente em reuniões mais convencionais. Sr. Newman, um veterano de 43 anos da indústria de computadores pessoais, era um usuário do Well tão entusiasmado – alguns diriam obsessivo – que muitos de seus amigos o conheciam apenas eletronicamente. Descrevem-no como um insone extravagante, reconhecido por estimulantes e, às vezes, exasperantes conversas tarde da noite. Ele também era conhecido, porém, por surtos depressivos. Após o suicídio simulado em maio, vários membros da comunidade enviaram mensagens irritadas, reclamando que haviam sido injustiçados. Alguns acreditavam que os escritos de Sr. Newman, armazenados em um disco de computador, por serem de propriedade da comunidade e não dele, não podiam ser destruídos. Foi depois dessa disputa, cuja duração se deu em várias semanas, que Sr. Newman tirou sua vida. “Para ele, deixar de existir no mundo virtual significava deixar de existir – ponto”, disse John Perry Barlow, participante no grupo e compositor da banda Grateful Dead. Alguns podem considerar a história do Sr. Newman como a de um viciado em computador perturbado que usou a tecnologia para se retirar do mundo. No entanto, outros veem a experiência de forma diferente, como um vislumbre de um futuro em que os computadores mudam o modo como as pessoas vivem e trabalham e, finalmente, o modo como morrem. (...) Enquanto o telefone encolheu o mundo ao permitir o contato direto e instantâneo, e enquanto o rádio e a televisão serviram como um meio unidirecional para transmitir informações a milhões de pessoas, o computador se tornou um veículo que permite a centenas de pessoas com valores e interesses semelhantes se reunirem em pequenos grupos. (...) Além de diminuir as distâncias e estender as imaginações, as redes de computadores também fornecem anonimato. Tal ambiente pode levar a um comportamento que não seria tão prontamente tolerado na vida real. (...) No caso do Sr. Newman, seus amigos tentaram aplacar a dor por meio do que pode ter sido o primeiro funeral eletrônico. Pouco depois de sua morte, criaram um novo arquivo de computador, incluindo todos os seus escritos antigos, os quais, ao que parece, foram salvos em um disco de backup. Também compilaram um tributo, centenas de páginas de depoimentos disponíveis no sistema. Está incluída a seguinte observação de Mitchell D. Kapor, o fundador da Lotus Development Corporation e agora presidente da On Technology: “Ele era uma personalidade única, e talvez as limitações de espaço e tempo tenham sido demais para alguém com tantas ideias e inspirações” (Markoff, [1990]: online)2.

1 Coloco colchetes para destacar o ano da primeira publicação da referência. Na parte Referências é empregada a primeira publicação e o ano da versão utilizada. 2 [August 26, 1990 This spring a California man symbolically took his life by using a computer program to seek out and destroy the contributions he had made over the years to a continuing electronic conversation run by a computer group called the Well. Several weeks later, he followed this “virtual” suicide by killing himself in the real world. Blair

21

Em 1990 morre Blair Newman. Ele foi prestigiado com um funeral eletrônico. Este caso é um dos primeiros em que a morte na Internet conquista a morte, uma alcança a outra e se conectam. Este é um dos primeiros, mas não o último caso. Em 2013, Júlia se mata depois de ter um vídeo pessoal divulgado na Internet. Quatro dias depois, Giana suicida-se após a viralização na Internet de uma foto na qual seus seios foram expostos (Coissi, [2013]). No mesmo ano, morre por suicídio um grande programador e ativista, Aaron Swartz3, após ser pressionado durante meses por práticas que violariam os direitos autorais. Aaron Swartz estava se opondo a uma máquina de fazer dinheiro a partir de artigos científicos pela JSTOR (acrônimo de Journal Storage), o que remunerava as editoras e não os autores dos artigos, artigos esses com acesso restrito e pago por aqueles interessados em acessá-los, geralmente a própria comunidade acadêmica. Ao disponibilizar esses artigos, Swartz agiria contra esse caça-níquel da produção científica, onde o acadêmico ganha status por conseguir produzir um artigo científico ao mesmo tempo em que tem dificuldade de acessar essa e outras produções acadêmicas. Ferir essa lógica de restrição de acesso à produção científica certamente era necessário, ao mesmo tempo que colocava essa indústria de limitação de acesso numa situação desconfortável. Esse ativista já havia sido processado

Newman had been one of the most active members of the Well, a five-year-old electronic community that is operated out of the offices of the Whole Earth Review, a publisher in Sausalito, California, with roots in the 1960’s counterculture. Several thousand people in the Bay Area regularly use their computer to call up the Well for an electronic, typewritten chat, and they frequently meet face to face in more conventional gatherings. Mr. Newman, a 43-year-old veteran of the personal computer industry, was such an enthusiastic – some would say obsessive – user of the Well that many of his friends knew him only electronically. They describe him as a flamboyant insomniac who could be counted on for stimulating and sometimes infuriating late-night conversation. But he was also known for bouts of depression. After his simulated suicide in May, many members of the community dispatched angry messages complaining that they had been wronged. Some believed that Mr. Newman’s writings, stored on a computer disk, were the property of the community and not his to destroy. It was after his dispute, which lingered for several weeks, that Mr. Newman took his life. “For him to be done in the virtual world was to be done – period”, said John Perry Barlow, a participant in the group who is a lyricist for the Grateful Dead. Some may take Mr. Newman’s story as that of a disturbed computer addict who used technology to withdraw from the world. But others see the experience in a different light, as a glimpse of a future in which computers change the way people live and work, and ultimately the way they die. (…) While the telephone shrank the world by permitting instantaneous one-to-one contact, and while radio and television have served as a one-way medium to broadcast information to millions, the computer has become a vehicle that allows hundreds of people of like values and interests to come together in small groups. (…) In addition to shrinking distances and stretching imaginations, computer networks also provide anonymity. Such an environment can lead to behavior that would not be so readily tolerated in real life. (…) Incase of Mr. Newman, his friends tried to assuage their grief by what may the first electronic funeral. Shortly after his death, they created a new computer file including all of his old writings, which, it turns out, had been saved on a backup disk. They have also compiled a eulogy, hundreds of pages of testimonials available on the system. Included is this observation from Mitchell D. Kapor, the founder of the Lotus Development Corporation and now chairman of On Technology: “He was a unique character, and perhaps the limitations of space and time were just too much for someone with so many ideas and inspirations” (Markoff, [1990]: online)]. 3 Há uma série de materiais sobre Aaron Swartz. Entre eles, destaco o documentário O Menino da Internet: A História de Aaron Swartz, dirigido por Brian Knappenberg [2014].

22

antes por publicar de maneira gratuita informações de domínio público. O caso com a JSTOR era mais um desses. Aaron Swartz cessa sua vida antes do término dos julgamentos, onde o ato do suicídio poderia ser visto como seu último manifesto. Ainda que sejam casos isolados de suicídio, alguns fios tecem a relação entre eles. A obra O suicídio (Durkheim [1897]) oferece pistas a respeito da relevância do suicídio na compreensão da sociedade. Assumindo isso como um pressuposto, essas mortes geram ruídos. E dessa cacofonia pode-se apreender a força da Internet na vida e morte do humano, a presença da rede mundial de computadores em nosso cotidiano – este “nosso cotidiano” referia-se em 2016 a 45,9% da população mundial4 (Banco Mundial) e que tende a aumentar cada vez mais. Ainda que a morte de Newman seja a parte mais importante da notícia, o documento contextualiza uma série de temas que percorrem o debate sobre a Internet, entre eles: relação entre real e virtual; depressão e Internet; humano e o desenvolvimento de tecnologias de comunicação em massa; e propriedade intelectual e Internet. Diversos autores das humanidades realizaram o exercício de aventurar-se na compreensão da relação entre Internet e seus usuários a partir de enfoques específicos5. Diante disso, a pergunta que circunda o processo de pesquisa que se consubstanciou nesta tese é a seguinte: o que tece essa teia capaz de conectar um número expressivo de humanos e não humanos? De um grande mainframe – computador central dedicado a processar um volume de dados significativamente acima dos computadores convencionais – passamos a aparelhos cada vez menores, e hoje os computadores conectados à Internet estão não apenas no nosso bolso, mas sugestivamente fazem parte da ontologia das coisas, como sugere a expressão Internet das Coisas. Conforme Wiener [1954], um dos idealizadores da cibernética, geralmente decorre considerável tempo antes que sejam compreendidas as implicações de determinada invenção; há uma morosidade na percepção de sua potencialidade. Ainda que aparentemente a Internet possa ser utilizada de infinitas maneiras, a amplitude de sua utilização não atingiu a inclinação necessária para alcançar o infinito. Isso porque o conhecimento de seus mecanismos ainda não é do alcance de parte massiva da população que a usa, de modo que a mesma, ao se valer dessa tecnologia, precisa seguir uma série de regras postas por outros. É certo que esta situação favorece diversas corporações que utilizam desses limites para extrair o capital econômico de seus modelos de negócios.

4 Informação disponível em: . Acesso em 25 fev. 2019. 5 Conferir (cf.), entre outros: Castells [1996], Lévy [1997], Wellman e Hogan [2004], e Wellman [2005].

23

No meio de um turbilhão de acontecimentos tecnológicos, como invenções, inovações tecnológicas em velocidades difíceis de acompanhar, comercialização de tecnologias miniaturizadas e intensificação das comunicabilidades com o desenvolvimento de novas tecnologias de comunicação, é relevante lembrar Buckminster Fuller (1895-1983) apontando que a partir da década de 1970 a evolução tecnológica dispara: há a aceleração exponencial das transformações tecnológicas, uma aceleração da aceleração encarada por ele como efemeralização; há junto a isso a miniaturização, ou seja, possibilidade de fazer mais com menos, fazendo mais mercadorias com menor quantidade de trabalho, energia e matéria- prima, como coloca Laymert dos Santos [2001]. Ademais, houve a ascensão da informática no cotidiano das pessoas, de maneira que existem elementos capazes de gerar uma grande transformação na sociedade capitalista (Santos, [2001]). Laymert aponta que nesse contexto a informática consegue se alastrar pela sociedade favorecendo fusões entre tecnologias que se desenvolveram separadamente. Dessa soma entre tecnologias surgem outras, impensáveis nos ramos tecnológicos que se encontravam separados. Por meio de um exemplo contemporâneo pode-se dizer que se antes havia telégrafo, televisão, rádio, aparelho de som, calculadora e telefone, hoje há dispositivos que congregam todas essas funções, como o smartphone que é capaz de realizar essas e diversas outras através de leves toques em sua tela. Cada uma dessas linhagens tecnológicas trouxe suas experiências que se consubstanciaram em algo novo. Essa migração de diferentes funções para um único dispositivo é chamada de convergência digital. Mas isso não acontece apenas no smartphone. O CD é outro exemplo disso. Pois para ele existir houve a junção da indústria de comunicação, entretenimento e computação. Diante disso, a convergência digital não faz referência apenas à concentração de dispositivos, mas também de plataformas, etc. que geram uma nova solução tecnológica. Não se pode esquecer que a miniaturização e o binário – o 0 e o 16, a informação como substrato – estão presentes nesse processo. Segundo Laymert ([2001]: 16):

A inovação conduziu então a produção industrial a uma verdadeira mutação que afetou inclusive a lógica dos investimentos nas empresas de ponta: a partir de meados da década de 1980 o princípio do retorno do capital começou a deixar de comandar o processo de substituição de tecnologias e passou a prevalecer o princípio do surfe: há ondas tecnológicas e as empresas têm que surfar – não há mais tempo para esperar o retorno do capital investido, as próprias ondas tecnológicas exigem que se esteja na crista da onda para não morrer.

6 É importante lembrar do relevante trabalho de George Boole (1815–1864) [1847], The Mathematical Analysis of Logic, no qual expõe um sistema baseado em 0 e 1, sistema este que se adequa à eletrônica na medida que esta apresenta dois estados: aceso e apagado. Este trabalho foi fundamental para o desenvolvimento da computação moderna, a qual também se pauta em 0 e 1.

24

Isto fica evidente na velocidade de lançamento de iPhones, sistemas operacionais para celulares, processadores, entre outros. As inovações acontecem freneticamente, de tal maneira que é trabalhoso acompanhá-las, principalmente ao ter em vista a infinidade de dispositivos que são constantemente atualizados7. E as próprias indústrias não terminam o ciclo tradicional do capital, onde é investido um dinheiro que se transforma em mercadoria e assim o lucro obtido é reinvestido para gerar, posteriormente, um montante maior de capital econômico. Pelo contrário, antes de obter o lucro já é necessário fazer investimentos para o lançamento de uma nova mercadoria que consiga competir com as concorrentes, a qual deve estimular seus usuários a seguir aquela vertente tecnológica em que a preocupação é se o smartphone está mais leve, fino, rápido e com alta resolução de imagem do que o antecessor. Entendo como vertente tecnológica o caminho pelo qual determinada tecnologia se orienta diante das múltiplas possibilidades que teria para seguir seu desenvolvimento. No contexto de países em desenvolvimento e naqueles considerados desenvolvidos, é certo que são inúmeros os fatores capazes de estimular o percurso que determinada tecnologia segue, entre eles comerciais, econômicos, políticos e técnicos. De acordo com a vertente tecnológica de hoje, na relação com a mercadoria é fundamental que, na condição de empresário, eu consiga estimular a sociedade a compreender que dentro de um universo de possibilidades, a escolha da minha mercadoria é a melhor que o consumidor poderá realizar, ainda que para isso ele precise despender um valor substancial e parcelado de seu salário durante vários meses. Minha mercadoria, assim como o consumo da mesma, faz parte de um jogo complexo que para ser jogado necessita de outros atores que entendam esse jogo como algo importante de ser jogado. De um lado, empresas capitalistas que querem gerar mais valor; de outro, consumidores que têm a intenção de adquirir algum tipo de benefício ao comprar uma mercadoria, mesmo que para tal contraia, uma exorbitante dívida. Portanto, parte dos consumidores acabam despendendo recursos econômicos em um jogo que está bem posicionado aquele que segue determinada vertente tecnológica e tem o aparelho mais atualizado da mesma. Em certa medida aceitamos esse jogo e acabamos “pagando caro” por isso no amplo sentido da expressão: 1) pelo alto investimento de recursos econômicos para o consumo de uma tecnologia de ponta que será considerada desatualizada em curto espaço de tempo; e 2) ao participar da eleição desse tipo de valor como prioritário na nossa relação com a tecnologia, uma vez que o importante é ter a posse física, mas não

7 No que se refere à velocidade da criação de processadores, cf. Schiavetto [2014].

25

necessariamente ter condições para utilizar o potencial tecnológico da tecnologia disposta em nossas mãos. De modo geral, o fosso existente entre os que conhecem e os que desconhecem o funcionamento daquilo que os envolve oferece condições favoráveis de distinção e vantagem dos primeiros sobre os segundos, distinção esta que pode aprofundar o abismo entre eles. Esse desconhecimento pode ser, entre outros, dos dispositivos jurídicos que tentam reger a sociedade; das regras relacionais do mundo acadêmico para aquele que vive nesse espaço; das regras que aparecem em relações íntimas; e do modo de operação da rede mundial de computadores. Portanto, é comum nos confrontarmos com mecanismos que não são completamente abertos à inspeção à primeira vista, o que não impede que nossas relações sejam regidas por esses mecanismos. Entretanto, a partir do momento em que se conhece os motivos e princípios que fundamentam aquilo que envolve algum fragmento do humano, torna-se possível não só distinguir o permitido do não permitido, mas auxiliar na constituição de estéticas da existência/resistência robustas perante determinado mecanismo, o que abrange as novas tecnologias. Como estética da existência/resistência entendo uma ação de viver sem negar a própria existência psíquica e corporal, seu modo de ser e de agir, levando em consideração o ambiente no qual se está inserido; um modo de se vincular a um conjunto de regras e de valores que não negue a própria subjetividade. Considerando nosso contexto, onde há um intenso processo de negação de acesso do eu a si mesmo, a estética da existência seria por si uma resistência, por isso a expressão “estética da existência/resistência”. Mas essa resistência não necessita de uma ação de afronta, guerra declarada. Pelo contrário, a simples ação de não seguir o fluxo de negação de si já pode ser enquadrada como resistência, reflexo de uma liberdade percebida como jogo de poder, considerando que só é possível haver relação de poder onde houver a liberdade8. Na medida em que há o desenvolvimento de novas tecnologias, criam-se “insignificantes” distâncias entre os que têm e os que não têm acesso a elas. A história tende a acumular essas diferenças, onde ao mesmo tempo em que frequentemente não conseguimos explorar as potencialidades da Internet por desconhecer seu mecanismo de operação, mais de

8 “Certamente é preciso enfatizar também que só é possível haver relações de poder quando os sujeitos forem livres. Se um dos dois estiver completamente à disposição do outro e se tornar sua coisa, um objeto sobre o qual ele possa exercer uma violência infinita e ilimitada, não haverá relações de poder (...). Mesmo quando a relação de poder é completamente desequilibrada, quando verdadeiramente se pode dizer que um tem todo poder sobre o outro, um poder só pode se exercer sobre o outro à medida que ainda reste a esse último a possibilidade de se matar, de pular pela janela ou de matar o outro. Isso significa que, nas relações de poder, há necessariamente possibilidade de resistência, pois se não houvesse possibilidade de resistência – de resistência violenta, de fuga, de subterfúgios, de estratégias que invertam a situação –, não haveria de forma algumas relações de poder (...). Mas há efetivamente estados de dominação” (Foucault, [1975]: 276-7).

26

um bilhão de pessoas não possuem acesso a eletricidade9. É possível se ancorar no argumento de que isto representa apenas um sétimo da população mundial. Todavia, a restrição permanece presente. Portanto, a expansão tecnológica oferece novas possibilidades para o futuro, mas simultaneamente impõe exceções. Embora ciente de que a restrição perante a tecnologia é manifesta nas várias camadas que a compõe, a preocupação deste trabalho tem o limite de refletir sobre a questão colocada acima: o que tece essa teia capaz de conectar um número expressivo de humanos e não humanos? Entendo esta contribuição como uma peça do mosaico que tem como intenção compreender como é tecida nossa contemporaneidade a partir do desdobramento tecnológico para então refletir sobre estéticas da existência nesta conjuntura. Em poucas palavras, entendo esta pesquisa como uma contribuição à constituição de um “sumário topográfico e geológico da batalha” (Foucault, [1975]: 151), contribuição esta que para Foucault é concernente ao papel do intelectual. E para ela se realizar em nosso objeto investigativo, é fundamental navegar por um conhecimento que transcende o campo da sociologia, realizando assim a união de saberes que geralmente não mantém um diálogo profícuo, a partir de uma visão de sociologia da tecnologia apresentada por Laymert: “sociologia do universo das máquinas contemporâneas que intermedeiam as relações dos homens contemporâneos entre si e a natureza” (Santos, [1995]: 2003). A comunicação apresenta-se como algo primordial dentro do campo que analiso e tende a se tornar cada vez mais importante (Wiener, [1954]), comunicação que se estabelece entre humanos e máquinas, entre máquinas e entre humanos, onde máquinas e humanos podem ser origem, vetor ou destino de mensagens. A Internet provê suporte a essas comunicações como também oferece a junção das mídias. O dado pode ser traduzido para uma estrutura binária de bits e assim transitar pela rede mundial de computadores, de modo que existe televisão, telefone e rádio online. Pode acontecer uma série de ações inesperadas no percurso realizado pelo dado transmitido pelo emissor ao receptor, entre elas sua violação, identificação por terceiros do emissor e receptor, e mesmo do conteúdo transmitido. Por exemplo, quando envio um e-mail para uma pessoa, ele pode ser copiado, armazenado e utilizado sem minha autorização por atores que participam do processo de transmissão desses dados. Assim, embora tenha como destinatário um amigo, alguns dados são quase que invariavelmente processados pelo meu serviço de e-mail, podendo ocorrer uma interceptação na transmissão pelas diferentes redes onde os dados irão transitar; pode ocorrer espionagem por parte de uma agência de vigilância, entre outros atores, com variados objetivos que lidam

9 Cf. eletricidade: . Todos os links acessados em 26 fev. 2019.

27

com a extração de informação desses dados. Mas é complicado identificar qual dos atores envolvidos nesse trânsito informático violou os pacotes informacionais e mesmo se eles realmente foram violados. Pois extrair informação de um pacote sem violá-lo é algo fácil. Outro fator relevante é que usualmente deixamos na Internet pegadas capazes de serem seguidas, rastros. Compras eletrônicas fornecem a comerciantes um complexo de informação sobre os gostos, hábitos de consumo e recursos financeiros de seus usuários; ele é armazenado em bancos de dados que têm a potência de serem objetos de transações mercantis (Nora, [1995]). Ou seja, o simples navegar de um usuário da Internet proporciona recursos econômicos àquele que sabe garimpar dados nas tramas informacionais da rede. Nota-se hoje as inúmeras possibilidades de utilização e visualização desses dados, os quais são capazes de servir para distintos fins. E muitas vezes esses fins são contraditórios, onde os opostos podem ocupar o mesmo espaço, como defender que por meio do controle se tem a liberdade. Ora, não se pode negar que existe certa proximidade entre nossa realidade e a fala do narrador de Johnny Mnemônico (Gibson, [1981]), conto que antecede Neuromancer [1984] – livro mais famoso do escritor William Gibson –, narrador que vivia numa realidade distópica: “[s]omos uma economia da informação. Ensinam isso na escola. Mas não contam que é impossível se mexer, viver, atuar em qualquer nível sem deixar vestígios, bits, fragmentos aparentemente insignificantes de informações pessoais. Fragmentos que podem ser restaurados, ampliados...” (Gibson, [1981]: 348). Há “certa proximidade” porque questiono a impossibilidade de não deixar vestígios proposta na obra de Gibson. Não nos é mostrado que na Internet, assim como na eletricidade, lidamos com a ponta de sistemas complexos. Por exemplo, ao usar eletrodomésticos, geralmente não temos em vista que para utilizá-los é necessária uma organização multifacetada composta por rede elétrica, agentes, fábricas, indústrias, leis, economias, políticas, etc. Todavia, é nos emaranhados desse sistema complexo, nos bastidores, que se encontra o que compõe essa maquinaria, sua robustez e fragilidade. Isso aparece como consequência do pensamento científico que se inclina à especialização, nos estimulando a perder o conhecimento de nosso meio e seus recursos (Lévi-Strauss, [1978]), bem como no fundamento do processo de produção no qual estamos inseridos (Marx, [1867]). Dada a centralidade da Internet no contemporâneo, esse sistema complexo e rizomático precisa ser descomplexificado; suas enervações devem ficar à mostra e serem apropriadas não só pelos interessados em torná-la um modelo de negócios – algo que se torna evidente ao estudar os mecanismos da Internet e a fala de certos atores que estimulam o

28

crescimento dessa rede de redes –, mas por seus mais diversos usuários, incluindo aqueles que possuem ou não conhecimentos técnicos sobre a Internet. Assim, será possível contribuir para alcançar um objetivo que transcende o escopo dessa pesquisa, conforme colocado acima. Em poucas palavras, é fundamental tratarmos a Internet não apenas pelas pontas de seu sistema, mas a partir do movimento de abertura da sua “caixa-preta”. Mas para isso é essencial não apenas se apoiar numa abordagem interdisciplinar num contexto de especialização, mas também eleger algumas variáveis relevantes do sistema complexo, realizar um recorte preciso da investigação, estabelecendo o objetivo central que está por detrás do questionamento colocado10; demarcar a linha eleita para analisar esse objeto; e apontar os principais autores que utilizo e também o modo como essa utilização se dá. Os próximos parágrafos se destinam a isso. Como se sabe, a conexão global de redes de computação popularmente chamada de Internet é uma rede que passa por um período no qual aumenta constantemente sua infraestrutura e o número de usuários que a acessa11. Para essa rede funcionar há uma infinidade de elementos – como fibras ópticas, satélites, cabos coaxiais, servidores, roteadores, computadores e smartphones, softwares, códigos e algoritmos –, cuja dinâmica ou operação podem passar despercebidas a parte significativa dos usuários finais. Junto a seu desenvolvimento, surgem múltiplos estudos sobre essa rede, entre os quais pesquisas que refletem a respeito das consequências e novas possibilidades relacionais vindas com a Internet. A partir desses estudos, é possível verificar que o desdobramento de novas tecnologias auxilia na atualização do âmbito relacional dos humanos envolvidos em alguma medida com as mesmas. Tendo em vista que a Internet pode ser dividia em camadas – como de enlace, transporte e de aplicação –, geralmente os estudos sobre Internet voltados às áreas de humanidades se preocupam com sua camada de aplicação. Esta camada é de superfície, aquela com a qual o usuário final tem contato. Por meio dela há a interação entre atores através de , vídeos, e-mails, videoconferências, etc. No nível profundo existe a interface lógica e física por meio da qual a Internet opera. A física se relaciona com as telecomunicações em âmbito genérico, sendo uma parte mais técnica – cabos coaxiais, fibras ópticas, cabos submarinos, etc. Já a lógica especifica e organiza a informação para o tráfego dos dados na camada física, sendo considerada a Internet em si. No concernente à dinâmica da

10 Realizo isso ciente da complexidade que é o objeto e considerando que ele possui múltiplas possibilidades de “entrada investigativa”. 11 Para visualizar o aumento da infraestrutura dessa rede de redes, cf. o mapa de seus cabos submarinos, disponível em: . Acesso em 26 fev. 2019.

29

Internet, constata-se que ela é mais estática em sua profundidade e movediça na superfície. Já a parte física por meio da qual a Internet opera também possui facilidade de modificação. O exemplo claro disso é a constituição de mais cabos submarinos que conectam países e continentes, fundamentais às telecomunicações e ao desenvolvimento da Internet. É importante ter em mente que a opção de visualizar o modo de funcionamento da Internet a partir de camadas é uma escolha de modelo que tem implicações políticas, não sendo algo puramente técnico. Esta tese se ancora na divisão em camadas para explicar a Internet em profundidade, evidenciando que sua composição é complexa e o conhecimento de um protocolo ou outro utilizado nessa rede de redes é apenas um ou alguns elementos que tecem uma densa teia de relações constituída por humanos e máquinas. Para além disso, trabalhar com a divisão em camadas auxilia a estabelecer uma convergência entre uma linguagem mais técnica sobre Internet com aquela que geralmente lida com a sua superfície, de modo que os meandros dessa rede mundial de computadores se torne mais palatável. Embora a infraestrutura básica dessa rede de redes seja de 1969 (Wellman; Hogan, [2004]), somente em 1995 (Castells, [2001]) ela passa a ser efetivamente acessível para uma sociedade civil além dos Estados Unidos e alguns países da Europa Ocidental, aumentando progressivamente o número de pessoas conectas a essa rede12. Junto a isso surgem diversas demandas jurídicas vinculadas à Internet – como disponibilização de conteúdos protegidos por direitos autorais sem a requerida solicitação; agressão verbal; ameaça de agressão física, entre outras; disponibilização de vídeos e imagens sem autorização dos atores envolvidos nos mesmos; controle por empresas na velocidade do tráfego de dados do usuário dependendo do site acessado por ele; e decisões judiciais sobre a Internet que desconsideram seu modo de funcionamento. Isto posto, se torna necessário o estabelecimento de uma regulamentação dessa rede de redes, algo objetivado em lei no Brasil somente no ano de 201413. Ora, para a instauração de uma administração da Internet a nível internacional é primordial haver o estabelecimento de parâmetros compartilhados, onde um dos passos iniciais é a delimitação de termos em comum. Entre eles, há uma definição sobre governança da Internet que geralmente é utilizada em debates internacionais e que este trabalho toma

12 Para cf. o desenvolvimento da rede de redes a nível nacional a partir de gráfico interativo, acessar o seguinte link: . Acesso em 13 abr. 2018. 13 Diversos países estão realizando ou realizaram a regulamentação da Internet, inclusive o Brasil através do Marco Civil da Internet, Lei nº 12.965, de 23 de abril de 2014. Estudei este processo no Brasil durante o mestrado (Silveiras, [2014]).

30

como referência: “o desenvolvimento e a aplicação, por parte dos governos, do setor privado e da sociedade civil, em seus respectivos papéis, de princípios compartilhados, normas, regras, procedimentos de tomada de decisão e programas que moldam a evolução e o uso da Internet” (GTGI, [2005]: 04)14. Esta definição de 2005 foi concebida pelo Grupo de Trabalho sobre Governança da Internet, criado pela Cúpula Mundial sobre a Sociedade da Informação (CMSI)15. Tal definição demonstra que a governança da Internet é concebida como algo extenso e moderadamente delimitado. De todo modo, por ora o importante é apontar que meu objeto de análise se encontra neste emaranhado, o qual envolve Internet, arquitetura de redes, governos, setor privado e sociedade civil, a saber: o estudo da arquitetura e governança da Internet, especificamente os recursos críticos e seu funcionamento, o que inclui, entre outros elementos, a gestão de nomes de domínios e de endereços da Internet, e a identificação das redes que fazem parte da Internet. Ela é encarada aqui como uma rede mundial de computadores que se distingue de uma simples rede de computadores não apenas pela sua abrangência, mas justamente pelos recursos críticos ao seu funcionamento. No decorrer dessa investigação, busco compreender como se exerce a governança da Internet, tendo em conta seus limites nacionais e técnicos, atores centrais e a interação entre os mesmos para a construção de sua arquitetura contemporânea. Para isso, realiza-se o estudo sobre a construção arquitetônica da rede mundial de computadores aspirando apreender seu modo de funcionamento, abordando o que ela proporciona e os limites de sua operação, bem como de seu comando. Nesta pesquisa, dois países são tomados como referência com o intuito de compreender quais são as linhas que os conectam na governação da Internet: Brasil e Estados Unidos. O segundo dada sua importância histórica e contemporânea na Internet, e o primeiro por se tratar de um país que tem adotado posturas ímpares na governança da Internet, no desenvolvimento de leis relacionadas a ela e, por isso, se apresenta enquanto um país que tem se tornado relevante globalmente nesse assunto. A infraestrutura da Internet é escolhida como cerne investigativo pelo fato de, entre outros motivos, alterar pouco se comparado à camada de aplicação. A partir disso, os próximos passos da pesquisa se relacionam a investigar em profundidade a camada de aplicação. Émile Durkheim não fez diferente na análise das sociedades ao buscar

14 [“the development and application by Governments, the private sector and civil society, in their respective roles, of shared principles, norms, rules, decision-making procedures, and programmes that shape the evolution and use of the Internet”]. 15 O GTGI foi formado na primeira fase da Cúpula Mundial da Sociedade da Informação, patrocinada pela ONU (Organização das Nações Unidas).

31

compreender leis, regras estabelecidas, preceitos morais que se consubstanciam de maneira sólida se comparado às regras de convívio social em vigor para um número reduzido de pessoas que pertencem a uma sociedade – como as normas corriqueiras capazes de surgir e sucumbir rapidamente numa brincadeira de crianças residentes em uma rua específica de uma metrópole. E o que realizava Karl Marx ao concentrar sua pesquisa na infraestrutura das sociedades ocidentais tendo em vista o elemento econômico ao invés de se preocupar primeiramente com a superestrutura, ciente da influência mútua entre essas duas instâncias, embora sejam influências desproporcionais? Ora, nos dois casos a importância da superfície não é negada. Pelo contrário, estuda-se uma infraestrutura com o intuito de contribuir com a compreensão do que se encontra na exterioridade de um dado ecossistema, uma amarração que sofre influências mútuas dessas polaridades, possibilitando sua dinâmica. E no caso da Internet, sua infraestrutura condiciona seus modos de desenvolvimento assim como seus usos podem influenciar o modo de funcionamento da infraestrutura da rede. Assim, do mesmo modo que um ecossistema é composto por uma área e um conjunto de seres em relação, com a Internet não é diferente. É preciso eleger pensadores capazes de oferecer ferramentais analíticos para o exercício dessa investigação acerca da administração da Internet – entendendo ferramentais ou instrumentos analíticos como noções, conceitos, percepções do social fragmentadas ou não que contribuem com a análise de um objeto de estudo. Para isso, é importante ter em conta a referida natureza dinâmica existente nessa rede mundial de computadores. Portanto, parece relevante trabalhar o referido objeto investigativo antes com ferramentais abertos, adaptáveis, atualizáveis, flexíveis, do que com sistemas, circuitos fechados16. Os pensadores primários escolhidos são Foucault e Deleuze. Como eles não dissertaram diretamente sobre Internet é necessário estar atento ao modo de utilização de seus ferramentais, visto que, em certas circunstâncias, a tentativa de seu emprego pode deturpar o objeto de análise. Não obstante, destaco que eles foram utilizados em estudo anterior, o qual também se vinculava à Internet (Silveiras, [2014]). A referida investigação se deu levando em consideração também o uso de Foucault e Deleuze por outros pesquisadores no estudo da Internet17.

16 Isso não quer dizer que é impossível trabalhar com sistemas fechados na Internet. Todavia, esse exercício nos parece árido para o momento ao considerar o escopo da pesquisa de doutoramento vinculado ao tempo para sua realização. 17 Foucault e Deleuze aparecem como referência no estudo acerca da Internet em outros pensadores, como Boyle [1997], Krueger [2005] e Lyon [1998]. Os dois geralmente são articulados a partir de seus elementos conceituais ou mesmo para auxiliar na constituição de um ambiente societal do qual a Internet faria parte – a partir, por exemplo, da noção de sociedade disciplinar em Foucault ou sociedade de controle em Deleuze.

32

O primeiro ponto no argumento de que eles oferecem potentes instrumentos analíticos para esse estudo se assenta no fato de que ambos não desenvolveram uma teoria geral; e o segundo, decorrência do primeiro, na possibilidade de trabalhar seus pensamentos a partir de uma leitura em intensidade, o que se relaciona com a concepção apresentada acima de ferramentais analíticos. Foucault não tem uma teoria geral porque para ele as teorias são provisórias, vinculadas a uma dada concretude, de modo que podem ser revistas – e essa revisão marca seu percurso intelectual. Por isso, vincula-se antes ao pensamento empirista do que ao racionalista18; e à multiplicidade do que à unidade19. Conforme Roberto Machado na Introdução à versão brasileira de Microfísica do Poder: “[é] que, para ele, toda teoria é provisória, acidental, dependente de um estado de desenvolvimento da pesquisa que aceita seus limites, seu inacabado, sua parcialidade, formulando conceitos que clarificam os dados – organizando-os, explicitando suas interrelações, desenvolvendo implicações – mas que, em seguida, são revistos, reformulados, substituídos a partir de novo material trabalhado” (Machado, [1979]: XI). Por isso, não se pode falar em teoria de toda a realidade em Foucault, mesmo porque ele não tinha essa pretensão. Assim, é necessário ter o cuidado de não tratar seus pensamentos de maneira genérica e, por conseguinte, utilizá-los como teorias gerais. Da mesma forma, para o autor o sujeito não é uma substância, mas uma forma que nem sempre é idêntica a si, alterando-se no devir histórico. Em consonância com isso, não é possível também pensar em método genérico nas análises de Foucault. Ele se valia de instrumentos encontrados ou forjados durante a objetivação da pesquisa; e esses instrumentos eram corrigidos através dos próprios objetos de análise que eram revistos com base nesses instrumentos: “[p]rocuro corrigir meus instrumentos através dos objetos que penso descobrir e, neste momento, o instrumento corrigido faz aparecer que o objeto definido por mim não era exatamente aquele” (Foucault, [1977a]: 229). Ainda em busca de uma teoria geral em Foucault se conclui que ele não possui uma teoria do poder. No que diz respeito aos estudos sobre o poder, pontua o seguinte: “[n]ão tenho uma concepção global e geral do poder. Sem dúvida, depois de mim virá alguém que o

18 Sobre a relação entre racionalismo e empirismo no autor, cf., Chomsky e Foucault [1971] e o texto introdutório de Fons Elders [2011] à transcrição desse debate. E em Poder e saber (Foucault, [1977a]) o próprio autor se considera um empirista cego por não ter uma teoria geral e um instrumento. 19 “Só a ilusão de objeto natural cria a vaga impressão de uma unidade; quando a visão se torna embaciada, tudo parece assemelhar-se; fauna, população e sujeitos de direito parecem a mesma coisa, isto é, os governados; as múltiplas práticas perdem-se de vista; são a parte imersa do iceberg” (Veyne, [1971]: 164).

33

fará. Eu, eu não faço isso” (Foucault, [1977]: 227)20. E um dos motivos de não se ter uma teoria do poder se deve ao fato de ele não acreditar em uma natureza do poder (Foucault, [1977b]). O poder são relações de poder (Foucault, [1977a]), as quais estão em todas as sociedades (Foucault, [1982]), existem em formas distintas, se modificam constantemente e estão sempre presentes onde houver liberdade (Foucault, [1975]). Em um escrito de 1982, intitulado O sujeito e o poder, Foucault faz uma apresentação detalhada da justificativa e de como trabalhar o poder. Além da relevante contribuição para compreender o estudo do poder no autor, é curioso o fato de iniciar o texto com a seguinte frase: “[a]s ideias que eu gostaria de discutir aqui não representam nem uma teoria nem uma metodologia” (Foucault, [1982]: 231). Para além disso, embora tenha se debruçado sobre essa perspectiva diante do social, sua preocupação central era com os processos de subjetivação, os processos por meio dos quais os seres humanos se tornam sujeitos (Foucault, [1982]), práticas de constituição do sujeito. Deleuze, em certa medida, não se distingue de Foucault ao afirmar que os conceitos se vinculam às circunstâncias e não à essência: “[p]ara nós [referindo-se a ele e Guattari], o conceito deve dizer ao acontecimento, e não mais a essência” (Deleuze, [1980]: 37). E com isso Deleuze defende a noção de conceito – algo eminentemente filosófico. Não obstante, dá à noção de sistema uma dimensão aberta, dado que os conceitos não se constituem a partir de essências. À vista disso, as contribuições filosóficas de Deleuze podem ou não servir para refletir sobre outras realidades. Por conseguinte, Foucault e Deleuze concebem um fazer filosófico que se em alguma medida cria um sistema, ele se apresenta de maneira aberta, de forma que não necessariamente esse fazer é aplicável a outros centros de análise. Pelo contrário, Foucault [1977a] afirma que fazia progressões por justaposição. Isto pode ser entendido também como deslocamento-inclusão, ao tratar de arqueologia interessado na episteme, genealogia preocupado com os dispositivos, e ética considerando a prática na medida em que uma frente investigativa não elimina a outra:

O deslocamento-inclusão das noções de episteme na noção de dispositivo responde à necessidade de incluir o âmbito do não discursivo na análise do saber. A formação das ciências humanas, por exemplo, já não será somente consequência de uma disposição epistêmica, mas encontrará nas práticas disciplinares sua condição histórica de possibilidade. Do mesmo modo, a importância das noções de governo e

20 É necessário destacar, contudo, que em alguns momentos Foucault pode ser contraditório. O exemplo disso está em A arqueologia do saber [1969], pois Foucault defende que não utilizou nenhuma vez a expressão “estrutura” na obra As palavras e as coisas [1966]. Todavia, Edgardo Castro [2004] aponta que a referida expressão foi utilizada 79 vezes, incluindo o índice. Portanto, não tomo como fato aquilo que Foucault diz. Estou me valendo de seus escritos e falas sobre seus movimentos contrastando com aquilo que apreendi do autor a partir da leitura de outros escritos.

34

governamentalidade será uma consequência das insuficiências dos instrumentos teóricos para analisar o poder (Castro, [2004]: 190).

No que se refere ao método em Deleuze tendo como referência seus escritos com Guattari, é apresentado um antimétodo na obra Capitalismo e esquizofrenia. Pois ali colocam a negação de um método para lidar com o rizoma. O exercício proposto na utilização do rizoma se refere a seguir uma progressão por justaposição, um deslocamento-inclusão, como em Foucault:

“Primeiro, caminhe até tua primeira planta e lá observe atentamente como escoa a água de torrente a partir deste ponto. A chuva deve ter transportado os grãos para longe. Siga as valas que a água escavou, e assim conhecerá a direção do escoamento. Busque então a planta que, nesta direção, encontra-se o mais afastado da tua. Todas aquelas que crescem entre estas duas são para ti. Mais tarde, quando estas últimas derem por sua vez grãos, tu poderás, seguindo o curso das águas, a partir de cada uma destas plantas, aumentar teu território” (Castañeda apud Deleuze e Guattari, [1980a]: 29).

Portanto, o método nesses autores se circunscreve a dadas realidades, às circunstâncias, por meio das quais se constrói instrumentos para lidar com essa realidade. Isto posto, dada a mobilidade da prática investigativa bem como dos objetos de análise que podem se modificar no estudo, se se pode falar em métodos nesses pensadores, esses métodos são descritos a posteriori; o detalhamento do método é antes um olhar para o passado do que para o futuro – como também defende Marx [1873]. Se a discussão sobre método em Foucault e Deleuze parece não alcançar um resultado objetivo, é inegável que apresentam ferramentas analíticas capazes de serem consideradas numa análise sociológica21. A leitura que realizo desses autores neste trabalho se dá por meio de uma análise sistemática de suas contribuições intelectuais sem me preocupar com a aplicação de seus “conceitos”, sem me preocupar em ser um de seus seguidores – evidente que quando estou me valendo de seus “conceitos” explicito isso. Em poucas palavras, realizo o que Deleuze, no texto Carta a um crítico severo [1973], intitula de leitura em intensidade, sendo esta uma das duas maneiras de ler um livro: “[o]u a outra maneira: consideramos um livro como uma pequena máquina a-significante; o único problema é: ‘isso funciona, e como é que funciona?’. Como isso funciona para você? Se não funciona, se nada se passa, pegue outro livro. Essa outra leitura é uma leitura em intensidade: algo passa ou não passa” (Deleuze, [1973]: 16-7) – e é isto que tomo como pressuposto que será feito com esta tese. Portanto, uma leitura que toca, movimenta, que possibilita a construção de um conhecimento que transcende a relação

21 Cf. Silveiras [2014], especialmente o primeiro capítulo.

35

lógica e imediata, uma leitura que se deixa afetar, uma leitura com o corpo inteiro e não apenas com os olhos e com o raciocínio lógico. É perceptível que, em consonância com o primeiro ponto concernente à defesa de que eles oferecem ferramentais analíticos eficazes à investigação sobre Internet, dado o fato dessas ferramentas não constituírem em si uma linearidade analítica. Esta pode ser constituída pelo próprio pesquisador. Essa abertura teórica e a relação com a empiria proposta por Foucault e Deleuze oferecem condições de lidar com a movimentação do objeto de estudo, conforme será possível observar no decorrer dos capítulos deste trabalho. Feito essas considerações sobre o modo de utilização desses autores, apresento abaixo os capítulos que compõem a tese. Selecionei um ponto de imersão para refletir sobre as condições acadêmicas e sociais que estão por detrás do desenvolvimento da Internet: a cibernética. A cibernética foi fundamental para o processo de transição entre a era industrial e a informática ao criar especialmente condições teóricas para isso. O primeiro capítulo descreve a origem semântica de cibernética e as propriedades elementares de uma espécie de teoria conjectural do método científico intitulada com esse termo para então tratar de seu processo de fragilização e fragmentação, influenciando distintas esferas de construção do saber, entre elas a literatura e nosso cotidiano, o qual é povoado por expressões cujo prefixo remete-se à palavra cibernética, como cibersegurança e ciberespaço. Por fim, faço a defesa de que nossa realidade é composta por um complexo multifacetado de justaposição no qual há um processo de ultraespecialização que potencializa o acesso a uma gama de tecnologias. E concomitante a isso, temos menor domínio dessas tecnologias, seguindo assim o ritmo de uma vertente tecnológica que se preocupa com o consumo de alta tecnologia sem necessariamente estar atenta à sua potência por seus consumidores. Ou seja, a tendência é a de que permaneçamos a utilizar a alta tecnologia a partir de sua superfície. Este resultado cuja multiplicidade causal se relaciona também com a ultraespecialização é problematizado com vistas a estimular o leitor a se aprofundar na constituição das altas tecnologias, em especial a Internet, epicentro dos demais capítulos desta obra. Os capítulos segundo e terceiro assumem como objetivo aprofundar o entendimento da composição da Internet trabalhando sua arquitetura e os elementos técnicos e políticos que a constitui. Isto se realiza a partir de uma análise ascendente, como se para entender a sanidade fôssemos estudar a insanidade, compreender a legalidade pela ilegalidade, o centro pela periferia. Nesse sentido, a análise que realizo não vislumbra um centro de difusão do poder, como o Estado, estando antes nas microfísicas sociais, no cotidiano, nas

36

relações que podem se estabelecer, em alguns casos, sem levar em consideração grandes instituições, permeando os locais mais recônditos, assumindo existência própria e formas específicas (Machado, [1979]), possuindo suas próprias histórias, técnicas, táticas, etc. Se faz isso com a perspectiva de vislumbrar como tais mecanismos são investidos, colonizados, utilizados, transformados, deslocados por mecanismos mais gerais e por modos de dominação globais. É justamente a partir disso que se passa a ter condições para compreender o desenvolvimento da Internet, onde a análise ascendente pode até encontrar centralidades, mas partindo da periferia que, neste caso, relaciona-se com o contato do usuário comum com a Internet para então navegar por essa teia de teias que é a rede mundial de computadores. E esta análise está ancorada principalmente, mas não exclusivamente, nas obras Computer Networking: A Top-Down Approach (Kurose e Ross, [2000]) e Computer networks (Tanenbaum e Wetherall, [1981]). Essas obras foram escolhidas por estarem presentes com certa frequência em cursos de computação. O detalhamento da Internet nesses dois capítulos possibilita perceber que ela tende a ser substancialmente mais complexa do que nuvens computacionais por ser formada por meio de uma infinidade de equipamentos que conversam entre si e possibilitam experiências distintas nas suas pontas, de maneira que desvelar a Internet e compreender suas ranhuras e fissuras facilita a tomar um posicionamento perante a relação com essa tecnologia e mesmo a politizá-la. A complexidade da arquitetura da rede se torna evidente com esses dois capítulos. O nível de detalhamento presente nos mesmos é necessário para compreendermos que a Internet pode estar em qualquer lugar e chega pelos mais diversos meios, estruturando-se através de um número significativo de linguagens que resultam nessa fluida rede de redes. Nos dois capítulos seguintes, quatro e cinco, continuo com esse movimento de detalhamento da Internet, mas preocupado com um ecossistema estabelecido para realizar a sua governança. Realizo isso tomando como referência os atores que compõem o quadro de operação da Internet e que foram mencionados nos capítulos anteriores. Assim, o capítulo quarto e quinto se dedicam a explorar tais atores e as conexões que realizam. Para isso, recorro não apenas a referências bibliográficas sobre o assunto como também a conceitos e autores que percorrem e atuam nesse meio. Nota-se que a governança da Internet acaba por estabelecer certos princípios de conduta que edificam uma espécie de sistema relacional. E é considerando isso que desenvolverei o capítulo seguinte, onde analiso alguns casos que escorrem e estão para além da governança da Internet, para além desse ecossistema – o que me faz compreender a Internet como uma biosfera.

37

O percurso para a compreensão do que constitui a Internet ancorado em sua arquitetura, elementos técnicos e políticos, e atores que se destacam nesse processo é cheio de minúcias que são aprofundadas desde o capítulo 2 até o 5, de modo que a leitura possa ser árdua aos não iniciados neste debate. Num primeiro momento relendo esses capítulos, meu ímpeto foi o de reduzir esses quatro capítulos em dois com no máximo 30 páginas cada, pois parecia haver muita informação desnecessária. Para que saber sobre a existência do conjunto de protocolos X.25 se hoje não possuem tanta importância? Por qual motivo dissertar sobre cada uma das camadas que compõem um modelo para observarmos a Internet? E por que entender a distribuição de identificadores únicos da Internet? Ora, compreendi que essas informações são cruciais para um entendimento amplo da Internet e que elas são necessárias para uma politização dessa tecnologia tanto em sua superfície como no modo de sua constituição arquitetônica. Para que isso seja possível é necessário não só apresentar os fios que compõem a rede, mas conectá-los. E ao acoplar esses cabos, formamos uma visão ampla e densa da Internet por meio da qual podemos atribuir a essa rede de redes um significado com uma densidade igual ou superior a aqui apresentada. Assim, considero essa potência de uma leitura árdua dos capítulos supracitados como o resultado de tomar contato com um conhecimento diferente do que foi cristalizado durante um longo percurso de alheamento que enfrentamos no nosso cotidiano, de modo que, embora laborioso, o contato com essa bomba de informação é necessário para apreender aquilo que nos cerca de maneira tão íntima. Por outro lado, o que apresento nesses capítulos possui intrínseca familiaridade com os dispositivos técnicos que estamos acostumados a lidar no nosso dia a dia. Dito isto, explico nas próximas linhas a composição do capítulo seguinte. No sexto capítulo apresento as vulnerabilidades da rede realizando a defesa de que na prática ela possui menos segurança do que supomos, algo que está vinculado ao processo histórico de constituição de sua arquitetura. Contudo, surgem diversas alternativas para lidar com o potencial de vigilância decorrente das permeabilidades apresentadas pela Internet. Nesse mesmo movimento, apresento alguns dos múltiplos interesses que circulam entre os atores que se aproveitam ou podem se aproveitar da Internet para conduzir condutas, mas deixo claro que a prática vigilantista é algo introjetado em nossa mente e que compõe nosso cotidiano, de modo que o exercício de vigilância pela Internet é mais um meio que possuímos para objetivar a vigia. Exponho alguns exemplos de ações que visam conduzir condutas, especialmente as realizadas por Estados. Em seguida, problematizo as consequências da vigilância em nossos espaços de interação, incluindo seu processo de naturalização. É certo que respondemos de alguma maneira em relação a isso, seja de modo consciente ou

38

inconsciente. Diante disso, aponto exemplos de contrapoderes que dialogam com o espectro vigilantista para, por último, estabelecer alguns pontos de reflexão acerca da nossa relação com a Internet, defendendo que o mais importante é compreendermos o movimento dessa rede mundial de computadores e mesmo das tentativas de conduzirem nossas condutas. Pois no embate entre mecanismos de poder e resistências a eles, certos mecanismos e suas resistências tendem a se tornar obsoletos, ao passo que esse movimento continua presente nessas interações. Como movimento, entendo um processo de mudança que pode se dar tanto internamente quanto externamente a um sistema; é algo que não se prende a um fim último, estando antes no meio do que no fim, antes no caminho de alcançar do que na chegada. E compreendo que se quisermos estar atualizados em relação a debates que lidam com a Internet, devemos nos preocupar com o meio e não o fim; ao invés de pensar as coisas centrados no início ou no fim, devemos nos centrar no meio, no movimento e na multiplicidade que está presente nele. Isto dialoga com a concepção de rizoma em Deleuze. O rizoma é encarado como um modelo de realização da multiplicidade. Ao invés de pensar o mundo a partir de uma origem, se pensa ele pelo meio. Por conseguinte, “gênese” readquire no pensamento de Deleuze e Guattari seu valor etimológico de “devir”, sem relação com uma origem. O rizoma se opõe à busca de raízes ou ancestrais, a situar a chave da existência na infância mais remota, ao culto da origem, do nascimento, de modo que genealogistas tradicionais, psicanalistas e femonenólogos não seriam amigos do rizoma (Zourabichvili, [2004]). O rizoma é feito de dimensões e não unidades, sendo que essa multiplicidade não varia suas dimensões sem se metamorfosear, de forma que um agenciamento é este crescimento das dimensões do rizoma numa multiplicidade que muda de natureza em conformidade com o aumento de suas conexões. Diante disso, o fora é elemento indispensável para o rizoma. O rizoma não possui começo e nem fim e sim um meio por meio do qual cresce e transborda. Ele pode ser quebrado em qualquer lugar tendo rupturas assignificantes – diferente de cortes demasiado significantes que separam as estruturas –, retomando em uma ou outra de suas linhas e segundo outras linhas, algo que se constitui ao mesmo tempo em que escorre22. Eis a base daquilo que compreendo como movimento. Como Laura DeNardis e Mark Raymond ([2013]: 01) observam sobre a governança da Internet e sua arquitetura, “[t]anto a arquitetura da Internet quanto sua governança estão mudando constantemente. O conteúdo e os dispositivos computacionais aos

22 “Todo rizoma compreende linhas de segmentaridade segundo as quais ele é estratificado, territorializado, organizado, significado, atribuído, etc.; mas compreende também linhas de desterritorialização pelas quais ele foge sem parar. Há ruptura no rizoma cada vez que linhas segmentares explodem numa linha de fuga, mas a linha de fuga faz parte do rizoma” (DELEUZE; GUATTARI, [1980]: 25-6).

39

quais os usuários estão expostos constituem apenas a superfície de uma enorme infraestrutura subjacente de redes, serviços e instituições que mantêm a Internet operacional”23. Portanto, o ponto nodal está antes em lidar com o movimento do que articular uma resposta específica e consciente a determinado mecanismo de vigilância que pode ser identificado na Internet. Uma das principais influências para a constituição da tese foi o pensamento de Michel Foucault, especialmente no que diz respeito à sua compreensão de poder e governo. Contudo, esse trabalho não tem a intenção de se constituir a partir de um viés foucaultiano. Pelo contrário, considero as colocações de Foucault e de uma série de outros pensadores, mas deixo a tese seguir seu próprio movimento no sentido de responder as inquietações apresentadas acima que a impulsionam. Ora, o meio no qual o humano está inserido pode ser visto como possuindo uma constituição através de emaranhados de tramas de linhas, onde as relações de poder podem ser uma dessas que corroboram com a configuração da realidade. Entendo o poder aqui alinhado principalmente a Michel Foucault, o qual compreende em O sujeito e o Poder [1982] que o poder é antes da ordem do governo do que da ordem do afrontamento. Nas palavras de Foucault:

De fato, aquilo que define uma relação de poder é um modo de ação que não age direta e imediatamente sobre os outros, mas que age sobre sua própria ação. Uma ação sobre a ação, sobre ações eventuais, ou atuais, futuras ou presentes (...) Ele [o exercício do poder] é um conjunto de ações sobre ações possíveis: ele opera sobre o campo de possibilidade onde se inscreve o comportamento dos sujeitos ativos; ele incita, induz, desvia, facilita ou torna mais difícil, amplia ou limita, torna mais ou menos provável; no limite, ele coage ou impede absolutamente, mas é sempre uma maneira de agir sobre um ou vários sujeitos ativos, e o quanto eles agem ou são suscetíveis de agir. Uma ação sobre ações (...) O exercício do poder consiste em “conduzir condutas” e em ordenar a probabilidade. O poder, no fundo, é menos da ordem do afrontamento entre dois adversários, ou do vínculo de um com relação ao outro, do que da ordem do “governo” (Foucault, 1995: 244).

Friso então que o poder se associa em Foucault com a ideia de governo, bem como com a concepção de condução de condutas. O poder tem essa potencialidade. Portanto, ao dissertar sobre governo nesta tese, tenho isso em mente, tanto a dimensão de poder quanto a de condução de condutas, sendo que o exercício do poder trabalha subjetividades, auxilia a constituí-las. É certo que o poder não pode ser observado como uma linha à parte das que compõem a governança da Internet e sim como um fio por meio do qual se pretende penetrar,

23 [“[b]oth the Internet’s architectura and its governance are constantly changing. The content and computing devices to which em users are exposed constitute only the surface of a massive underlying infrastructure of networks, services, and institutions that keep the Internet operational”].

40

deslizar, com vistas a compreender os fios que tecem o mapa dessa rede de redes tomando como foco seus recursos críticos. Nesse sentido, não se olha uma linha com a crença de que ela é a mais importante, a estrutural para a apreensão da realidade. Pelo contrário, uma linha é apenas uma linha. Ela ganha significado quando se relaciona a algo, como a confecção de um mapa24, um “sumário topográfico e geológico da batalha”; um sumário planialtimétrico do combate para efeitos de estudo, planejamento e viabilização desse e de novos combates; uma holografia e não fotografia da batalha capaz de contribuir com a composição de estéticas da existência vigorosas para lidar com certos mecanismos, o que abarca as novas tecnologias. Ao mesmo tempo, não se pode dizer que o poder não tem relevância no estudo do social senão desconsiderando as contribuições de Michel Foucault no momento em que sua preocupação investigativa estava centrada no poder. É tendo esses pontos em consideração bem como a perspectiva de Deleuze de leitura em intensidade que seleciono o poder como centro investigativo para a composição, ou melhor, para a projeção de um mapa sobre o governo da Internet, tomando como referência heurística Brasil e Estados Unidos (EUA) e como ponto de imersão a cibernética. Cada uma dessas referências contribui com a composição de sua governança. Os EUA possuem importância singular na construção da Internet e o Brasil assume progressivamente uma posição de referência no ecossistema internacional da gI. É desde essas zonas que da minha perspectiva se apresentam como mais frouxas, permeáveis, que deslizo no estudo a respeito da administração da Internet a partir do poder calcado, como se pode observar, num posicionamento eminentemente político de contribuir com o desvelamento de mecanismos que à primeira vista parecem incompreensíveis.

24 Como colocam Deleuze e Guattari ([1980a]: 30): “O mapa é aberto, é conectável em todas as suas dimensões, desmontável, reversível, suscetível de receber modificações constantemente. Ele pode ser rasgado, revertido, adaptar-se a montagens de qualquer natureza, ser preparado por um indivíduo, um grupo, uma formação social”; “Faça mapas, nunca fotos nem desenhos” (Deleuze e Guattari, [1980a]: 48).

41

Capítulo 1 – Cibernética e ciberespaço: aportes compositivos

Como começar pelo início, se as coisas acontecem antes de acontecer? Clarice Lispector ([1977]: 11)

1.1 – Imersão pela cibernética: composição do cosmos Ciberespaço, ciberguerra, cibercrime, cibersegurança, cibercafé, cibercultura, ciberterrorismo, ciberataque, todas essas expressões recorrentes na linguagem cotidiana possuem derivação na cibernética. Ela marca a passagem da era industrial para a informática ao criar condições teóricas de transição entre esses períodos históricos. Ainda que seja de conhecimento público é importante ter em mente que foi nesse segundo período que a Internet passou a ser desenvolvida e esteve suscetível às influências da cibernética. Esta trata de uma engenharia geral da comunicação que tenciona abarcar ciências humanas, físicas e biológicas. Uma de suas noções centrais é o feedback, expressão conhecida na mecânica e explorada, por exemplo, na regulação do motor a vapor por meio do calor marcado por um termostato – dispositivo utilizado para controlar a temperatura do sistema. O feedback é empregado também na cibernética para a compreensão da mecânica dos processos cerebrais. Com o auxílio dela, as fronteiras entre humano e máquina tornaram-se ainda mais instáveis25, algo que é do mesmo modo perceptível através do computador e sua capacidade de aprendizado – a qual será abordada neste capítulo. Conforme Turing [1950], embora a perspectiva mecânica estivesse presente nos primeiros computadores, o baluarte de seu desenvolvimento foi a informática. É conveniente lembrar que neste contexto histórico o humano já havia passado por diversas descentralizações, de modo que não poderia se colocar no centro do mundo senão com certo constrangimento. Isto porque Copérnico (1473-1543) evidenciou que o humano não poderia ser considerado o centro do universo; Darwin (1809-1882) que ele não era o centro do reino animal; e Freud (1856-1939) que o nível consciente, racional, ocupa espaço diminuto da mente humana. Ademais, Nietzsche (1844-1900), Dostoievski (1821-1881), entre outros, realizaram uma crítica severa ao pensamento ocidental e sua racionalização. Em suma, a conjuntura era favorável à associação entre humano e máquina, o que não impediu as

25 Ora, se a ciência toma como referência o evolucionismo para demonstrar uma unidade na natureza onde o humano é um fragmento desta, a cibernética coloca outra alinhavando organismos e máquinas (Bennaton, [1984]).

42

resistências a isso, resistências com as quais Turing [1950] dialogou e combateu no artigo Computadores e inteligência. Em meados de 1940 havia poderosas máquinas eletrônicas que eram capazes de processar e armazenar dados informacionais (Epstein, [1973]), um acúmulo de séculos sobre a máquina de computar que também colaborou com o crescimento da cibernética. Cibernética vem do grego κυβερνητική, e relaciona-se à arte de governar os homens (Machado [1952-59]). A concepção contemporânea dessa expressão foi adaptada por Norbert Wiener em 1948 (Machado [1952-59])26, deixando de se associar apenas ao humano para se referir também à máquina. Esta palavra não possui uma linearidade. Ela foi utilizada por Platão na obra Político (1979) com o sentido político de governo e posteriormente adotada no mesmo sentido por Ampére, no Ensaio sobre a filosofia das ciências [1834]; James Maxwell – um dos pais da teoria moderna do eletromagnetismo – emprega cibernética no artigo On Governors [1868] para determinar mecanismos de repetição. Wiener recorre à palavra cibernética oitenta anos depois para abarcar um campo vasto da teoria das mensagens que lida com o estudo da linguagem e das mensagens como meio de dirigir maquinaria e sociedade, uma nova teoria conjectural do método científico que tem como referência primordial Willard Gibbs – cientista americano que realizou contribuições importantes à matemática, física e química, e que trabalhou com Maxwell na criação da mecânica estatística. A cibernética é vista não apenas como uma teoria do método científico, mas também como a ciência do controle e da comunicação, no animal e na máquina; arte do comando – coordenação, regulação e controle – pautada no ímpeto de compreender como os sistemas se regulam, reproduzem, evoluem e aprendem, como eles se organizam (Pask, [1964]). Para além disso: “comunicação e controle fazem parte da essência da vida interior do homem, mesmo que pertençam à sua vida em sociedade” (Wiener, [1954]: 18). Desde já deve-se esclarecer que o controle sobre o qual a cibernética disserta é diferente da acepção recorrente nas humanidades. O controle é visto como aquilo que possibilita a comunicação e o desenvolvimento das coisas tendo como referência determinado limite, a manutenção de sua existência. A título de exemplo desses limites, temos os que devem se estabelecer na velocidade de rotação do motor do carro para que ele não exploda; os limites de esforço que, quando alcançados, o corpo “desliga” para não causar danos que comprometam o

26 “[H]oje: ‘estudo do funcionamento e da verificação das conexões nervosas no animal, das transmissões elétricas utilizadas nas máquinas de calcular modernas, dos comandos eletromecânicos’. Vocabulário adaptado em 1948 por N. Wiener” (Machado, [1952-59]: 597).

43

funcionamento de determinado sistema – homeostase. O sistema é um processador de mensagens ou informação, o qual pode ser representado por equivalentes e modelos (Bennaton, [1984]). Com base na investigação de determinado sistema seria possível realizar práticas que visam mantê-lo ou mesmo criar novos sistemas27. A cibernética tem uma inquietação perante o comportamento dos mecanismos e das máquinas, desde esquemas simples – como o funcionamento do cortador de grama e a ação reflexiva da ostra – até os complexos – como o modo de organização da economia mundial –, centrando a investigação no trânsito de dados e nos esquemas de controle existentes do sistema analisado (Bennaton, [1984]). Este tipo de preocupação permanece em pesquisas recentes, como na tentativa de traduzir o cérebro por meio da matemática28. Há a disposição de mapear o real através da ótica do sistema de troca de informação tendo em vista sistemas de controle e sistemas organizados (Epstein, [1973]). Para isso, os adeptos da cibernética se envolveram com diversas áreas do saber. Desse modo, ela assumiu um caráter interdisciplinar, relacionando-se com psicologia, sociologia, filosofia, biologia, fisiologia do cérebro, engenharia eletrônica, projeto de sistemas, pesquisa operacional, programação de computadores, entre outras áreas do saber (Pask, [1964]). Duas de suas hipóteses são as de que certos processamentos de dados e funções de controle semelhantes nos humanos e nas máquinas são equivalentes e redutíveis aos mesmos modelos e leis matemáticas (Kim, [2004]); e que é possível construir uma máquina cuja capacidade intelectual reproduz a dos seres humanos apoiada na compreensão operativa da fisiologia humana (Wiener, [1954]). Norbert Wiener ([1954]) afirma que o propósito da cibernética é criar linguagem e técnicas que possibilitem lidar com o problema do controle e da comunicação em geral bem como descobrir uma série de técnicas e ideias apropriadas para classificar as manifestações específicas através de determinados conceitos. Como se sabe, surgiram na história da ciência diversas correntes de pensamento que tentaram realizar sínteses semelhantes, entre elas o positivismo e o estruturalismo. Ainda que elas tenham contribuído com o aprimoramento científico, fracassaram na grande síntese diante da multiplicidade que compõe nossa realidade. De todo modo, apresento a cibernética

27 À primeira vista a cibernética pode assumir um caráter conservador, vigilantista, controlador. Todavia, convido o leitor a superar esse tipo de leitura e considerar que grande parte da produção científica não leva em consideração a dimensão política presente em determinados termos. Além disso, a noção de coordenação, regulação e controle acabam servindo como parâmetro para a cibernética, espécie de limite no trato da máquina e do homem com vistas a compreender o modo de funcionamento de determinados sistemas e mesmo desenvolver sistemas: “a cibernética trata tipicamente qualquer máquina dada, particular, perguntando não ‘que ação individual ela produzirá aqui e agora?’, mas ‘quais são todos os possíveis comportamentos que pode produzir?’” (Ashby, [1956]: 03). 28 Cf. A matemática traduzindo o cérebro (Toledo, [2015]).

44

em linhas gerais em razão das condições teóricas que ela ofereceu para o desenvolvimento tecnológico contemporâneo – como o aprimoramento do computador –, da noção de ciberespaço, Internet, informática, informação, entre outros. A partir dela, constituiu-se um embrião à comunicação entre os mais distintos ramos de produção acadêmica por meio de vocabulário singular e de um conjunto de conceitos que visavam representar sistemas diferentes. Ashby, um dos autores referência para a cibernética, defende na obra Introdução à cibernética [1956] que pelo fato de seu conjunto de conceitos corresponder a diversas ciências, seria possível estabelecer relação entre elas e, com isso, constituir paralelismos sugestivos entre máquina, cérebro e sociedade. Através de seus conceitos, a cibernética se afasta da visão linear de “causa e efeito” buscando um enfoque globalizante da realidade no qual vários fenômenos são capazes de serem compreendidos ao mesmo tempo, o que pode envolver máquinas e organismos no mesmo discurso (Bennaton, [1984]). Informação é um dos conceitos fundamentais para a cibernética na medida em que seu cerne reside na teoria das mensagens. É relevante lembrar que a informação e o complexo de conceitos que se vinculam a ela não são apropriados apenas pela cibernética, de maneira que sua visibilidade e difusão não podem ser consideradas como oriundas única e exclusivamente da cibernética.

1.2 – Conceitos e métodos Na leitura de Wiener [1954], a informação refere-se ao conteúdo do que se troca com o mundo exterior ao nos ajustarmos a ele e que também faz com que nosso ajustamento seja percebido pelo externo a nós. Este “mundo exterior” é relativo ao sistema analisado, podendo ser o que envolve o sistema respiratório do humano como também o sistema social de determinada cidade. A informação é o conteúdo dessa permuta entre exterior e sistema. Nesse processo, há por parte do sistema o recebimento e utilização da informação para acontecer o ajustamento ao meio ambiente. Este processo pode ser fundamental à existência do sistema. Por exemplo, ao subir a escada rolante, sei que no final do percurso há o nivelamento dos degraus até se encontrarem, formando uma superfície reta. Em fração de segundos essa superfície será tragada pelo mecanismo da escada e assim esses degraus seguirão o ciclo. Diante disso, respondo ao mundo exterior retirando meu corpo desse mecanismo antes que parte dele ou de minha vestimenta venham a ser engolidos pela escada rolante. No sentido inverso, a escada rolante pode ser tratada como um sistema. Hoje é comum encontrarmos escadas rolantes que operam em ciclos lentos e, ao perceberem que algum passageiro ocupa seus degraus, começam a realizar seu ciclo com maior velocidade.

45

Outro exemplo é quando tropeçamos e tentamos nos estabilizar para não cair. Nota-se que para o estudo da informação é necessário delimitar o sistema analisado e mesmo que tipo de informação se tem o interesse de estudar. Isto porque assentado na dimensão de sistema fica nítido como a realidade pode ser formada por inúmeros sistemas e, por conseguinte, como o mundo exterior também ganha amplitude. Para além da cibernética, informação pode se referir a uma medida quantitativa do conteúdo de informação, mensagem sujeita a ser processada por meios informáticos. Esse conteúdo possui uma unidade, uma unidade informacional chamada bit, locução inglesa de BInary digiT (dígito binário) datada de 1948 e considerada a menor unidade de informação capaz de ser armazenada ou transmitida. O bit é habilitado a ser incorporado no estudo sobre a cibernética por se tratar da unidade informacional e da sustentação construída com pares de oposição através da qual o sistema informacional se desenvolve. Como colocado, a cibernética é vista como uma teoria do método científico, uma forma de olhar a realidade, uma linguagem. Existem vários modos de olhar o mundo, sendo cada um deles uma possibilidade de compreender a multiplicidade que o compõe. Deleuze e Guattari fazem o exercício de visualizar o real através da máquina; Hermeto Pascoal se vale do som; John Forbes Nash dos códigos; e a cibernética da informação. Dentro desta perspectiva, dessa visão de mundo, ela desenvolve um método que extrai variáveis de uma multiplicidade. Embora autores como Émile Durkheim [1895] tenham almejado desenvolver as regras do método sociológico, não é o método que marca o fazer sociológico, mas os embates em relação a seus pressupostos transcendentais que geralmente são de cunho filosófico, seguido de teoria, metodologia, método e técnica para responder a essas questões. Em outras palavras, ao contrário da sociologia que não assume pressupostos transcendentais, teoria, metodologia e método em comum, a cibernética é mais feliz no seu esforço de constituir uma ciência por ter concepções de método em comum entre seus adeptos – ainda que não se possa considerá-la como uma ciência linear e sem contradições. Diante disso, torna-se palatável o aprofundamento na apreensão da cibernética através da explanação de noções que percorrem a edificação dos métodos utilizados por seus adeptos a partir da informática e da ideia de entropia, multiplicidade, sistema, equivalência, realimentação/feedback e entrada e saída (input/output). A entropia mede o nível de (des)organização do sistema: um sistema organizado possui um nível de entropia baixo, ao passo que o desorganizado alto grau de entropia. Sistemas com baixa entropia são pouco suscetíveis a influências do exterior, ao contrário dos

46

com alta entropia. Mas no limite, excesso e falta de entropia comprometem o sistema. A título de exemplo, preciso realizar o equilíbrio entre mensagens conhecidas e novas ao escrever um texto. Se escrevo um texto apenas com aquilo que é do conhecimento comum do leitor, minha escrita não transmitirá algo novo, não informará e, portanto, o processo de aquisição de conhecimento torna-se significativamente limitado. Em contrapartida, se o texto for composto por mensagens totalmente desconhecidas ele não conseguirá comunicar. Pois ainda que seja composto por informação não propicia a comunicação, de modo que quanto mais informativo é aquilo que transmito menos consigo comunicar. Portanto, quanto mais provável for a mensagem menor será a informação propiciada por ela (Wiener, [1954]). Podemos recorrer à literatura para melhor compreender a entropia. Na obra 1984, de George Orwell [1949], é descrita uma sociedade totalitária dividida em classes. A estória se passa na região do planeta chamada Oceânia, resultado da série de guerras que permaneceram existindo no momento em que a estória se passa. A Oceânia é formada por três classes: membros do núcleo do partido (minoria que ocupa posição dominante), membros externos do partido (classe média de Oceânia que desfruta de poucos benefícios) e proletas (maior parte da população e que possui excessiva carga de trabalho). A vigilância está presente nas três classes, as quais devem agir em concordância com o esperado. Qualquer deslize, mesmo a nível de pensamento, receberia uma punição violenta. Isto é, para realizar a manutenção da ordem social, recorre-se ao exercício de manter um baixo nível de entropia. Com isso, aquela sociedade tem dificuldades para lidar com informações que não estão circunscritas à repetitiva realidade cotidiana. Um dos fatores que contribuem com a baixa entropia de Oceânia é a eliminação ou síntese e ressignificação de diversas palavras. Em consonância com essa perspectiva e sem utilizar a expressão entropia, Durkheim [1895] defende em As regras do método sociológico que embora a coerção seja importante à existência da sociedade, esta permanecerá estática se não conseguir superar determinadas coerções sociais29.

29 Cf. em especial o terceiro capítulo: Regras relativas à distinção entre normal e patológico. Neste capítulo, Durkheim coloca o seguinte sobre o fato de Sócrates não ter respeitado determinadas coerções sociais de sua época: “Quanto mais fortemente pronunciada for uma estrutura, mais resistência ela oporá a qualquer modificação, e isso vale tanto para os arranjos funcionais como para os anatômicos. Ora, se não houvesse crimes, essa condição não seria preenchida; pois tal hipótese supõe que os sentimentos coletivos teriam chegado a um grau de intensidade sem exemplo na história. Nada é bom indefinidamente e sem medida. É preciso que a autoridade que a consciência moral possui não seja excessiva; caso contrário, ninguém ousaria contestá-la e muito facilmente ela se cristalizaria numa forma imutável. (...). Ora, o caso de Sócrates não é isolado; ele se reproduz periodicamente na história. A liberdade de pensar que desfrutamos atualmente jamais poderia ter sido proclamada se as regras que a proibiam não tivessem sido violadas antes de serem solenemente abolidas” (Durkheim, [1895]: 71-73).

47

Essa dimensão de entropia está presente em Gibbs, autor importante para a cibernética. Segundo ele, o universo tende probabilisticamente à elevação da entropia, deteriorando-se. Wiener ([1954]: 14) responde a isso do seguinte modo: “Todavia, enquanto o universo como um todo, se de fato existe um universo íntegro, tende a deteriorar-se, existem enclaves locais cuja direção parece ser o oposto à do universo em geral e nos quais há uma tendência limitada e temporária ao incremento da organização. A vida encontra seu habitat em alguns desses enclaves. Foi com esse ponto de vista em seu âmago que a nova ciência da Cibernética principiou desenvolver-se”. Portanto, seu exercício vincula-se à concepção de que a condição de existência da vida está nos enclaves que se opõem à tendência universal de aumento da entropia, enclaves que podem ser encarados como sistemas que resistem a sua destruição por meio da desorganização. Esse sistema pode ser formado por múltiplas variáveis e dependendo do nível dessa multiplicidade ele pode ser considerado um sistema complexo – inclusive Ashby [1956] aponta em determinado momento de Introdução à cibernética que a partir dali o sistema passaria a significar “uma lista de variáveis”30. Bennaton [1984] aponta que a teoria geral dos sistemas poderia trabalhar com um sistema de grande porte. A dificuldade está em desenvolver uma tecnologia capaz de lidar com esse montante de informação, algo que o advento tecnológico poderia resolver. O exercício da pesquisa na cibernética realizando a seleção de variáveis a serem investigadas pode ser visto como desvantagem. Mas, ao mesmo tempo, é o que possibilita a objetivação da pesquisa. Nas palavras de Ashby ([1956]: 47):

[C]ada objeto material contém nada menos do que uma infinidade de variáveis e, portanto, de possíveis sistemas. O pêndulo real, por exemplo, não tem apenas comprimento e posição; possui também massa, temperatura, condutividade elétrica, estrutura cristalina, impurezas químicas, alguma radioatividade, velocidade, poder refletor, força de tensão, uma película superficial de umidade, contaminação bacteriológica, absorção óptica, elasticidade, forma, gravidade específica e assim por diante. Qualquer sugestão de que deveríamos estudar ‘todos’ os fatos não é realista, e na verdade a tentativa nunca é feita. O que é preciso é escolher e estudar os fatos relevantes com respeito a algum interesse principal anteriormente dado.

Por isso a necessidade do corte, uma decomposição que torna o objeto possível de ser apreendido. Todavia, este corte não circunscreve a cibernética a uma dimensão de causa e efeito – conforme colocado. Ao contrário, ela trabalha com múltiplas variáveis. Pois não há uma única causa e um único efeito, mas um conjunto de eventos que se supõe estarem

30 “O sistema passa a significar agora, não uma coisa, mas uma lista de variáveis. Esta lista pode ser diversificada, e a tarefa mais comum do experimentador é diversificar a lista (‘levar outras variáveis em conta’) até encontrar um conjunto de variáveis que proporcione a singularidade requerida” (Ashby, [1956]: 47).

48

ligados. A compreensão do fenômeno resulta da análise dessa totalidade constituída por decantagem. E para a realização desse exame pode-se valer de sistemas equivalentes. Os sistemas equivalentes são aqueles que conseguem reproduzir o comportamento de outro, ou seja, trabalha com as mesmas variáveis que foram eleitas para o estudo de determinado sistema e pode ser de outra natureza, contanto que esteja condicionado às variáveis selecionadas. A análise da cibernética é dedutiva, pois parte do comportamento da totalidade e tenta extrair informações a respeito de sua composição (Bennaton, [1984]). Um exemplo que deixa esse processo claro é o exercício da caixa-preta, presente em cursos de informática, eletrônica, entre outros. Trata-se de analisar uma caixa opaca sem o conhecimento de sua estrutura interna, mas apenas do que aquele sistema responde a determinado estímulo. Isto posto, se faz testes tendo em conta a entrada e a saída da caixa. Por exemplo, se for uma caixa com circuitos elétricos compostos com resistores, posso enviar uma carga na entrada da caixa- preta e medir quanto dessa carga saiu. Fica evidente a necessidade de delimitar o que seria entrada e saída do objeto de análise bem como as variáveis que serão relevantes à pesquisa. Os objetos investigativos da cibernética não são efetivamente caixas-pretas como a apresentada acima, mas são totalidades recortadas, sistemas nos quais há a separação entre interior e exterior, e meio de comunicação entre dentro e fora que se dá pela entrada e saída do sistema. Através dessas delimitações, objetiva-se compreender o comportamento do sistema, independendo de sua natureza – elétrica, orgânica, social, econômicas, etc. (Bennaton, [1984]). Em sistemas complexos como robôs – dispositivo lógico que coordena informações para obter determinados resultados – e humanos, há a presença da realimentação ou feedback: capacidade de ajustar a ação futura considerando a experiência passada; estratégia de corrigir na entrada do sistema os desvios detectados em sua saída. Há uma gradação na realimentação, podendo ser algo simples, como um reflexo comum, ou de ordem superior, onde a experiência passada não só regula movimentos específicos como também toda uma política de comportamento. Para Wiener [1954], há o processo denominado aprendizagem neste segundo caso, no qual a informação referente ao desempenho é capaz de mudar o método e o padrão geral de desempenho. Nesta acepção, as máquinas aptas a realizarem uma realimentação complexa são capazes de apreender. Wiener defende que o funcionamento físico do indivíduo vivo e de algumas máquinas de comunicação mais avançadas teriam um esforço paralelo de dominar a entropia por meio da realimentação. À guisa de exemplo, certas práticas cotidianas podem ser consideradas realimentações. Quando

49

passo por um piso molhado, tendo a andar cautelosamente através dele pelo fato de ter me contundido quando não me atentei a essas condições da superfície. Mas essa “experiência” passada poderia ser a recomendação de outra pessoa. De todo modo, dependendo da atenção por onde caminho, simplesmente não acionarei experiências passadas para lidar com essa condição da superfície e poderei levar um tombo; andarei nas pontas dos pés; evitarei passar pela superfície molhada; etc. Portanto, é evidente a presença da ação complexa nas práticas humanas, as quais se dão quando os dados introduzidos no sistema podem implicar um número significativo de combinações (Wiener, [1954]). E tanto em sistemas complexos quanto nos simples as experiências ficam armazenadas na memória. A memória é entendida por Ashby [1956] não como uma propriedade objetiva do sistema, mas como um conceito invocado pelo observador para preencher aquilo que não é acessível ao mesmo. E quanto menos variáveis observáveis, mais o observador deverá considerar que experiências passadas têm relação com o comportamento do sistema. Já Wiener ([1954]: 34) estabelece a relação entre a memória do organismo vivo e da máquina por meio, respectivamente, das sinapses e do dispositivo comutador da máquina, os quais seriam em parte o fundamento da analogia entre máquinas e organismos vivos. A partir dessa breve exposição sobre o que subjaz na dimensão conceitual e de método na cibernética, torna-se evidente que não há um consenso sobre essas dimensões. De todo modo, é perceptível o delineamento da cibernética através daquilo que é seu objeto de interesse assim como no compartilhamento de certos elementos na composição do método e de conceitos, de modo que os autores referidos se complementam em vários pontos. Tanto a interdisciplinaridade quanto a multiplicidade marcam a cibernética, a qual opera através do exercício de decomposição do sistema – compreendido como processadores de mensagens ou informação e também “lista de variáveis” – com objetivo de executar uma pesquisa sobre a linguagem e as mensagens como forma de governar maquinaria e sociedade; preocupada com controle e comunicação que objetiva apreender o modo de regulação, reprodução, evolução e aprendizado desses sistemas e como eles se organizam. Enfim, a cibernética possui uma curiosidade acerca do comportamento de mecanismos e máquinas centrada no fluxo de informação e nos modos de controle presentes no sistema analisado. A informação é apreendida como o conteúdo daquilo que é trocado com o exterior ao nos regularmos a ele (feedback), sendo necessário delimitar detalhadamente o sistema analisado e o tipo de informação que se tem interesse de estudar diante da realidade que é múltipla bem como um sistema que também pode ser múltiplo, complexo. Diante dessa demarcação, se extrai variáveis da multiplicidade tendo em vista os conceitos apresentados acima e o

50

desconhecimento prévio do modo de operação do objeto analisado. Delineia-se assim, ainda que tenuamente, a cibernética, sua teoria conjectural do método científico; uma ciência que se realiza com a premissa de que a vida tem seu habitat em enclaves, os quais se opõem à tendência de deterioração do universo através da entropia. E consoante ao que foi colocado, esta ciência teve seus limites de objetivação, não conseguindo alcançar na prática aquilo que tinha como teoria.

1.3 – Entropia na cibernética: deterioração e influências Conforme posto, o projeto da cibernética se preocupava com a transdisciplinaridade, assim como as ciências que buscam constituir grandes sínteses. Diante do extenso processo de ultraespecialização que domina o conhecimento científico, projetos como o da cibernética perdem força explicativa, não conseguindo acompanhar e sintetizar o desenvolvimento científico. Seu empreendimento não teve forças para continuar, mas o conhecimento produzido por ela obteve. Este se dispersou em várias áreas do saber científico: “[l]ogo, os objetos próprios à cibernética lhe foram roubados por larápios mais eficazes, proprietários de códigos aprimorados e tecnologias de tradução e modelização por ela desconhecidas” (Masaro, [2010]: 202). Aquilo que deveio dela permanece em distintas frentes da ciência, reverberando em nossas práticas cotidianas. Exemplo disso é a presença da cibernética no processo de transição em que a informação assume centralidade, marcando a passagem do período industrial para o da informática que, em última instância, relativiza a fronteira entre os saberes. Nesse sentido, a cibernética foi feliz ao desafiar a rigidez entre as fronteiras que a tradição corrobora em manter. Para além disso, ela contribuiu com diferentes acontecimentos, entre eles a computação, a transição do mecânico para o digital, confirmação da existência de operações binárias no pensamento científico, estímulo para o subgênero literário cyberpunk e o ciberespaço. Por isso que a cibernética é importante na presente pesquisa, porque seu desenvolvimento fundamentou nosso contexto, servindo assim como um entre os múltiplos pontos por meio dos quais é possível constituir o cosmos deste trabalho. Bennaton [1984] informa que o aparato teórico da cibernética era utilizado em sua época para dar conta de problemas dos mais complexos e variados, como o estudo de redes neurais, controle da trajetória de satélites, previsão de safras e ecologia das populações. Isso se relacionaria ao crescimento da indústria de computadores, a qual possui uma relação simbiótica com a cibernética: “[e]la necessita destas máquinas para simular sistemas ou implementar teorias. E, por outro lado, a fabricação de computadores só pode ser bem

51

norteada se o for pelos desígnios da Cibernética” (Bennaton, [1984]: 85). Em poucas palavras, o computador pode ser compreendido como uma máquina de processamento de dados capaz de obedecer a instruções com vistas a alcançar determinado fim (Neiva, [2013]). De Wiener, podemos extrair o seguinte sobre as máquinas computadoras:

Neste livro [Cibernética e Sociedade], e alhures, eu disse repetidas vezes que a máquina computadora de alta velocidade é, basicamente, uma máquina lógica, que confronta entre si diferentes proposições e extrai-lhes algumas das consequências. (...). Contudo, esta máquina computadora, além de realizar tarefas matemáticas comuns, será capaz de empreender a tarefa lógica de encaminhar uma série de ordens referentes a operações matemáticas. Por isso, como de fato acontece com as atuais máquinas computadoras de alta velocidade, ela conterá pelo menos um grande conjunto puramente lógico (Wiener, [1954]: 151-152).

Como se pode observar, o computador digital permanece com os mesmos princípios. E quanto mais se complexifica, menos domínio temos do seu funcionamento e sobre seu modo de operação, trabalhando com aquilo que a superfície amigável deste dispositivo nos oferece, como navegar na Internet e escrever um texto. Enfim, estamos habituados a nos valermos dessa maquinaria em conformidade com o que nossos aplicativos nos possibilitam, de tal maneira que geralmente o acesso à máquina computadora não é direto. A grande desvantagem disso diz respeito à usabilidade do computador, os limites colocados por aqueles que mediam nossa utilização do mesmo, como os aplicativos. Ou seja, aquilo que facilita o uso do computador contribui também com certa limitação na sua utilização. E o mesmo se pode dizer da Internet. De modo geral, concebe-se o computador como uma máquina informática. No entanto, antes das máquinas informáticas existiam máquinas computadoras mecânicas, de modo que o computador também transitou da mecânica à informática, sendo uma máquina de destaque nesse processo de transformação. Em 1822, Charles Babbage (1791–1871) – matemático inglês – apresentou o modelo de uma máquina mecânica capaz de resolver equações polinomiais. Ela recebia, processava e armazenava dados sem intervenção de operador humano, cabendo ao mesmo apenas iniciar a cadeia de operações. Esta era a máquina diferencial31, fruto dos processos decorrentes da revolução industrial, onde o automatismo já estava presente no tear de Joseph-Marie Jacquard (1752–1834), em 1801, automatismo esse que se dava por meio da leitura de cartões perfurados com comandos necessários para a tecelagem de padrões em tecidos. Esses cartões também foram utilizados

31 Para assistir o funcionamento da máquina proposta por Babbage em 1847, cf. Babbage Difference Engine in Motion [2011], disponível em: . Acesso em 17 dez. 2015. Esta máquina está no Museu da História do Computador, Califórnia, Estados Unidos.

52

posteriormente para fornecer comandos aos computadores, e em 1958 a IBM lançava um produto prático para preencher manualmente uma placa como se fosse um cartão perfurado, o Port-A-Punch (IBM, online). Babbage também teve o projeto de um computador digital: a máquina analítica. Suas ideias foram lançadas em 1833, mas esse matemático inglês não teve condições de construí-la. Alan Turing (1912-1954), matemático, lógico, criptoanalista e cientista da computação, também teve um papel importante no aprimoramento do computador ao auxiliar na constituição de um dos primeiros computadores digitais de alta velocidade, colaborando com essa transição do computador para a informática. Em artigo publicado no ano de 1936, Turing apresenta o modelo abstrato de um computador, a universal computing machine (máquina de computação universal) ou somente universal machine (máquina universal). Ancorado nessa referência e em outros conhecimentos, Turing constrói durante a Segunda Grande Guerra uma máquina capaz de revelar o conteúdo das mensagens criptográficas do Eixo. Esse matemático vai além disso ao dissertar sobre as máquinas pensantes, fortalecendo a reflexão acerca da interação entre humano e máquina por meio da seguinte questão: podem as máquinas pensar? Turing faz isto no célebre texto Computadores e inteligência32 [1950], apresentando princípios essenciais para o funcionamento do computador e descrevendo concisamente sua forma de operação. Para ele, o computador digital poderia ter sua constituição dividida usualmente em três partes: memória, unidade executiva e controle33. Por meio dessas partes bem como de um livro de regras, uma tabela de instruções – conhecido também como programa –, a máquina seria capaz de aprender no processo de realimentação. Ou seja, esse mecanismo faz com que a máquina seja capaz de aprender34 35. Nesse sentido, para conseguirmos desenvolver uma máquina que imite o comportamento do computador humano precisaríamos levar em consideração as três partes do computador, saber como ele é feito e, a partir disso, traduzir esse mecanismo para uma tabela de instruções com o que a

32 Na minha perspectiva, este é um texto referência que marca a introdução do novo cosmos que consegue envolver a sociedade contemporânea, artigo relevante para introduzir a reflexão sobre o computador e a inteligência artificial. Nesse sentido, da mesma maneira que o texto acadêmico A questão da análise leiga (Freud, [1926]) contribui com a introdução não apenas da psicanálise como também do inconsciente para não iniciados, o texto de Turing introduz elementos que percorrem nosso modo de ser e de agir no que diz respeito à tecnologia. 33 Cf. Turing [1950], especialmente, p. 54-5. 34 Este tipo de leitura referente à máquina era presente também em pesquisas brasileiras, como nos mostra um artigo de 1966, de Epstein, no qual sustenta que “aprender” não deve se relacionar exclusivamente ao organismo vivo, defendendo a expansão de seu conceito ou a invenção de palavras que possibilitem pensar em um aprender para além desse organismo. 35 Para aprofundamento no debate acerca da relação entre humano e máquina, cf. significativa contribuição de Donna Haraway em seu Manifesto Ciborgue [1983] e em outros textos que compõem a versão brasileira da obra que o referido manifesto compõe. Desenvolvo isso de maneira introdutória no primeiro capítulo da minha dissertação (Cf. Silveiras, [2014]).

53

máquina deve fazer. A inteligência artificial se relaciona a isso, embora com uma complexidade menor que essa no que diz respeito à semelhança das operações realizadas pelo humano. A tradução disso acontece por meio do bit. Como posto, o bit é uma unidade informacional. Para Nicholas Negroponte ([1995]: 19), um dos fundadores do MIT Media Lab, bit é o menor componente do DNA da informação. No entanto, enquanto o átomo possui propriedades físicas, o bit possui propriedades informacionais. O bit pode receber dois valores, sendo geralmente representado por 0 e 1, mas poderia ser sim e não, α e β, + e ‒, cima e baixo, etc. Ele compõe as mensagens, a informação transmitida ou armazenada em forma de dados. Esta pode ser de diferentes tipos, como imagem, áudio e vídeo, todos transformados em 0 e 1. Depreende-se disso que um ponto forte da informação é a possibilidade de ela servir como substrato comum à matéria inerte, sendo utilizada tanto para elementos orgânicos quanto inorgânicos, flexibilizando as fronteiras estabelecidas pela sociedade moderna entre natureza e cultura (Santos, [2001]). E há um limite de transmissão de bits por segundo em um canal qualquer – como cabos de fibra óptica e fio de cobre –, chamado de largura da banda, a qual tende a se alargar durante o devir histórico. Hoje há a intensificação dos fluxos informacionais, o que nos faz pensar em uma sociedade mais conectada, informatizada. Contudo, isso não pode nos conduzir à concepção de que o centro está no digital. Pelo contrário, a dimensão atômica permanece relevante. O bit apresenta-se como mais um elemento que compõe nossa realidade, de maneira que parece deslocado tentar desvencilhar um do outro senão a partir de um processo de decantação necessário a determinada análise investigativa. E, em última instância, basta desplugar certas tomadas para a Internet deixar de existir, essa teia informacional na qual o digital circula com intensidade. A nível de comparação, é difícil determinar o tamanho do bit ao confrontá-lo com o átomo. Uma das possibilidades disso se dá por meio do armazenamento, ou seja: quantidade de átomos necessários para armazenar um bit. Segundo experimento realizado em 2012 (Loth et al., [2012]), 1 bit equivale a 12 átomos. É uma medida que se modifica no tempo e que no futuro próximo um 1 bit poderá ocupar menos do que essa quantidade de átomos. É instigante pensar que o computador opera por esse par de oposição e como a multiplicidade de utilização da Internet, uma das maquinarias que a informática ajudou a compor, depende disso; é como se a multiplicidade deviesse de 0 e 1 e não o contrário36. Na

36 Ora, os pares de oposição são relevantes no pensamento humano, mas não podemos nos circunscrever a ele. Mesmo a computação não se prende aos pares de oposição. Um exemplo claro disso é o desenvolvimento da

54

Internet lidamos com a ponta de um complexo processo que toma hoje como referência o binário, uma multiplicidade que devém de uma referência a um par de oposição. Nesse sentido, ela poderia servir como uma alusão ao estruturalismo na medida em que este defende que o pensamento do humano se realiza por meio de pares de oposição. Mas ao contrário de todo o empenho do estruturalismo para comprovar isso, do esforço da abordagem estruturalista em evidenciar “invariantes ou elementos invariantes entre as diferenças superficiais” (Lévi-Strauss, [1978]: 20), tanto na Internet quanto no computador os pares que se opõem – os zeros e uns – são condições para seu funcionamento, pressupostos dessas tecnologias justamente por estarem em sua matriz. Em poucas palavras, não é necessário provar que a Internet devém do 0-1, pois isto acontece ao menos até o momento. E o próprio Lévi-Strauss reconhece a importância da cibernética e do computador – representantes do mundo científico – para demonstrar a presença das operações binárias no contemporâneo, ratificando que não haveria uma dissociação entre ciência e mitologia, pois esta também operaria por pares de oposição (Lévi-Strauss [1978]: 37-8). Para além da relação entre binário, estruturalismo e ciência, é intrigante pensar também na infinidade de zeros e uns que trafegam naqueles cabos que saem do nosso computador e em fração de segundos chegam e compõem no computador de outra pessoa nossa própria imagem, um arquivo, áudio, etc. Trafega-se pela rede a informação em forma de dado, cujo conteúdo pode ser trocado com o mundo exterior ao nos ajustarmos a ele e que também faz com que nosso ajustamento seja percebido pelo externo a nós, ou bits. Conforme colocado, a informação passa a assumir certa centralidade no devir histórico e, por conseguinte, agrega valor tanto subjetivo quanto a nível social, comercial, de forma que consegue ser convertido em valor econômico. Quando Mark Zuckerberg comprou em 2014 o aplicativo WhatsApp pelo montante de U$22 bilhões, parecia um valor desmesurado para um aplicativo que não ganha dinheiro com propagandas a seus usuários e que permanece gratuito para os mesmos. O que está no centro de relevância desse aplicativo é, em grande medida, o acesso a metadados preciosos, informação, tráfego de dados entre seus usuários e a quantidade de atores que utilizam o aplicativo – os quais foram traduzidos a partir da referida cifra. Diante disso, concordo com a afirmação de que “a informação enquanto diferença que faz a diferença reconfigura o trabalho, o conhecimento e a vida,

computação quântica. Se na computação clássica a informação é processada por bits que são apresentados como 0 e 1, na quântica os qubits são capazes de assumir diversos estados entre 0 e 1 a partir de um fenômeno chamado superposição. Seria a retomada do múltiplo à multiplicidade depois da passagem por uma disposição binária?

55

enquanto a virada cibernética transforma o mundo num inesgotável banco de dados” (Santos, [2001]: 17). Há, como se pode observar, a reconfiguração do mundo em informação, sendo esta o ponto forte da cibernética e da virada cibernética37, e que caminha na contramão da especialização científica – como apresentado acima. É certo que essa virada afeta não apenas o modo de desenvolvimento tecnológico como a própria técnica, produção, economia, cultura, interação, enfim, a virada cibernética afeta também o modo de ser e agir do humano em sentido amplo. Vivemos em um mundo que se complexifica, sendo que nosso presente devém de um passado e é atualizado na interação com o mundo, onde carta, telegrama, telefone fixo compõem um mesmo quadro que e-mail, SMS (short message service) e smartphone, uma composição por justaposição. E determinados modelos de negócio perseveram mesmo com a virada cibernética, como é o caso da propriedade intelectual. Negroponte afirma em 1995 que a lei do direito autoral estaria ultrapassada; ela provavelmente sucumbiria antes mesmo de ser corrigida38. Depois de mais de 20 anos os direitos autorais estão presentes em antigas e novas tecnologias punindo, por exemplo, aquele que fotocopia indevidamente um livro ou baixa da Internet conteúdos piratas39. A disputa de patentes também é outra briga que aparece com periodicidade nos noticiários, em especial as disputas entre líderes de mercados de smartphones, como o embate entre Samsung e Apple40. Na leitura de Laymert [2001], a propriedade intelectual foi a saída jurídica para proteger a inovação fundada em manipulação genética ou digital, o que é possível ao transferir para esse

37 “‘Enquanto a especialização científica impedia as possibilidades de comunicação, nem que fosse por causa de linguagens diferentes entre especialistas de diferentes ciências, a cibernética, em contrapartida, resultava de vários homens trabalhando em equipe e tentando entender a linguagem uns dos outros. [...] a presença de médicos, de físicos e de matemáticos eminentíssimos nessa equipe mostrava que se produzia no campo das ciências algo que sem dúvida não havia existido desde Newton pois [...] Newton pode ser considerado o último homem de ciência a haver coberto todo o campo da reflexão objetiva. [...] Com efeito, historicamente, a cibernética surgiu como algo novo, querendo instituir uma síntese’” (Simondon apud Santos, [2001]: 12). 38 “A lei do direito autoral está totalmente ultrapassada. Trata-se de um artefato gutenberguiano. Como se trata de um processo reativo, é provável que sucumba inteiramente antes que se possa corrigi-la. A maior parte das pessoas preocupa-se com os direitos autorais em razão da facilidade de se fazerem cópias. No mundo digital, a questão não é apenas a facilidade, mas também o fato de que a cópia digital é tão perfeita quanto o original, e, com o auxílio do computador e de alguma imaginação, até melhor. Da mesma forma que séries de bits podem ter seus erros corrigidos, pode-se também limpar, melhorar e libertar uma cópia de quaisquer ruídos. A cópia é perfeita. A indústria da música sabe disso muito bem, e o fato de a cópia ser perfeita tem motivado a demora no lançamento de muitos produtos eletrônicos, notadamente do DAT (Digital Audio Tape, a fita cassete digital). Talvez isso não faça sentido algum, pois a duplicação ilegal de fitas parece já feroz, mesmo com cópias imperfeitas. Em alguns países, 95% das fitas de vídeo vendidas são pirateadas” (Negroponte, [1995]: 62). 39 No que diz respeito ao meu posicionamento acerca do acesso à informação em países emergentes e pirataria, cf. Silveiras e Schiavetto [2012]. 40 Há uma infinidade de disputas de patentes entre essas empresas, cf., entre outros, Guerra das patentes: nos processos movidos pela Apple contra a Samsung, a estratégia é seguir o mantra de Steve Jobs e “destruir o Android” (Mendonça, [2012]), Apple wins appeal over smartphone patents (BBC, [2015]), Samsung recorre à Suprema Corte em disputa de patente contra Apple (O Globo, [2015]) e Apple vence Samsung em “nova disputa” por patentes na justiça dos EUA (Müller, [2015]).

56

campo o regime de patentes, o qual estava em vigor apenas na esfera industrial. Portanto, ao contrário do que colocava Negroponte, a propriedade intelectual conseguiu se atualizar na virada cibernética e privatizar até mesmo aquilo que antes poderia parecer impensável, como o nível genético. Todo esse movimento que relaciona em essência bits a partir da perspectiva cibernética influenciou também um subgênero da ficção científica chamado cyberpunk que em certa medida corroborou com a relativização da fronteira entre humanos e máquinas, e com a visualização da Internet na fronteira entre realidade e fantasia através da concepção de ciberespaço, trazendo a imagem da Internet como um possível vir a ser. O termo cyberpunk foi criado pelo escritor Bruce Bethke em 1980 e deu título a uma pequena história publicada por ele no mesmo ano; a palavra é a junção de punk – movimento contestatório marcante na época – com a alta tecnologia. A partir desta expressão que escritores como William Gibson e Bruce Sterling desenvolveram o referido subgênero da ficção científica durante a década de 1980. Nesta corrente literária reinava a alta tecnologia – como as tecnologias de informação e a cibernética – e o baixo nível de vida (“high tech, low life”), decadência social. Em obras como Neuromancer, de William Gibson [1984], é traçado um futuro social global e caótico, distópico, no qual as empresas possuem centralidade marcante nas relações de poder, a alta tecnologia está vulgarizada às diversas camadas sociais e onde a fronteira entre real e virtual é relativizada, em especial assentado na concepção de ciberespaço41. Em Neuromancer, ciberespaço é uma alucinação consensual de vários atores, uma complexidade informática abstrata: “Uma alucinação consensual vivenciada diariamente por bilhões de operadores autorizados, em todas as nações, por crianças que estão aprendendo conceitos matemáticos... uma representação gráfica de dados abstraídos dos bancos de todos os computadores do sistema humano. Uma complexidade impensável. Linhas de luz alinhadas no não espaço da mente, aglomerados e constelações de dados. Como luzes da cidade, afastando-se...” (Gibson, [184])42. E Case, personagem principal do romance, afirma que o ciberespaço é tão ou mais real que a própria realidade. Para escrever a referida obra, Gibson aproveitou seu contexto e se inspirou em filmes como Blade Runner (Steven Lisberg) e Tron (Ridley Scott), ambos de 1982, sendo este um dos primeiros filmes a tratar da realidade virtual. Neuromancer é fundamental para o

41 Gibson utiliza o prefixo ciber para uma diversidade de palavras. Por exemplo, antes mesmo de incorporar a palavra ciberespaço nos seus escritos em Queimando Cromo (Gibson, [1982]), ele trabalhou em Johnny Mnemônico (Gibson, [1981]) com expressões como cibersistemas e ciberminas. 42 Nota-se que nesta definição não há centralidade da rede, ao contrário do que vemos hoje a partir de corporações e por meio dos Estados na Internet, algo que faz diferença na relativização entre virtual e real, conforme colocado em outro momento (Silveiras, [2014]).

57

desenvolvimento do movimento cyberpunk. A preocupação central de Neuromancer não era a de descrever como seria o futuro, mas pensar em como a tecnologia nos modifica ou mesmo fracassa em suas tentativas de nos modificar, de tal modo que geralmente os desenvolvedores dessas tecnologias não são capazes de antecipar isso (Gibson, [2014]). O exemplo é a defesa em Neuromancer de que embora houvesse um sistema complexo com dados estatísticos de humanos, um dos grandes sistemas de computação de dados errava em suas previsões e não conseguia lidar com um ato gratuito43. O curioso é que assim como as demais pessoas que não compunham os círculos acadêmicos da alta tecnologia computacional, Gibson não tinha experiências com vírus e computador no momento em que escreveu a obra. E a ignorância do computador foi fundamental para a criação do livro, conforme alega na seguinte passagem:

(Quando me ouço tentar explicar isso, imediatamente fica claro que não tenho ideia de como computadores realmente funcionam – isso tem sido um grande barato para mim). De qualquer maneira, só depois que o livro saiu eu conheci pessoas que realmente sabiam o que era um programa de vírus. (...). Quando eu estava escrevendo Neuromancer, era maravilhoso amarrar muitos desses interesses à metáfora para a memória humana. Só quando finalmente pude comprar um computador próprio descobri que havia um mecanismo de engrenagens em seu interior – aquela coisinha que fica girando. Eu estava esperando uma coisa cristalina exótica, um console de ciberespaço ou algo parecido, e o que recebi foi um pedacinho de motor vitoriano, fazendo barulhos como um disco velho arranhado. Esse ruído tirou um pouco da mística para mim e tornou o computador algo menos sexy. Minha ignorância havia permitido que eu os romanceasse (Gibson apud McCaffery, [1986]: 398-399)44.

Diante dessas colocações, torna-se sensível ao imaginário como era o contexto de Gibson no que diz respeito ao acesso às tecnologias de ponta. Mesmo com esse “desconhecimento”, o movimento literário do qual fazia parte e sua difusão na sociedade contribuiu com a popularização de elementos cibernéticos no cotidiano das pessoas. Desse modo, o cyberpunk tem papel relevante na composição do ideário social que aceita e naturaliza em certa medida a relação do humano com as altas tecnologias, favorecendo a compreensão do que seria a Internet. De outro ponto de vista, a própria concepção de

43 Há várias passagens interessantes sobre isso. Transcrevo aqui o fragmento da fala de Peter Riviera, personagem de Neuromancer: “Ele [Wintermute, um grande sistema computacional] não consegue realmente nos entender, você sabe. Ele tem seus perfis, mas são apenas estatísticas. (...) eu possuo uma qualidade inquantificável pela própria natureza. (...). Perversidade. (Ele voltou até onde as duas mulheres estavam, sacudindo a água que permanecia no denso cilindro escavado de cristal e rocha, como se gostasse do peso da coisa) O desfrutar de um ato gratuito. E tomei uma decisão, Molly, uma decisão totalmente gratuita” (Gibson, [1984]: 267). É certo que a existência do “ato gratuito” suscita um interessante debate que não tenho a intenção de desenvolver aqui. Sobre o assunto, cf. o texto É possível um ato desinteressado?, de Pierre Bourdieu [1988]. 44 Nesse caso, a ignorância quanto ao funcionamento do computador foi importante para a construção do novo. Hoje sabe-se o que a não compreensão dos mecanismos e atores que sustentam a Internet é o modus operandi, de maneira que questiono o que esse tipo de conhecimento em um número massivo de usuários poderia nos proporcionar.

58

ciberespaço atravessa a academia. Michael Benedikt organizou o livro Cyperspace: first steps (Benedikt, [1991]) que visava problematizar a definição de ciberespaço. O livro contém vários autores dissertando sobre o assunto, inclusive William Gibson. Há também o trabalho organizado por Lucia Leão dedicado ao ciberespaço intitulado Derivas: cartografias do ciberespaço (Leão, [2004]).

1.4 – Comunicação e controle da rede Como se pode notar, o presente capítulo fez o movimento de apresentar a cibernética considerando sua proposta, teoria, métodos e conceitos caros a ela, o contexto no qual estava inserida, as áreas com as quais dialoga e das quais absorveu variados elementos. A partir disso, foram evidenciados seus limites e sua consequente fragmentação bem como suas contribuições em diversas áreas do saber e no âmbito social. Isto se fez ciente de que a influência entre cibernética e outras esferas é mútua, bidirecional, ainda que ela não tenha sido feliz em seu processo de realimentação. É perceptível como nosso contexto se configura, como em determinados momentos aparece uma área do saber que em alguns anos simplesmente perde força enquanto ciência, força esta que se pulveriza nas esferas do saber; versátil; preocupada com a comunicação e controle na máquina, animal e sociedade, sendo que, orientada por esta inquietação, fez contribuições à relativização de fronteiras, estimulando a aproximação entre “distantes”; uma ciência que tem como meta mapear a realidade a partir da perspectiva de troca de informação considerando tanto sistemas de controle como sistemas organizados, comunicação entre sistemas e mundo exterior – sendo ambos relativos e múltiplos, de onde se deve extrair variáveis para analisá-las; interdisciplinar, realizando diversos acoplamentos para sua constituição e desdobramento; preocupada com a constituição de uma linguagem comum entre diversas áreas do saber; enfim, mais um modo de olhar o mundo, uma linguagem de apreensão da realidade que visa compreender aquilo que em primeira instância pode ser total ou parcialmente desconhecido. Deve-se notar que houve um contexto para a cibernética emergir, elementos que favoreceram seu aparecimento – como frutos decorrentes da revolução industrial, aceleração da aceleração da evolução tecnológica, informática, desenvolvimento da alta tecnologia, entre outros –, e outro que desfavoreceu sua permanência – como o processo científico de ultraespecialização. Embora a cibernética e suas ressonâncias tenham demarcado o capítulo, o leitor certamente percebeu que a preocupação aqui não é com o traço histórico da cibernética, mas com suas mais diversas contribuições. Essas contribuições auxiliam na fundamentação de

59

nosso contexto histórico, bem como na compreensão das maquinarias, na comunicação entre elas e de nós com elas, e dos conceitos que nos circundam. Pois, como colocado, a cibernética é a ciência que influi no trânsito da sociedade industrial para a informática – a qual possibilita a comunicação das multiplicidades das pontas através de pares de oposição – criando condições teóricas para a transição desse período, ou seja, contribuições que foram cruciais para o contemporâneo em um amplo sentido e afetando diretamente nosso cotidiano sem que necessariamente tenhamos ciência disso. Há o processo inverso, pois do mesmo modo que a cibernética afetou o “mundo exterior”, este a afetou e ela não conseguiu suportar tal processo, esse sistema não conseguiu se sustentar perante a dinâmica de ultraespecialização proposta pela vertente científica dominante na qual os movimentos de síntese seguem um processo de particularização, caminho inverso do que propunha a cibernética. Ou seja, ela encontra uma conjuntura favorável ao seu desenvolvimento até certo ponto, contexto que abarca parte de suas considerações e o absorve sendo marcado pela cibernética. Nesse quadro, passado e presente se unem e constituem o novo, o devir, do mesmo modo que junções de áreas tecnológicas distintas possibilitam o novo. No entanto, a cibernética enquanto proposta de ciência some, por assim dizer. Mas a partir da cibernética torna-se palatável a apreensão do modo de operação dos computadores e de outros sistemas complexos. Por outro lado, a informática foi feliz em sua síntese, na convergência digital, conseguindo agregar uma série de tecnologias em infinitos zeros e uns comunicacionais, e inclusive agregando valor econômico à informação digital. Isso contribui com o surgimento do contexto no qual a sociedade parece conectada, visto que grande parte das instituições e da população mundial navegam por uma rede de redes de computadores, onde a informação está em suas entranhas. Ao mesmo tempo em que práticas cotidianas foram traduzidas para a Internet, como enviar e-mail ao invés de carta, videochamada em oposição ao telefonema, jogos online ao invés de jogos de tabuleiro, as práticas pré Internet permanecem existindo, algo que evidencia como nossa realidade se constitui a partir da composição por justaposição, o que é significativamente complexo e multifacetado. Ora, tendemos a naturalizar a utilização da rede mundial de computadores assim como a constituição complexa de outros acontecimentos que compõem nosso cotidiano e que na grande maioria das vezes sequer sabemos produzir, algo que é fruto da ultraespecialização, a qual oferece o contato com tecnologias que em contrapartida geralmente não entendemos o modo de operação. E nos aproximamos a naturalizar também esse desconhecimento, podendo tornar a Internet algo invisível, de modo que é concebível intitular uma tecnologia de Internet das Coisas (IoT) ao invés de Internet nas coisas. Há consequências em relação a isso. Assim

60

como no desenvolvimento de outras tecnologias, os cientistas envolvidos não tinham em mente as proporções das consequências que aquela determinada tecnologia poderia gerar no momento de seu emprego pelos mais distintos atores45. Os próximos capítulos mostram justamente essa parte que é invisível à primeira vista. Do ponto de vista da cibernética, essa exposição sobre a Internet é uma tentativa de desvelar a caixa-preta que resulta do processo de ultraespecialização – onde há acesso a tecnologias e pequeno domínio sobre elas – na qual clico em um botão do meu computador e consigo acessar um site desejado, a constituição de um sistema complexo composto por inputs e outputs heterogêneos e ramificados, fragmentados, lembrando uma caixa-preta com infinitas gavetas que abrimos somente algumas delas sem olhar toda sua profundidade. Portanto, os capítulos que seguem incitam a observação da Internet por meio de outra perspectiva. Não mais a visão daquele que a utiliza, mas que opera a rede mundial de computadores.

45 Na leitura de Dominique Nora ([1995]: 52-53), a Internet foi utilizada por alguns nos anos 90 como uma espécie de LSD: “Os ‘ligados’ investem na sua vida eletrônica toda a paixão que não encontram na vida cotidiana. Mesmo os mais velhos ficam enredados nela: nos Estados Unidos 70% das mulheres de mais de 50 anos possuem um computador. No fim das contas, é o instrumento ideal para esquecer a idade, a surdez ou a invalidez. O ciberespaço tornou-se, assim, o espelho deformador da vida real, o LSD dos anos 90. Nele brincamos, divertimo-nos, rimos, seduzimos, amamos, aprendemos, refletimos, fazemos batota, sofremos, insultamos... (...). Tal como a pornografia polarizou, sucessivamente, o vídeo cassete e o Minitel, o sexo faz parte, desde o início, do ciberespaço. O universo em linha, onde escondemos a nossa verdadeira identidade atrás de um ‘nome de ecrã’, favorece, com efeito, a livre expressão dos fantasmas mais desenfreados”.

61

Capítulo 2 – Arquitetura da rede – I

Para o cidadão comum, a ideia do telefone é representada por, vejamos, um telefone: um dispositivo por meio do qual você fala. Para um profissional de telecomunicação, no entanto, o telefone em si é considerado, de maneira nobre, como um ‘subgrupo’. O subgrupo na sua casa é um mero adjunto, uma extremidade nervosa distante das centrais de comutação, as quais são classificadas em níveis de hierarquia, até as estações de comutação eletrônicas de longa distância, consideradas dentre os maiores computadores da Terra. Bruce Sterling ([1992]: 25)46

Operador que permite a comunicação entre entrada e saída, espécie de rede cibernética que realiza comunicação e controle, onde aquele que é capaz de controlar a infraestrutura consegue controlar o fluxo de informação e, no limite, constituir uma rede densa de mineração de dados e de seus consequentes saberes. À primeira vista a Internet tende a parecer algo prático que conecta e comunica. Essa facilidade é parcialmente desmistificada quando não é possível acessar um site, um aplicativo, enviar um e-mail, ou seja, quando há uma restrição de seu uso. Geralmente o problema é solucionado ao desligar e ligar aparelhos, e desconectar e reconectar cabos que estão próximos do local no qual acessamos essa rede de redes. Como as tecnologias tendem a se aprimorar e por estarmos num processo de ultraespecialização, a tendência é a de naturalizarmos o acesso à Internet, seja pela praticidade de se conectar a ela ou pelo desconhecimento de seu modo de operação. Pois os problemas de conexão tendem a diminuir com o aperfeiçoamento da rede, ao passo que a ultraespecialização nos afasta da compreensão dos mecanismos de objetos e relações que nos circundam. Conforme Demi Getschko ([2014]: online), ator de considerável importância à implementação da Internet no Brasil, para a Internet se tornar bem-sucedida ela deve converter-se em algo invisível: “[a]lgo do dia a dia, com o qual contaríamos automaticamente e ao qual não prestaríamos nenhuma atenção específica”. Mas hoje há vários entraves para isso, como a relação entre Justiça e WhatsApp, onde aquela determinou o bloqueio deste aplicativo no Brasil47; os questionamentos sobre o que fazem com os dados que

46 [To the average citizen, the idea of the telephone is represented by, well, a telephone: a device that you talk into. To a telco professional, however, the telephone itself is known, in lordly fashion, as a “subset”. The subset in your house is a mere adjunct, a distant nerve ending, of the central switching stations, which are ranked in levels of hierarchy, up to the long-distance electronic switching stations, which are some of the largest computers on earth]. 47 Cf. Justiça do RJ manda bloquear aplicativo em todo o Brasil (G1, [2016], online); e Justiça determina bloqueio do WhatsApp em todo o Brasil por 48 horas (Wiziack, [2015], online).

62

disponibilizamos nessa rede de redes48; e sobre a relevância da criptografia para lidar com a vigilância. Por outro lado, expressões como “computação na nuvem” acabam por fornecer subsídios a uma abstração que encobre a Internet, tornando-a praticamente invisível. No entanto, a Internet está intimamente vinculada a dispositivos físicos. A nuvem é antes a substancialização do desconhecido que hoje armazena, transmite e processa dados de um número infindável de pessoas e instituições. Diante disso, este capítulo se preocupa em detalhar o modo de funcionamento da Internet para desvendar o que está operando nessa caixa-preta e oferecer subsídios para o adiamento de um possível desaparecimento da rede mundial de computadores. Para isso, incorporo termos que não fazem parte da nossa relação corrente com a Internet, expressões utilizadas por aqueles que contribuem com a operação dessa rede de redes. A descrição parte do físico e se encerra na camada de aplicação da Internet, descrição essa que é técnica e política. Para tanto, considero importante realizar antes uma breve incursão histórica sobre certos acontecimentos no desenvolvimento da Internet, a qual se expande em quatro fases: intra-estatal norte-americana (1970); estatal-universitária em vias de internacionalização (1980); estatal-universitária- comunitária, progressivamente internacional (1980-90); e mundializada e crescentemente mercantilizada (1990) (Silveira, [2000]). Posteriormente, escrevo sobre a importância dos protocolos – entendidos aqui como padrões que possibilitam a interoperabilidade entre dispositivos de Internet (DeNardis, [2014]) – e a composição da Internet em camadas de protocolos para então demonstrar que o modelo que seguimos de Internet é um dentre múltiplas possibilidades.

2.1 – Elementos históricos Há uma discussão sobre quando a Internet surgiu. Segundo Carlos Afonso [2002], alguns defendem que a Internet surge no primeiro dia de 1983, quando a rede norte-americana de computadores criada pelo órgão do Departamento de Defesa americano (ARPA – Advanced Research Project Agency) em 1969, ARPANET, passa a operar o conjunto de protocolos TCP/IP (Transmission Control Protocol e Internet Protocol). Antes disso, o protocolo responsável pela mesma função era o NCP (Network Control Protocol), criado pelo

48 Em 2018, Mark Zuckerberg, um dos fundadores do Facebook, se apresentou no Congresso americano para responder diversos questionamentos. Entre as questões, algumas eram justamente sobre a venda de dados dos usuários do Facebook a outras empresas. Sobre isso, cf. A audiência de Zuckerberg no Congresso americano, 5 pontos (Fábio, [2018]: online), Congress grills Facebook CEO over data misuse – as it happened (Wong, [2018]: online) e o vídeo com parte da fala de Zuckerberg no Congresso americano, dia 10 de abril de 2018: . Acesso em 19 abr. 2018.

63

NWG (Network Working Group) na década de 1970. Outros acreditam que a Internet se originou em 1969 com o Interface Message Board da ARPA49, utilizado para interligar computadores com protocolos de comutação de pacotes e não comutadores de circuitos50. Isso permitia a troca de mensagens entre humanos, sendo que anos depois (1972) o e-mail eletrônico foi inserido (Leiner et al. [1997]). Já na obra A Internet no Brasil (Knight, [2014]), a Internet teria seu início em 1983 pela extensão da ARPANET para redes de rádio terrestre e satelital. Embora momentos históricos sejam relevantes para o entendimento do que embasa essa rede de redes, este trabalho não se dedica a dissolver o problema de origem da Internet. O dissenso sobre o início da Internet e a eleição de vários acontecimentos para embasar os argumentos sobre sua origem acabam por trabalhar no sentido contrário ao seu nascimento. A Internet tem origem rizomática. Nessas narrativas de origem, alguns atores são perenes, como a ARPA e a NSF (National Science Foundation). Isso nos oferece pistas para refletir sobre os passos da Internet, ou melhor, de um complexo de redes de computadores que depois foi intitulada de Internet. A ARPA era uma agência do Departamento de Defesa dos Estados Unidos criada em 1958 que deu suporte à ARPANET e, por conseguinte, à Internet; uma agência que se estabelece no período da Guerra Fria (1945-1991), especificamente durante a Guerra do Vietnã (1955-1975). Conforme Janet Abbate [1999], no ano de 1965, 23% dos fundos para a universidade vinham do Departamento de Defesa dos Estados Unidos e apenas 13% eram provenientes da agência governamental criada para, entre outros, promover o progresso da ciência: NSF. Em 1968 o orçamento da ARPA era quase a metade de todo o orçamento da NSF. E no Congresso americano, a ARPANET não era colocada como experimento em ciência da computação, mas geralmente como ferramenta administrativa para os militares. É crucial salientar que os pesquisadores geralmente apresentavam suas próprias ideias e, em decorrência da fonte dos recursos, sugeriam a elas aplicações militares (Abbate, [1999]). Após mais de 20 anos de funcionamento, a ARPANET se dissolve em 1990. Durante os anos de 1988 e 89, vários contratos com a ARPA tiveram suas conexões transferidas para a rede da NSF (NSFNET). E em fevereiro de 1990 a ARPANET foi formalmente desativada. O final

49 Esta agência criada em 1958 muda seu nome para DARPA (Defense Advanced Research Projects Agency) em 1972, depois volta para ARPA em 1993 e em 1996 retoma o nome DARPA. 50 Pacote é um modo de identificar sinais eletrônicos de dados na Internet. Disserto a frente sobre a comutação de pacotes. Para o momento, basta ter em mente que a comutação de pacotes está na base do funcionamento da Internet e que esse conceito se distingue da comutação de circuitos que era fortemente utilizada nas redes de telefonia e que inspirou trabalhos sobre a conexão entre computadores.

64

dessa rede marca o fim da operação militar da Internet, o que certamente não tolheu a presença militar na rede mundial de computadores. A NSF foi fundada pelo Congresso americano em 1950, uma agência federal independente que tem como objetivo promover o progresso da ciência, a saúde nacional, a prosperidade e o bem-estar, bem como garantir a defesa nacional. Entre 1968 e 1973, a NSF tinha o projeto de instituir centros regionais de computação como meio de auxiliar universidades a tornarem o uso de um escasso recurso computacional eficiente (Abbate, [1999]). Na década de 1980, seu projeto era paralelo e mais modesto que o da ARPANET. Ela começou a construir uma larga rede e se envolveu com a operação da Internet, a qual cresceu significativamente a partir da junção da ARPANET com a NSFNET. Esta conjugação se deu pautada na utilização de protocolos em comum: TCP/IP. Como se sabe, as conexões entre computadores podem seguir linguagens muito específicas, diferenciadas. Isto não era diferente naquela época. O importante é estabelecer uma linguagem de interação entre os computadores de uma rede e/ou entre redes de computadores. Portanto, há a partição entre uma rede em si e a fronteira de redes, local no qual há a interação entre as redes, fronteira e núcleo da rede. No momento em que a NSFNET adota o TCP/IP da ARPANET, o ponto de comunicação entre essas redes passa a ser o conjunto de protocolos TCP/IP, os quais permanecem até hoje como centrais na Internet e cuja importância será apresenta ao longo do capítulo51. Conforme apontado por Townsend [2003], essa construção de uma rede de redes tomando a NSFNET como ponto de ligação muda a topologia da rede a longo prazo, se tornando uma rede diferente da idealizada na década de 1960. A NSFNET foi responsável por expandir o escopo da Internet, disponibilizar o acesso para universidades interessadas e levar a Internet para o domínio civil, o que desembocou na sua privatização – o último passo para a abertura da rede a usuários e suas mais distintas atividades (Abbate, [1999]). Como a NSFNET possuía restrição ao uso

51 A relevância desses dois protocolos é marcante na própria definição de Internet para o Conselho Federal de Redes dos EUA (Federal Networking Council, [1995]: online): “‘Internet’ refere-se ao sistema de informação global que: 1) está logicamente interligado por um espaço de endereçamento globalmente único baseado no Protocolo de Internet (IP) ou nas suas subsequentes extensões/follow-ons; 2) é capaz de dar suporte a comunicações usando o pacote Protocolo de Controle de Transmissão/Protocolo de Internet (TCP/IP) ou suas extensões/follow-ons, e/ou outros protocolos compatíveis com IP; e 3) fornece, utiliza ou torna acessível, pública ou privadamente, serviços de alto nível sobre as comunicações e infraestrutura relacionada aqui descritas”. [“‘Internet’ refers to the global information system that: 1) is logically linked together by a globally unique address space based on the Internet Protocol (IP) or its subsequent extensions/follow-ons; 2) is able to support communications using the Transmission Control Protocol/Internet Protocol (TCP/IP) suite or its subsequent extensions/follow-ons, and/or other IP-compatible protocols; and 3) provides, uses or makes accessible, either publicly or privately, high level services layered on the communications and related infrastructure described herein”].

65

comercial, no meio da década de 1990 uma estrutura paralela de rede TCP/IP comercial foi desenvolvida e em 1991 a America Online (AOL) era uma das primeiras empresas a prover Internet para além das fronteiras acadêmicas e militares. Essa abertura se dava em um primeiro momento vinculada especialmente a pessoas conectadas ao ambiente universitário norte-americano, como alunos recém-formados em universidades dos Estados Unidos (Greenstein, [2004]). Ao contrário da ARPANET, a NSFNET não foi concebida para ser uma única rede, mas uma internet, uma rede de redes. O Brasil estabelece conexão com uma rede mundial de computadores em 1988, através do Laboratório Nacional de Computação Científica (LNCC), no Rio de Janeiro, por intermédio da Universidade de Maryland, nos Estados Unidos (Oliveira, [2011]). A conexão com a Universidade de Maryland permitiu a participação na BITNET (acrônimo de “Because It’s There Network”), uma rede acadêmica de computadores que possibilitava uma conexão barata e rápida. Pouco depois do LNCC, a ANSP (Academic Network at São Paulo), financiada pela FAPESP (Fundação de Amparo à Pesquisa do Estado de São Paulo), também se conecta à BITNET por meio do Fermilab (Fermi National Accelerator Laboratory), próximo a Chicago. Essa conexão com o Fermilab proveu as conexões do Brasil com o exterior até 1994, momento em que se inicia a Internet comercial no país (Oliveira, [2011]). Segundo Getschko (apud Oliveira, [2014]), o grupo do Rio de Janeiro e o de São Paulo se ajudavam, mantinham relação. Além disso, havia outras iniciativas no país dedicadas a se conectar a redes acadêmicas internacionais (Getschko apud Oliveira, [2014]). Naquela época, o envio de um e-mail não tinha essa espécie de instantaneidade oferecida hoje, pois, em alguns casos, poderia demorar horas ou mesmo um dia para chegar a seu destino. Mas era mais rápido do que o despacho de uma correspondência (Getschko apud Oliveira, [2014]). Como aponta Carlos Afonso [2016], a Conferência das Nações Unidas sobre o Meio Ambiente e o Desenvolvimento (ECO-92), realizada no Rio de Janeiro, foi um evento importante para a Internet no Brasil. Pois incluíram no acordo entre o governo brasileiro e a ONU um projeto de rede de Internet para os espaços da conferência. As conexões estabelecidas por meio do projeto fizeram o país estabelecer laços permanentes com a Internet. Nas palavras de Afonso ([2016]: 229): “[a] conferência marcou o momento em que a Internet chegou ao Brasil para ficar, em um processo que levou à formação do Comitê Gestor da Internet no Brasil (CGI.br) em maio de 1995”. Um ator determinante para o desenvolvimento da Internet no Brasil é o pequeno provedor. Ele teve o papel de “professor digital” ao orientar seus usuários (Parajo, [2014]) e de fornecer o acesso mesmo em regiões remotas do país (Knight, [2014]). Segundo Knight,

66

esta especificidade é algo quase exclusivamente brasileiro, pois na grande maioria dos países o provimento de acesso à Internet acontece por meio de um número reduzido de provedores. Foi a partir de pequenas cidades nas quais grandes empresas não tinham interesse em estender suas redes que os pequenos empreendimentos de acesso à Internet começaram a se desenvolver. A ARPANET assim como a NSFNET eram grandes redes para a época, mas não as únicas. Parte dessas redes foram incorporadas pela Internet no decorrer de seu desenvolvimento, ao passo que outras deixaram de existir. Como exemplo do primeiro caso há a BITNET, anexada à Internet na década de 1990; a ALOHAnet, uma rede de 1970 que utilizava rádio para a transmissão de dados e que se ligou cedo à ARPANET (1971); a CYCLADES, rede de pesquisa francesa que explorava alternativas para o design da ARPANET; e a CSNET (Computer Science Network), criada para conectar pesquisadores universitários não participantes da ARPANET. A Minitel é outro exemplo de rede que deixa de existir com a associação de redes, não sendo efetivamente incorporada. Ela foi uma rede pública francesa de comunicação lançada comercialmente em 1982. Segundo Valerie Schafer (apud Schofield, [2012]: online): “[a]s pessoas se esquecem que muitas das ideias que ajudaram a formar a internet foram, primeiramente, testadas no Minitel. Pense no sistema de pagamento, não tão diferente da loja de aplicativos da Apple. Pense nos fóruns, no conteúdo gerado pelo usuário. Muitos dos empreendedores e pensadores da internet na atualidade começaram a carreira no Minitel. (...) O mundo não começou com a internet”52. Ademais, na mesma época em que Roberts – um dos diretores da ARPA e personalidade importante para o desenvolvimento da Internet – vai para a DARPA desenvolver o conceito de rede de computadores e o plano para a ARPANET por meio da comutação de pacotes (1966), existia trabalho semelhante sendo desenvolvido no Reino Unido por Davies e Scantlebury, da NPL (National Physical Laboratory)53, e a pesquisa nos Estados Unidos de Paul Baran e outros no RAND (Research and Development, uma instituição sem fins lucrativos que na época recebia verba da Força Aérea americana): “O trabalho no MIT (1961-1967), na RAND (1962-1965) e na NPL (1964-1967) prosseguiram em paralelo, sem que nenhum dos pesquisadores soubesse

52 [“[p]eople forget that many of the ideas that helped form the internet were first of all tried out on Minitel. Think of the payment system, not so different from the Apple app-store. Think of the forums, the user-generated content. Many of today’s web entrepreneurs and thinkers cut their teeth on Minitel (…) The world did not begin with the internet”]. 53 O NPL foi o primeiro laboratório a se envolver com computação seguindo em 1946 uma proposta de Turing. Em 1947 Davies passa a fazer parte desse grupo (Abbate, [1999]).

67

sobre o outro trabalho”54 (Leiner et al., [1997]: online). Deve-se ter em vista que existia influência militar no desenvolvimento de trabalhos sobre comutação de pacotes na DARPA e em outras instituições, o que é evidente em pesquisas de Paul Baran, cujo departamento de ciência da computação do RAND estava imerso na cultura da Guerra Fria (Abbate, [1999]). Entretanto, nota-se que a Internet se constitui através da participação de profusos atores, não tendo ela um lastro unicamente americano e militar. A Internet não pode ser vista como a rede ou a arquitetura de rede, mas como uma dentre diversas possibilidades que teve condições de agregar uma série de redes existentes e fazer com que as demais se tornassem insignificantes perto de sua abrangência e potencial55. Ao mesmo tempo, é importante considerar que ser o epicentro de um desenvolvimento tecnológico facilita a continuidade dessa centralidade no desenvolvimento de uma rede. Embora haja a defesa de que a Internet é uma rede descentralizada, no decorrer desta tese fica claro que ela possui centralidades, gargalos que em grande medida se encontram no território dos Estados Unidos. Isso faz com que esse país não tenha apenas uma relevância histórica na Internet, mas uma importância histórica que facilitou a perenidade de sua relevância na rede mundial de computadores. Em contrapartida, essa rede que teve seu ponto de convergência nos protocolos TCP/IP e em redes subsidiadas pelo governo dos Estados Unidos, sofreu influência de uma série de redes que se conectaram a ela56. Diante disso, concordo com a assertiva de Abbate [1999] sobre duas características fundamentais da Internet: adaptabilidade e design participativo, o que pressupõe acesso a documentos fundamentais para a operação dessa rede. Conforme Leiner et al. [1997], um elemento que tem sido chave para o crescimento da Internet é o acesso aberto e gratuito a seus documentos basais, como especificações e protocolos. Leiner e outros autores que escrevem o artigo Brief History of the Internet acrescentam que os primórdios da ARPANET e da Internet em comunidades de pesquisa universitária promoveram a tradição acadêmica de publicação aberta de ideias e resultados na Internet, embora o ambiente acadêmico fosse muito formal e devagar na

54 [“the work at MIT (1961-1967), at RAND (1962-1965), and at NPL (1964-1967) had all proceeded in parallel without any of the researchers knowing about the other work”]. 55 Havia outras possibilidades de arquiteturas para uma rede de redes – como a IBM SNA, DECnet, ITU X.25, Xerox Pup, SITA HLN e a CYCLADES –, mas a da ARPANET prevaleceu (Rexford & Dovrolis, [2010]). 56 Esse influxo da convergência de redes afeta também o formato e a geografia da rede: “A geografia e a forma da Internet não foram elaboradas em algum escritório de engenharia central da AT&T – assim como o sistema de telefonia –, mas sim nas ações independentes, primeiramente, de centenas e, posteriormente, de milhares de redes” (Blum, [2012]: 55). [“The Internet’s geography and shape weren’t drawn up in some central AT&T engineering office – as the telephone system was – but rather arose out of the independent actions of first hundreds, and later thousands, of networks”].

68

dinâmica de trocas de ideias essenciais para criar redes. Essa lentidão estimulou a constituição de uma série de entidades. Para além de um suporte do governo e do envolvimento de acadêmicos com a edificação da Internet, a influência militar aconteceu tanto no design da ARPANET quanto da Internet, e em noções como “capacidade de sobrevivência”, “flexibilidade” e “alto desempenho”, e do influxo comercial com a ideia de “baixo custo”, “simplicidade” e “apelo ao consumidor” (Abbate, [1999]). Essa rede também comportava usuários não autorizados que contribuíram com a melhoria do sistema (Abbate, [1999]). Um exemplo disso é o Projeto Gutenberg, fundado em 1971 por Michael Hart, cujo objetivo é digitalizar e arquivar trabalhos culturais. Este projeto possui a mais antiga biblioteca digital que se iniciou com a publicação da Declaração de Independência dos Estados Unidos da América. Michael Hart não era pesquisador da ARPA. Ele tinha adquirido uma conta para acessar a ARPANET na Universidade de Illinois. É certo que com grande diversidade de atores utilizando essa rede ela acabaria por ser manipulada de várias maneiras: físicos acessavam computadores potentes presentes em outros locais da rede para desenvolver suas pesquisas; químicos tinham acesso a um sistema de mecânica molecular da Universidade da Califórnia, em San Diego, bem como a um projeto de química computacional desenvolvido pela Base de Força Aérea Wright-Patterson e pela Universidade de Chicago; geólogos puderam participar de um sistema de conferência organizado pelo Serviço Geológico dos Estados Unidos em 1973; o Exército usava a rede para colaborar com o programa de mísseis balísticos da ARPA; a Força Aérea participava online de uma pesquisa sísmica; e a Marinha acessava o supercomputador ILLIAC IV para o processamento de sinais acústicos (Abbate, [1999]: 103). Mas segundo Kleinrock (apud Blum, [2012]: 49), não se tinha ideia em seus primórdios do que a conexão entre computadores para a constituição da ARPANET iria se tornar: “‘Naqueles primeiros dias, nenhum de nós tínhamos a mínima ideia do que se tornaria. Tinha uma visão e consegui prever muita coisa. Mas o que senti falta foi do lado social – que minha mãe de noventa e nove anos estaria na Internet quando estivesse viva. Essa parte me iludiu. Achei que seriam computadores conversando com computadores ou pessoas conversando com um computador. Não é disso que se trata. Resume-se a você e eu conversando’”57. A Internet se pauta em tecnologias existentes para se desenvolver, como é o caso das linhas telefônicas dos Estados Unidos, as quais passavam na década de 1980 por um salto

57 [“‘In those early days, none of us had any idea what it would become. I had a vision, and I got a lot of it right. But what I missed was the social side – that my ninety-nine-year-old mother would be on the Internet when she was alive. That part eluded me. I thought it was going to be computers talking to computers or people talking to computer. That’s not what it’s about. It’s about you and me talking’”].

69

técnico de equipamentos analógicos para comutadores digitais, responsáveis por fazer a conexão temporária entre pontos da rede para efetivar uma ligação telefônica. Mas a constituição de redes de computadores através de linhas telefônicas não foi a primeira motivação desse salto técnico da rede, já que o mesmo oferecia novas aplicações e serviços que eram mais relevantes para a época, como aumento no tráfego de dados e melhores faxes (Greenstein, [2004]). Além de linhas telefônicas, pode-se acrescentar os sistemas de satélites e de televisão, por meio dos quais a Internet pode chegar a uma residência pelo mesmo cabo que um telefone, televisão, etc. Junto com essa comunhão de tecnologias havia também a de comunidades: “[a] Internet é tanto uma coleção de comunidades quanto uma coleção de Tecnologias, e seu sucesso é, em grande parte, devido tanto à satisfação de necessidades básicas da comunidade quanto à utilização da comunidade de forma eficaz para impulsionar a infraestrutura”58 (Leiner et al., [1997]: online). Dito isto e considerando o que foi colocado no capítulo anterior, pode-se dizer que o pilar da rede mundial de computadores faz parte do contexto da virada cibernética, ultraespecialização, aprimoramento de equipamentos eletrônicos e miniaturização dos mesmos, contexto marcado pela Guerra Fria e avanço do neoliberalismo num país que estava em guerra com o Vietnã, sendo que esta conjuntura desencadeou um conflito nacional. Essa rede de redes se aproveita da infraestrutura de outros meios de comunicação para se estabelecer. E desde as primeiras décadas era nítido que uma rede de computadores poderia ser utilizada para múltiplos fins mesmo entre acadêmicos e militares, embora nos primórdios não se tivesse ideia do que a ARPANET poderia dar suporte – como é o caso de Kleinrock ter desconsiderado o lado social do desenvolvimento da conexão entre computadores. A teia de atores que influem em seu desenvolvimento é composta inicialmente pelo setor acadêmico e militar com significativo suporte financeiro do governo dos EUA, mas atores de diversos países corroboraram com a construção dessa rede especialmente a partir do momento em que ela passa a agregar outras redes de computadores. Para isso, foi fundamental estabelecer um ponto de comunicação. O conjunto de protocolos TCP/IP teve maior penetração e passou a ser utilizado como o elo comunicacional entre as redes, a ponto de ser considerado o centro magnético da Internet (Clark et al., [1991]). Portanto, a Internet não é uma única rede, mas um complexo de redes que conseguem se comunicar a partir de protocolos e padrões compartilhados, de modo que essas redes possuem autonomia relativa na

58 [“[t]he Internet is as much a collection of communities as a collection of Technologies, and its success is largely attributable to both satisfying basic community needs as well as utilizing the community in an effective way to push the infrastructure forward”].

70

configuração de sua arquitetura e operação. Padrões e protocolos podem ser públicos ou proprietários. Na ARPANET eles eram abertos, ao passo que empresas como IBM, Xerox e Honeywell tinham sistemas proprietários. Isto dificultava a conexão entre essas redes, impelindo os clientes a comprarem equipamentos de uma mesma marca a fim de que eles se comunicassem. Diante disso, muitas vezes as empresas tinham um ambiente com vários sistemas que não se comunicavam caso tivessem dispositivos de várias marcas e modelos (Berners-Lee, [1999]). Como a Internet advém de uma rede que se tornou o suporte para uma conjunção de redes, existem reminiscências de uma rede única em sua arquitetura que tendem a ossificá- la, mesmo que características como adaptabilidade e design participativo ofereceram condições de suporte a outras redes. Embora, como colocado, a ARPANET fosse uma rede receptiva a novas ideias, ela tinha um viés militar em suas bases. Sobre isso, Abbate ([1999]: 77) pondera acerca do: “(...) fato de que os imperativos militares conduziram a pesquisa. Essa era uma realidade, especialmente no final da década de 1970 e na década de 1980, quando a ARPA começou a aumentar sua ênfase nas aplicações de defesa. Entretanto, durante o período em que a ARPANET foi construída, cientistas da computação perceberam que a ARPA era capaz de fornecer financiamento de pesquisa com poucas restrições, e essa observação os tornou mais dispostos a participar em projetos da ARPA”59. Certamente essa ligação de redes se dá perpassada por colaboração e conflito entre atores e países, uma pluralidade que não pode ser sintetizada em nomes que estão intimamente relacionados com a história da Internet, como J.C.R. Licklider, Vint Cerf, Paul Baran, Tim Berners-Lee, Leonard Kleinrock, Jon Postel e Demi Getschko60. Mesmo porque um hall da fama que pessoaliza o desenvolvimento da Internet esquece, ou faz esquecer, nomes como Bram Cohen, presente no desenvolvimento de um dos protocolos mais utilizados no mundo para o compartilhamento de arquivos ().

59 [“(…) the fact that military imperatives drove the research. This was especially true in the late 1970s and the 1980s, when ARPA began to increase its emphasis on defense applications. However, during the period during which the ARPANET was built, computer scientists perceived ARPA as able to provide research funding with few strings attached, and this perception made them more willing to participate in ARPA projects”]. 60 Demi Getschko deixa claro a multiplicidade de atores envolvidos na constituição e desenvolvimento da Internet a partir de suas falas sobre ela no Brasil, não colocando seu nome acima dos demais que fazem parte dessa história. Além disso, ao narrar a história da Internet no Brasil, adota antes a primeira pessoa do plural do que a primeira do singular. Tim Berners-Lee também evidencia a multiplicidade de atores envolvidos na constituição da Internet ao dissertar sobre o seu papel e de outros atores para a constituição da web, como pode ser observado em seu livro Weaving the Web: the original design of the World Wide Web by its inventor (embora o subtítulo de cunho propagandístico do mesmo contradiga minha afirmação, basta ler passagens do livro para encontrar essa “multiplicidade de atores” na composição da Internet e da web). Por outro lado, para conferir a lista de atores considerados relevantes segundo a Internet Society, cf.: . Acesso em 9 nov. 2017.

71

Um problema decorrente de pensar a Internet a partir de nomes que foram relevantes para seu desenvolvimento é que isso facilita a utilização de argumentos de autoridade por parte daqueles que viveram os primeiros passos dessa rede mundial de computadores, o que pode atravancar o desenvolvimento de algo inovador. Se valer de argumentos como “eu vi isso nascer, eu estava lá” tende a esvaziar debates técnicos e políticos que visam o desenvolvimento da rede. Contudo, esse tipo de argumento está presente nos espaços de discussão e muitas vezes é validado enquanto argumento legítimo. Ao contrário desse tipo de postura que ser quer legítima e, por conseguinte, que seja considerada enquanto argumento, a história da Internet mostra que sua constituição se dá por uma ação coletiva, heterogênea, com diferenças de pontos de vista muitas vezes conflitante. É esta a perspectiva que defendi até o momento e que permaneço defendendo no decorrer deste trabalho. Além da utilização dos argumentos de autoridade, atores que se apresentam enquanto relevantes na história da Internet acabam por ocupar posições de destaque na trama de governança dessa rede de redes. E no momento em que esses atores considerados historicamente relevantes assumem essas funções, acabam obnubilando atores que poderiam ter maiores condições de assumir essas posições de destaque. Outro ponto importante que está vinculado aos primeiros passos dessa rede de redes é que o processo de abertura da Internet para o uso da sociedade como um todo se dá vinculado à privatização da rede NSFNET que havia então agregado a ARPANET. É observável que há vários movimentos de multiplicidades que se convertem em unidades na configuração do que chamamos hoje de Internet, unidades que tendem a rebuscar o caráter múltiplo que constitui uma totalidade. Isso acontece ao compreendermos que atrás da noção de Internet há apenas uma única e sólida rede, que a linguagem dessa rede se pauta apenas em dois protocolos (TCP e IP) ou mesmo que existe uma linearidade no desenvolvimento dessa rede de redes, como se não houvesse inclusive resistências para a eleição do conjunto TCP/IP como ligação entre as diversas redes de computadores. O TCP/IP era uma possibilidade mais simples do que as concorrências da época, possuía padrão aberto, sendo mantido por uma comunidade multissetorial. Além disso, o TCP/IP era barato porque seu desenvolvimento havia sido subsidiado pelo governo dos Estados Unidos (Knight, [2014]), financiamento este que certamente influi nas possibilidades tecnológicas adotadas. Portanto, não foi uma escolha aleatória, mas resultado de uma série de embates onde esse conjunto de protocolos se tornou hegemônico. Nesse sentido, é relevante lembrar que mesmo o governo militar brasileiro estava resistente à adoção do TCP/IP por ser uma tecnologia inventada pelos EUA e que a adoção àquilo poderia representar uma confirmação da

72

hegemonia norte-americana (Knight, [2014]). A Europa tentava na época desenhar sua própria rede internacional (Berners-Lee, [1999]). Mas a Internet se adaptou às influências dos atores e sufocou outras possibilidades. E a presença do governo dos Estados Unidos nesse processo ofereceu subsídios para a manutenção da posição central do país na Internet hoje. Nesse sentido, por detrás das conexões entre computadores e redes existe um caráter não apenas físico, mas político. E este caráter deve estar presente em análises críticas sobre a Internet. Se outros protocolos concorrentes fossem predominantes na rede ela certamente não teria a mesma configuração de hoje. Do mesmo modo, o que hoje entendemos por Internet seria significativamente diferente se a estrutura da Minitel tivesse servido como base para a conexão das redes de computadores então existentes. Talvez hoje a França fosse o epicentro da Internet. A instituição de um dentre os diversos caminhos para uma tecnologia, especialmente se ela é nova, tende a influir em seus passos seguintes, de maneira que tal instituição não pode ser encarada como uma prática gratuita, desinteressada. E os Estados Unidos soube se aproveitar disso estabelecendo uma convergência de uma série de desenvolvimentos tecnológicos para a constituição da Internet, sendo os primeiros passos disso os fundamentais para delimitar os seguintes. Compartilho com Langdon Winner ([1980]: 127) a ideia de que:

Consciente ou não, deliberadamente ou inadvertidamente, as sociedades escolhem estruturas para tecnologias que influenciam a forma como as pessoas vão trabalhar, se comunicar, viajar, consumir e assim por diante durante muito tempo. Em processos nos quais decisões estruturantes são feitas, pessoas diferentes são distintamente situadas e possuem graus desiguais de poder, assim como níveis desiguais de consciência. De longe, a maior latitude de escolha existe no primeiro momento em que um instrumento, sistema ou técnica particulares são introduzidos. Devido às escolhas tenderem a se fixar fortemente no equipamento material, no investimento econômico e no hábito social, a flexibilidade original desaparece para todos os propósitos práticos, uma vez que os compromissos iniciais estejam assumidos61.

E a passage seguinte sobre a edificação do Sistema de telefonia nos Estados Unidos na obra The hacker crackdown (Sterling, [1992]: 05) não se afasta do que foi colocado por Winner: “[e]stamos acostumados a usar telefones para uma fala individual de pessoa a pessoa, porque estamos acostumados ao sistema Bell. Porém, essa era apenas uma possibilidade entre muitas

61 [Consciously or not, deliberately or inadvertently, societies choose structures for technologies that influence how people are going to work, communicate, travel, consume, and so forth over a very long time. In the processes by which structuring decisions are made, different people are differently situated and possess unequal degrees of power as well as unequal levels of awareness. By far the greatest latitude of choice exists the very first time a particular instrument, system, or technique is introduced. Because choices tend to become strongly fixed in material equipment, economic investment, and social habit, the original flexibility vanishes for all practical purposes once the initial commitments are made].

73

(...). Enquanto Bell e seus apoiadores lutaram para instalar seu sistema moderno no mundo real da Nova Inglaterra do século XIX, tiveram de lutar contra o ceticismo e a rivalidade industrial”62. É considerando os elementos políticos inerentes à Internet e os condicionamentos que se operaram em seus primeiros momentos que avanço para uma observação mais detalhada de seu modo de funcionamento.

2.2 – Padrão, protocolo e camadas da Internet Para o estudo da Internet é essencial problematizar o modelo utilizado na sua descrição e funcionamento: o cliente-servidor. Cliente é o que requisita uma tarefa e servidor aquele que executa o serviço requerido. Esta relação pode acontecer entre máquinas ou dentro de uma mesma máquina. Um dos exemplos é digitar o endereço de um site no navegador e, em questão de segundos, acessar o mesmo. Nesse processo, o servidor gera uma página em resposta ao pedido do cliente. O servidor tende a ser uma máquina significativamente mais potente, se comparado aos computadores convencionais, e propende a ter a finalidade de proporcionar algum serviço ao cliente. Servidores podem receber milhares de requisições por dia, como os do Google, sendo necessário uma série de equipamentos robustos e caros para desempenhar essa função em um grande centro de processamento de dados (ou data center). É digno de nota que neste tipo de arquitetura os clientes não se comunicam diretamente (Kurose e Ross, [2000]). Além disso, esses servidores possuem um endereço fixo, como , e salvo questões técnicas estão sempre online. De modo geral, tende-se a pensar a Internet a partir disso, como se o usuário apenas fizesse requisições a servidores e os mesmos fornecessem determinados serviços ao cliente. Mas há a possibilidade de um usuário se relacionar diretamente com “servidores” (os quais podem ser inclusive outros usuários) para fazer download de um único arquivo, como no modelo P2P (peer-to-peer). Pensando o P2P a partir da linguagem cliente-servidor, um usuário também poderia ser um servidor. Esse tipo de arquitetura estabelece conexão entre atores com conexão intermintente, onde geralmente se estabelecem relações diretas com usuários que podem estar em uma universidade, residência, trabalho ou mesmo na rua. Nesta arquitetura a dependência de centros de processadores de dados é mínima ou inexistente, pois a comunicação entre os usuários não precisa passar por um servidor dedicado. E não existe

62 [“[w]e are used to using telephones for individual person-to-person speech, because we are used to the Bell system. But this was just one possibility among many (…) As Bell and his backers struggled to install their newfangled system in the real world of nineteenth-century New England, they had to fight against skepticism and industrial rivalry”].

74

uma separação fixa entre cliente e servidor. Dado o caráter da arquitetura P2P, ela é significativamente mais rápida na distribuição de um arquivo do que a cliente-servidor, conforme gráfico a seguir.

Fig. 2.1 – Tempo de distribuição para arquiteturas P2P e cliente-servidor (Kurose e Ross, [2000]: 174)

Note que o tempo de distribuição para um número n de usuários não ultrapassa 1, ao passo que na relação cliente-servidor o tempo continua aumentando, pois o servidor precisa enviar uma cópia do arquivo para cada um que faz a requisição. Isto demonstra o caráter centralizador da arquitetura cliente-servidor ao compará-la com a propriedade distribuída da P2P que nos remete a uma arquitetura rizomática, a qual pode ser remetida a uma passagem de Deleuze e Guattari, onde dissertam sobre o sistema acentrado em Pierre Rosenstiehl e Jean Petiot: “a estes sistemas centrados, os autores [Pierre Rosenstiehl e Jean Petiot] opõem sistemas acentrados, redes de autômatos finitos, nos quais a comunicação se faz de um vizinho a um vizinho qualquer, onde as hastes ou canais não preexistem, nos quais os indivíduos são todos intercambiáveis, se definem somente por um estado a tal momento, de tal maneira que as operações locais se coordenam e o resultado final global se sincroniza independentemente de uma instância central” (Deleuze e Guattari, [1980a]: 37). Muitas aplicações de hoje se valem da arquitetura P2P para compartilhar arquivos (como µTorrent e Soulseek), telefonia por IP (Skype), assistir filmes online (), proteção de privacidade (), entre outros. Mas há também arquiteturas híbridas. Em algumas aplicações de mensagens instantâneas os servidores rastreiam seus usuários, mas a comunicação entre os mesmos se dá sem passar pelos servidores (Kusore e Ross, [2000]). Ambos, cliente-servidor e P2P, podem se valer da Internet para o tráfego de dados. Contudo,

75

constituem virtualmente tipos distintos de arquitetura de rede que influem diretamente no desenvolvimento de aplicações para a Internet.

Fig. 2.2 – Modelos cliente-servidor e P2P

Nos anos 2000, o P2P teve seu auge com o , um serviço no qual milhões de pessoas trocavam arquivos de música. As músicas eram baixadas dos computadores dos usuários, mas o Napster mantinha um banco de dados com a lista de músicas dos usuários em seu servidor, uma espécie de tendão de Aquiles para uma estrutura distribuída. O Napster foi obrigado a fechar por questões de direitos autorais63. De todo modo, é inegável que ele revolucionou a indústria musical através do compartilhamento de música pela Internet (Lam e Tan, [2001]). É indispensável frisar que o P2P não é uma arquitetura que naturalmente vai contra as leis. Trata-se de uma arquitetura de compartilhamento64. O que se debate é como ela é utilizada. Independentemente do tipo de arquitetura adotada, é fundamental que todos os equipamentos envolvidos consigam se comunicar. Nesse sentido, os padrões técnicos são fulcrais para uma uniformidade que garanta a interoperabilidade entre equipamentos e softwares participantes desse intricado ecossistema. O que um padrão faz é basicamente definir o que é necessário para a interoperabilidade (Tanenbaum e Wetherall, [1981]). Por exemplo, o padrão IEEE802.11 é o de conectividade sem fio para redes locais. Ele permite diversas taxas de transmissão, mas não define qual delas deve ser utilizada ou mesmo se uma rede sem fio precisa ser de acesso público ou privado. Outros exemplos de padrões são Bluetooth na rede sem fio de uso pessoal, MP3 para arquivos digitais de áudio, JPEG para imagens, VoIP para protocolo de voz e o TCP/IP como conjunto de protocolos de comunicação entre computadores. Na Internet o setor privado é o principal para o desenvolvimento de padrões técnicos (DeNardis, [2014]). Isto se justifica porque membros do setor privado precisam

63 Cf. documentário sobre o Napter: Donwloaded – A saga do Napster (Winter, [2013]). 64 Para análise de fôlego sobre o modelo P2P, cf. Peer to Peer System III (Voelker e Shenker, [2004]).

76

recorrer a padrões para comercializar seus produtos, precisam implementar esses padrões. Construir um padrão com validade global é um processo árduo. E quanto maior o número de pessoas envolvidas, mais laborioso isso se torna65. E há uma série de organizações que lidam com padrões de redes de computadores, como UIT (International Telecommunication Union – ITU), ISO (International Organization for Standardization), IETF (Internet Engineering Task Force) e IEEE (Institute of Electrical and Electronics Engineers). Os padrões técnicos são envoltos em questões políticas, uma vez que representam uma forma de controle sobre a tecnologia (Abbate, [1999]). Quando a Apple lançou em 2015 seu MacBook apenas com entradas USB-C, excluindo as entradas padrões de USB, o consumidor se via obrigado a comprar adaptadores para conectar periféricos incompatíveis com essa entrada do MacBook. Conforme coloca Abbate [1999], empresas como IBM procuram proteger seus mercados mantendo os padrões internos de seus produtos em segredo. Isto faz com que outros vendedores não consigam oferecer produtos compatíveis. Tais padrões são mudanças no parâmetro de interface que inibem o trabalho conjunto de dispositivos. Por outro lado, quando empresas fazem produtos com padrões de interface comuns os consumidores podem levar em consideração outros fatores no momento da compra, como preço e performance ao invés de se pautarem na compatibilidade. Portanto, controlar as especificações que regulam a interoperabilidade entre equipamentos e softwares da Internet é influir no percurso de desenvolvimento da mesma. E é esperado o conflito entre atores na disputa para a definição de padrões66. O mesmo acontece com os protocolos. Em poucas palavras, protocolo é um conjunto de normas e especificações técnicas que controlam a interação entre duas máquinas ou dois processos semelhantes, ou processos com funções semelhantes (Moreiras e Ribeiro, [2014a]). Logicamente, esses protocolos precisam ser compartilhados entre as máquinas que querem se comunicar, caso contrário seria o mesmo que conversar português com alguém que desconheça essa língua. Pois, como colocado no capítulo anterior, para comunicar é necessário existir um equilíbrio entre conhecido e desconhecido, onde o ponto em comum neste caso é uma mesma linguagem. Nesse sentido, violar um protocolo pode tornar uma comunicação mais difícil ou mesmo impossível. Todas as atividades na Internet que envolvem duas ou mais entidades remotas se comunicando são governadas por protocolos (Kurose e Ross, [2000]). Portanto, na Internet se

65 Cf. no livro de Tim Berners-Lee [1999] a longa descrição do processo pelo qual ele passou para padronizar o URL (Uniform Resource Locator), um dos padrões utilizados na web. 66 Como exemplo cf. a disputa para a definição de patrões para TVs de alta definição entre Japão, EUA e Europa durante a década de 1990 em The Government’s Role in the HDTV Standards (Neil, McKnight e Bailey, [1995]).

77

faz uso extensivo de protocolos. Kurose e Ross ([2000]: 35) declaram que “[u]m protocolo define o formato e a ordem das mensagens trocadas entre duas ou mais entidades comunicantes, bem como as ações tomadas na transmissão e/ou no recebimento da mensagem ou outro evento” 67. Diante disso, TCP e IP são somente dois dentre múltiplos protocolos presentes no tráfego de dados pela Internet, como HTTP (Hyper Text Transfer Protocol), SMTP (Simple Mail Transfer Protocol), FTP (File Transfer Protocol) e UDP (User Datagram Protocol). Os protocolos da Internet fazem ela ser o que é; são regras fundamentais que permitem a comunicação entre dispositivos e, por conseguinte, a interação humana. Assim sendo, não se pode esquecer o caráter social desse elemento técnico que apresenta uma aura de neutralidade, onde ao bloquear em uma rede um tipo específico de protocolo eu posso bloquear uma maneira de interação social, um modo de utilização dessa arquitetura de redes. Imagine que na rede de computadores da Unicamp não é permitida por motivos de segurança a utilização do protocolo de compartilhamento de arquivos BitTorrent bem como outros protocolos que seguem o modelo P2P. Essa opção respaldada na política de segurança da Unicamp inibiria não apenas o compartilhamento de arquivos por P2P, mas um modo descentralizado de utilização da Internet. Uma pergunta pertinente seria: a Unicamp poderia fazer isso? Sim, pois essa instituição não oferece acesso a outras organizações – como o faz, por exemplo, uma empresa de telecomunicações –, mas para seus usuários. Dentro da rede da Unicamp valem as políticas que ela especifica. No limite, ela poderia bloquear o acesso a sites que começam com a letra “u”. Portanto, a relação com protocolos deve ser encarada como algo que envolve não apenas questões técnicas, mas implicações políticas, econômicas e sociais (DeNardis, [2014])68. O que Galloway [2004] defende sobre o código – “sistema de símbolos usados para representar informações, de modo que um programa possa ser processado por um computador” (Neiva, [2013]: 109) –, estendo para o algoritmo e o protocolo: código, algoritmo e protocolo são práxis. O código é visto aqui como uma espécie de matéria-prima para o desenvolvimento da Internet, sendo fundamental para a constituição da arquitetura da rede. E, dado seu caráter estruturante, ele é capaz de restringir comportamentos. Já o algoritmo é entendido aqui como “sequência de regras, rotinas e procedimentos lógicos baseadas num sistema preciso e matemático, que leva à solução de um problema, finalização de um raciocínio ou execução de uma tarefa em um número finito de

67 [“[a] protocol defines the format and the order of messages exchanged between two or more communicating entities, as well as the actions taken on the transmission and/or receipt of a message or other event”]. 68 O estudo de padrões técnicos da tecnologia da informação ancorado numa perspectiva que visa ir para além do “técnico” no padrão técnico não é algo tão recente. Um exemplo disso é o trabalhado de David e Greenstein [1990], The economics of compatibility standards: an introduction to recent research, onde estudam os efeitos econômicos dos padrões.

78

etapas” (Neiva, [2013]: 16). Assim, ele possibilita a automatização de atividades que seriam impossíveis de serem realizadas manualmente e, em decorrência disso, pode automatizar tomadas de decisão ao considerar justamente o resultado das atividades realizadas pelo algoritmo. Essa automatização certamente carrega consigo os parâmetros estabelecidos pelos inventores dos algoritmos, de modo que eles não são neutros e, consequentemente, precisam ter seus parâmetros revelados. É certo que há uma série de consequências advindas disso sobre as quais diversos pensadores tem dissertado, especialmente pelo fato do algoritmo e sua consequente automatização serem praticamente invisíveis em suas ações rotineiras69. A partir de um longo processo de fragmentação de multiplicidades, a Internet alcança uma constituição complexa dividida em camadas de protocolos, o que permite a modificação de um serviço dentro de um sistema complexo que é atualizado constantemente sem afetar outros componentes dessa estrutura (Kurose e Ross, [2000]). Essas camadas reduzem a complexidade do sistema, facilitando sua compreensão. Uma camada de protocolo pode ser executada em software, hardware ou na combinação de ambos. Protocolos das camadas de aplicação e de transporte quase sempre são implementados em software do computador de destino. Já os protocolos da camada física e de enlace em geral são executados em uma placa de interface (como a placa de interface Ethernet ou WiFi) (Kurose e Ross, [2000]). Já a camada de rede geralmente é um misto entre hardware e software. Conforme colocado na Introdução, trabalhar a Internet em camadas é uma opção de modelo que tem implicações políticas, não sendo algo puramente técnico. Assim, a divisão em camadas auxilia na compreensão da Internet bem como para atuar nela. Me aproprio dessa concepção de divisão em camadas para explicar seu modo de operação. A literatura diverge quanto a quantidade de camadas mesmo quando se toma o modelo TCP/IP como referência e os inúmeros protocolos que compõem suas camadas70. O RFC71 1122 (Braden, [1989]) é considerado um dos mais tradicionais para o estabelecimento das camadas de protocolos e adota quatro camadas – embora antes disso haja o RFC 871 (Padlipsky, [1982]) que utiliza apenas três –, desconsiderando a física. Neste trabalho, entendo o estudo da Internet a partir de cinco camadas por compreender também a física, de modo que busco entender a Internet para além de sua dimensão lógica. Faço isto ancorado nas

69 Cf., entre outras referências, Barocas, Hood e Ziewitz [2013], e Amadeu [2017]. 70 É importante fazer um adendo sobre os protocolos TCP e IP. Além de serem protocolos, existe um modelo largamente utilizado da Internet que é a junção desses protocolos primordiais para seu funcionamento: TCP/IP. Como colocado anteriormente e explorado com maiores detalhes ao longo deste capítulo e do seguinte, existem outros protocolos que são utilizados nesse modelo de camadas. 71 A função dos RFCs (Request for Comments) será explicada especialmente no quinto capítulo. Para o momento, basta compreender que se trata de um conjunto de documentos, em sua grande maioria técnicos, mantidos pelo IETF.

79

principais referências deste capítulo: Kurose e Ross [2000], e Tanenbaum e Wetherall [1981]. Esta camada facilita na compreensão dessa rede de redes na medida em que nos oferece uma compreensão mais sensível da mesma. Ao considerar a camada física na investigação sobre a Internet aparecem outros atores que são relevantes para o debate: entidades vinculadas às telecomunicações. Encaro isso como um recuo a elementos das telecomunicações na composição da rede para melhor compreendê-la, mas faço isso sem deixar de entender que a Internet em si é a parte lógica dessa rede de redes, embora a parte física seja crucial para sua existência. Mesmo porque a camada física facilita no delineamento das instâncias físicas e geográficas dessa rede de redes, auxiliando na visualização da governança da Internet.

Fig. 2.3 – Modelo de referência utilizado neste trabalho

Tomemos um exemplo do envio de uma correspondência para melhor compreender o trabalho das camadas. Imagine que moro na cidade de Bady Bassitt, interior do estado de São Paulo, e quero enviar uma carta para uma pessoa em Los Angeles, nos Estados Unidos. Para isso, preciso colocar a carta em um envelope, escrever determinadas coordenadas para o envio dos meus escritos e entregar a correspondência a uma empresa, como os Correios. Após pegar as coordenadas da residência da destinatária, escrevo as seguintes informações no envelope:

Frente Verso Raphael Silveiras Rosa Mercedes Rua da Saudade, 171 9944 Arlington Ave Residencial da Esperança Los Angeles, CA, 90008-4557 Bady Bassitt, SP, Brasil USA 15115-000

Em seguida, escolho uma das modalidades de envio e posto a correspondência nos Correios. Eu não preciso saber como funciona a logística utilizada pelos Correios para que minha correspondência chegue nos Estados Unidos, mas preciso colocar informações no envelope seguindo determinados protocolos para que essa logística funcione. Do mesmo modo, não sei como a empresa responsável pela minha correspondência nos Estados Unidos fará com que

80

ela alcance seu destino final, embora saiba que aquelas coordenadas são fundamentais para a objetivação da entrega do envelope. Qualquer uma das empresas tem autonomia para mudar a logística no processamento das correspondências que recebem e encaminham, o que não altera o conteúdo da minha carta e muito provavelmente não alterará o modo como escrevo as informações presentes no envelope. Mas a mensagem que transmito pelo conteúdo da correspondência precisa adotar uma linguagem que a destinatária seja capaz de processar. A empresa brasileira não precisa compreender a totalidade das informações do envelope para encaminhá-lo aos Estados Unidos assim como a empresa americana não precisa da mesma compreensão para a entrega da carta no seu destino. O atendente dos Correios só pode aceitar minha correspondência porque sabe que sua empresa possui um sistema de logística e recursos para fazer com que essa carta chegue nos Estados Unidos e que lá a empresa na qual os Correios confiarão minha carta tem condições de concluir o processo de comunicação entre emissor (Eu) e receptora (Rosa). Portanto, a divisão do trabalho no envio e recebimento de uma correspondência reduz a complexidade do uso desse meio de comunicação. Essa lógica não destoa do que acontece com as camadas do conjunto de protocolos TCP/IP. Pois elas configuram uma espécie de divisão do trabalho que parte da camada de uma função mais concreta (como o envio de sinais elétricos) até as camadas de funções mais abstratas (como assistir um vídeo online), onde a camada mais abstrata é aquela com a qual os usuários geralmente interagem na Internet e a camada mais distante a física. Uma camada se constitui a partir das capacidades de camadas inferiores e oferece serviços para a camada superior resguardando esta de entender todos os mecanismos presentes nas camadas inferiores, onde a mais abstrata geralmente oferece um serviço para o usuário. E cada camada conversa com ela mesma, em outro dispositivo, e com outras camadas por meio de protocolos. Esse sistema de camadas faz com que haja uma autonomia relativa de cada uma das mesmas, onde tenho condições de alterar os mecanismos de uma camada sem ter que alterar todo o funcionamento da Internet – embora precise saber como aquilo que faço numa camada vai interagir com as demais. Portanto, é possível projetar, testar e solucionar problemas encontrados na rede sem a necessidade de reconfigurá-la por completo. Do mesmo modo, posso fabricar um roteador – equipamento de rede que encaminha pacotes de dados dentro e entre redes permitindo a ligação entre elas e organizando como os dados trafegam na rede e entre redes –, um navegador ou um site sem ter que me preocupar com toda a cadeia de protocolos das camadas que compõem a Internet. Como se pode observar, o protocolo é fundamental para a comunicação dentro de uma mesma camada e, por conseguinte, entre dispositivos técnicos. E assim como os

81

Correios fornecem diversas modalidades no envio de uma correspondência, os protocolos permitem certa flexibilidade no serviço realizado pela camada. A partir da seleção do protocolo a ser utilizado em cada uma dessas camadas se constitui uma pilha de protocolos, a qual será empregada na comunicação entre emissor e receptor ou entre hospedeiros – máquinas conectadas a uma rede (hosts). E entre as camadas de protocolos selecionados para a comunicação há uma interface que define quais operações e serviços a camada inferior disponibiliza para a superior (Tanenbaum e Wetherall, [1981]: 52).

Fig. 2.4 – Camada, serviço e interface nos hospedeiros

A partir dessa imagem é possível observar que se a camada 5 quer se comunicar com outro dispositivo, essa informação precisa passar por camadas inferiores e por um meio físico para então chegar no outro dispositivo e fazer um caminho ascendente até a camada 5 do mesmo. Após essas considerações, prossigo na caracterização das camadas. A camada física especifica como transmitir bits através dos diferentes tipos de meios, como sinais elétricos ou analógicos; a de enlace de dados precisa como enviar com confiabilidade mensagens finitas entre computadores diretamente conectados; a rede se preocupa com a combinação de múltiplos enlaces na rede e na rede de redes, e é por conta deste trabalho que se consegue enviar e receber mensagens entre computadores distantes, o que inclui encontrar o melhor caminho para o envio de pacotes; a camada de transporte reforça o processo de entrega dos pacotes que atendem às necessidades dos mais distintos aplicativos; e a camada de aplicação contém programas que utilizam a rede para funcionar, sendo que a grande maioria das aplicações da rede possuem uma interface com o usuário,

82

como o navegador web (Tanenbaum e Wetherall, [1981]). Essas cinco camadas não são implementadas em todos os equipamentos que se encontram na rede, ao passo que o hospedeiro implementa as cinco. Isto é consistente com a concepção de que a arquitetura da Internet coloca muito de sua complexidade nas pontas da rede (Kurose e Ross, [2000]). Segue abaixo uma representação que reforça a ideia de que nem todos os equipamentos da rede implementam as cinco camadas e outra representação das mesmas com seus principais protocolos e sem a camada física:

Fig. 2.5 – Tráfego de dados em dispositivos distintos da rede (Kurose e Ross, [2000]: 80)

Fig. 2.6 – Modelo TCP/IP e alguns protocolos das camadas (Tanenbaum e Wetherall, [1981]: 70)

Os protocolos TCP e IP foram desenvolvidos na década de 1970 e tinham que suprir requisitos, entre os quais destacam-se: cada rede a utilizar esse conjunto de protocolos não precisaria mudar sua configuração interna para se conectar à Internet; se um pacote não chegasse a seu destino ele deveria ser reenviado pela fonte; black boxes (posteriormente chamados de gateways e roteadores) seriam utilizados para conectar as redes, sendo que os

83

gateways não armazenariam informações sobre os pacotes passados por eles – o que os torna simples; e não haveria controle global a nível internacional (Leiner et al. [1997]). Em 1974 Vinton Cerf e Robert Kahn [1974] descrevem o protocolo TCP. Em 1983 Vinton Cerf e Edward Cain [1983] especificam os detalhes do TCP/IP e suas camadas ao mesmo tempo em que defendem a necessidade de se desenvolver ainda mais o modelo, o qual está vinculado ao projeto da DARPA. Houve a participação de uma comunidade internacional para desenvolver o TCP/IP (Abbate, [1999])72. O gateway foi primordial para dividir e simplificar a rede de redes. Segundo propuseram Cerf e Kahn [1974], o gateway iria se conectar a duas ou mais redes e transferiria pacotes entre elas. Assim, o tráfego entre redes se daria por meio de gateways. Com a finalidade de possibilitar a existência de distintas redes e linguagens, o gateway faria uma espécie de tradução entre os diferentes tipos de pacotes que trafegam nas redes. Além disso, o gateway possui uma espécie de tabela de rotemaneto indicando o caminho de envio de pacotes de uma rede para outra. Portanto, o modelo TCP/IP influi diretamente na arquitetura da Internet. Um marco para a unificação da Internet foi a transição do protocolo NCP para os TCP e IP73, a utilização desses protocolos como padrão da ARPANET. Este foi um processo longo e trabalhoso que teve o ápice no primeiro dia de 1983. Todo hospedeiro que quisesse se manter conectado aos servidores da ARPANET precisaria realizar esta transição até a referida data. Quem não fizesse isso passaria a se comunicar com os servidores da ARPANET por mecanismos específicos. A transição foi estudada durante anos pela comunidade envolvida. A vantagem do modelo TCP/IP é ser simples e aberto, o que facilitou a construção de programas, placas, softwares e hardwares (Lopez apud Oliveira, [2011]), além de favorecer grande crescimento da rede e o aprimoramento das aplicações. Por outro lado, a simplicidade do modelo também impõe limites na dinâmica da Internet, como restrição na criação de aplicações e dificuldade na resolução de problemas estruturais, como a segurança da rede (Moreira et al. [2009]). Outra crítica ao modelo TCP/IP é o de que ele não separa a camada de enlace de dados da camada física, sendo este um dos fatores que me fez adotar o modelo TCP/IP de Tanenbaum e Wetherall, e Kurose e Ross: “[e]ssas [camadas físicas e de ligação] são completamente diferentes. A camada física está relacionada com as características de transmissão do fio de cobre, da fibra óptica e da comunicação sem fio. O trabalho da camada

72 Conforme o próprio Cerf ([1990]: 23): “O TCP acabou sendo o protocolo aberto no qual todos participaram em algum momento”. [“‘TCP turned out to be the open protocol that everybody had a finger in at one time or another’”]. 73 O plano de transição foi descrito por Postel no RFC 801 [1981].

84

de ligação de dados é o de delimitar o início e o fim dos quadros e transferi-los de um lado ao outro com um grau de confiabilidade desejado”74 (Tanenbaum e Wetherall, [1981]: 76)75. Para facilitar o envio e recebimento de informação por meio do trânsito de dados, há o encapsulamento da mesma com um cabeçalho destinado a cada camada envolvida. Nesse sentido, é o mesmo que colocar uma carta dentro de vários envelopes: um envelope para postar uma carta no Brasil contendo outro envelope para a empresa que irá recebê-lo nos Estados Unidos, cujo interior contém a carta para a destinatária. E com o limite de dados que se pode colocar em cada pacote informacional, na Internet geralmente a informação é fragmentada em vários pacotes que depois são recompostos no destinatário. No exemplo abaixo, a informação (mensagem (M)) é fragmentada em duas partes, encapsulada em cada uma das camadas e volta ao formato de origem no final do processo (Tanenbaum e Wetherall, [1981]: 55).

Fig. 2.7 – Encapsulamento, envio e recebimento da mensagem

Há um nome para o pacote informacional de cada camada, como representado na figura: (1) bits; (2) frame (F); (3) datagrama (D); (4) segmento (S); e (5) mensagem (M). A definição de um nome para cada camada evita a confusão entre as mesmas. Portanto, se estou descrevendo o pacote na camada da rede, posso meramente dizer “o datagrama”. A partir do esquema simplificado da figura 2.5 (Tráfego de dados em dispositivos distintos da rede) é possível perceber como o pacote trafega pela Internet. E a partir da figura 2.7 compreende-se

74 [“[t]hese [physical and link layers] are completely different. The physical layer has to do with the transmission characteristics of copper wire, fiber optics, and wireless communication. The data link layer’s job is to delimit the start and end of frames and get them from one side to the other with desired degree of reliability”]. 75 Para maiores críticas ao modelo TCP/IP, cf. Tanenbaum e Wetherall [2011], principalmente as páginas 75 e 76.

85

como a fragmentação e recomposição de uma mensagem acontece no tráfego de dados pela rede. Um dos princípios no tráfego de dados na rede é o fim-a-fim. Segundo ele, as funções específicas da camada de aplicação não devem estar presentes nas camadas inferiores. Assim, as aplicações podem ser implementadas apenas no ponto mais elevado desse sistema de comunicação. Isto faz com que a rede em si tenha apenas a função de encaminhar pacotes, o que a torna mais simples, flexível, robusta, onde apenas as extremidades dos nós são responsáveis pela comunicação de mensagens (Moreira et al., [2009]). Um dos grandes concorrentes do modelo TCP/IP pela hegemonia de modelo da Internet era o OSI, desenvolvido pela ISO no final da década de 1970. Na época, esse modelo foi adotado por muitos cursos de treinamento e em universidades. Por isso, ele teve um impacto na educação em rede e continua a influenciar a mesma (Kurose e Ross, [2000]). O modelo OSI era uma proposta aberta que poderia abarcar o futuro desenvolvimento de outros padrões ao invés de congelar prematuramente sua estrutura através de padrões específicos (Abbate, [1999]). Nesse sentido, ele seria um meta padrão, um padrão para a criação de outros padrões. Ao contrário do modelo TCP/IP, o OSI não é uma arquitetura da Internet porque não especifica os serviços exatos de cada camada e o protocolo que deve ser utilizado, mas apenas o que cada camada deve fazer (Tanenbaum e Wetherall, [1981]). Segundo Tanebaum e Wetherall [2011], os protocolos associados ao modelo OSI não são usados mais, mas o modelo em si seria ainda válido e os debates sobre cada camada ainda é importante; com o modelo TCP/IP aconteceria o inverso, pois seus protocolos são largamente utilizados, ao passo que seu modelo não é muito útil para descrever protocolos que não fazem parte dessa pilha de protocolos. Abbate [1999] acrescenta que muitos designers de rede achavam o modelo OSI muito difícil; o modelo era vazio, pois os protocolos não conseguiam preencher todas as camadas; a ISO era devagar para escolher protocolos para as camadas OSI e havia sancionado muitos protocolos como padrões de algumas camadas, o que possibilitava a construção de sistemas tão diferentes que sequer seriam compatíveis. A partir das discussões sobre rede, se percebeu que as redes deveriam ser organizadas em uma hierarquia de protocolos, onde cada camada cumpriria com determinadas funções. Houve uma batalha entre modelos TCP/IP e OSI, e também entre seus padrões, como é o caso do X.25 (conjunto de protocolos de padronização da ITU (Internetational Telecommunication Union, ONU)), o qual se vincula ao modelo OSI. O X.25 apostava em uma estrutura de circuitos virtuais que no limite poderiam construir uma única rede por país – estrutura semelhante ao sistema telefônico –, ao passo que o TCP/IP preferia trabalhar com a

86

diversidade das redes, conectando diferentes tipos de computadores e redes (Abbate [1999]). Como é de se esperar, a disputa entre esses modelos e a consequente adoção do TCP/IP como padrão estava para além de dimensões puramente técnicas76. Ao contrário do TCP/IP, o modelo OSI é dividido em sete camadas:

Fig. 2.8 – Modelos de representação das camadas

Embora hoje o TCP/IP seja o padrão no tráfego da Internet, isso pode mudar no futuro. Conforme Getschko (apud Oliveira, [2014]: online): “[h]oje existe uma forte pressão da área de pesquisa em redes para que se desenvolvam e testem alternativas, o que é sempre muito saudável (...) Hoje pragmaticamente não temos alternativa comercial viável ao TCP/IP, mas pode ser que daqui a cinco anos seja diferente. O pessoal começa a ficar inquieto e quer mudar tudo”. Como colocado, a Internet não era apenas uma das possibilidades, mas aquela que se solidificou no devir histórico. E isso aconteceu com a presença de conflitos e distintos interesses, os quais estão para além de questões puramente técnicas. Padrões e protocolos são fundamentais para o estabelecimento e manutenção dessa rede de redes. Contudo, a restrição de protocolos presente no modelo adotado (TCP/IP) acaba por inibir, de certo modo, o desenvolvimento do novo. Este modelo funciona de maneira complexa, por meio de uma série de camadas que trocam pacotes informacionais com cabeçalhos pertencentes a cada uma dessas camadas, sendo que essa comunicação acontece pela interface entre as camadas – a qual define quais operações e serviços a camada inferior disponibiliza à superior. Entre as funcionalidades dessa divisão em camadas, destaca-se a facilidade de desenvolver um

76 “Um exame mais detalhado desse debate revela como as decisões técnicas incorporadas nos padrões refletiram as crenças, valores e pautas das pessoas que projetaram e usaram as redes” (Abbate, [1999]: 155-6). [“A closer examination of this debate reveals how the technical decisions embodied in standards reflected the beliefs, values, and agendas of the people who designed and used networks”]. Sobre o embate entre esses modelos, cf. Abbate [1999], especialmente o capítulo 5: The Internet in the Arena of International Standards.

87

protocolo para uma determinada camada sem necessariamente conhecer em profundidade o funcionamento de outras, como já colocado. A partir da apresentação de alguns elementos históricos da Internet bem como de seu funcionamento em camadas, padrões, protocolos, e tecnologias de transmissão, e considerando a proposta de imersão nessa rede, trato a seguir da primeira camada do modelo tomado como referência neste trabalho e que dialoga diretamente com o TCP/IP: a camada física.

2.3 – Camada física Como colocado em capítulo anterior, o computador capta a informação a partir de bits. É este o formato que precisa chegar no processamento do computador para que ele possa abrir a página de um site, receber um e-mail, assistir um filme online, editar um texto, entre e outras coisas. Um bit precisa passar por uma série de roteadores até alcançar seu destino, o qual pode ser um computador de mesa (desktop), smartphone, um servidor, etc. Essa transmissão é feita por ondas eletromagnéticas ou por pulsos ópticos em meios físicos, os quais podem variar bastante. A função da camada física é basicamente esta: transportar bits de um nó da rede para outro. Essa estrutura de telecomunicação que possibilita o funcionamento da Internet foi aprimorada conforme o tempo, mas não só serve como servia para outros fins comunicacionais. Isso se torna evidente no Museu do Telégrafo, localizado em Porthcurno, uma pequena aldeia na costa sul da Cornualha, Inglaterra, onde uma série de cabos submarinos chegam de outros continentes para alcançar o europeu, enquanto no Brasil esses cabos chegam, em sua grande maioria, pelo nordeste do país. Lá em Porthcurno é possível verificar o desenvolvimento dessa tecnologia de comunicação, onde mesmo uma aldeia pode ter uma importância crucial para o funcionamento da Internet, e também a presença de diversas tecnologias comunicacionais em uma mesma base física composta por cabos coaxiais, fibras ópticas, etc. O protocolo nesta camada depende do tipo de meio pelo qual esses bits terão que trafegar. Por exemplo, o Ethernet (camada de enlace) possui uma série de protocolos utilizados em conformidade com o meio físico pelo qual os dados precisam passar. É a partir da camada física que a Internet é construída; são seus diferentes tipos de materiais que condicionam a performance dessa rede de redes. Para a realização dessa função, a camada física se vale materiais, como: cabo coaxial, fibra óptica, rádio, satélite e equipamentos como o modem. A estrutura criada para a Internet pode comportar variados tamanhos de redes, as quais podem ser de área pessoal (PAN – Personal Area Network) –

88

como o Bluetooth –, local (LAN – Local Area Network) – como em casas, prédios, cafeterias ou campus universitário –, metropolitanas (MAN – Metropolitan Area Network) – como uma rede de TV a cabo que pode ser utilizada para prover Internet a seus usuários – ou que abranjam países ou continentes (WAN – Wide Area Network) – como uma rede de telefonia.

Fig. 2.9 – Escala de processadores interconectados (Tanenbaum e Wetherall, [1981]: 40)

Tendo em vista a especificidade dessa camada e a abrangência que uma rede pode ter, dedico o restante deste item a descrever materiais e equipamentos que se vinculam à Internet, o que inclui equipamentos que não necessariamente são reconhecidos por operarem na camada física, mas contribuem com a visualização dessa rede de redes. Para isso, faço o detalhamento tomando como referência aquilo que podemos encontrar em nossas casas para então chegar em um possível “outro lado” da rede. Portanto, inicio a partir da chamada “última milha”. As diversas tecnologias utilizadas para conectar computadores à Internet estabelecem uma ligação individual, capilar, com a mesma. Dito de outro modo, um provedor de acesso – empresa ou organização que possui conexão com alta taxa de transmissão com a Internet e que oferece o serviço de conexão à Internet a outros usuários através de sua rede, podendo cobrar ou não pelo serviço – precisa levar uma conexão individualizada até a residência do cliente pelos mais distintos meios de transmissão. E na residência do cliente haverá um equipamento para transformar os sinais recebidos em sinais digitais, sinais entendíveis pelo computador77. O espaço entre a última estação do provedor de acesso (estação final) e o cliente é chamado de última milha; é a última etapa de uma cadeia de redes de telecomunicações que chega fisicamente ao usuário final, seja uma residência, prédio, etc. O meio de transmissão utilizado pela Internet pode ser guiado ou não guiado. No primeiro caso os dados trafegam por meios físicos, como pares de fios trançados, cabos de cobre e fibra óptica. E no segundo pela atmosfera ou para além da mesma, como rádio

77 Este equipamento é o modem e escrevo brevemente sobre ele a seguir.

89

terrestre e satélites. Ao longo do tráfego de dados um conteúdo pode transitar pelos distintos meios físicos antes de encontrar seu destino. A conexão cabeada tende a ser a mais utilizada por vários motivos, entre eles menor interferência que conexões sem fio e por ter menor perda de dados. As perdas de dados são comuns à conexão não cabeada, as quais podem acontecer por meio da dispersão do sinal e sua consequente perda de força; pela distorção multicaminho (multipath), na qual um sinal tem mais de um trajeto entre receptor e emissor devido a reflexão das ondas – o que gera um atraso de parte do sinal ou mesmo a perda de parte dele78; obstrução física; interferência entre dispositivos, entre outros. Kurose e Ross [2000] acrescentam que quanto maior o volume de dados trafegados, maior a quantidade de erros. Por outro lado, o meio não guiado não precisa de um sistema de cabeamentos que saiam de uma empresa de telecomunicação até uma residência para oferecer a conexão com a Internet, o que diminui os custos de implementação do serviço de prover acesso à Internet. Diante disso, a transmissão não guiada tende a ter uma instalação mais prática e é largamente utilizada em regiões distantes de grandes centros urbanos. Ela também é comum dentro de nossas residências, facilitando a mobilidade dos equipamentos conectados à Internet. A ALOHAnet é um exemplo de rede sem fio, sendo a primeira rede de rádio a realizar transmissão de pacotes. Esta rede foi desenvolvida no Havaí, onde seria inadequado instalar cabos entre as várias ilhas que compõem este estado norte-americano. Os aparelhos e cabos que encontramos em nossa residência formam o ponto de acesso para a Internet. Conforme colocado, a Internet se aproveitou de sistemas de comunicação já existentes para conectar as pessoas, como o sistema de telefonia. Para esse tipo de conexão, geralmente é utilizado o cabo de par trançado. Ele é um dos mais antigos e comuns meios de transmissão, constituindo-se de dois finos fios de cobre trançados. São trançados para cancelar interferências eletromagnéticas, dado que se fossem pares paralelos poderiam funcionar como uma antena. A vantagem desse cabo é que ele é barato e consegue percorrer vários quilômetros sem a necessidade de um repetidor (equipamento que recebe, amplifica (regenera) e retransmite sinais). No entanto, geralmente não conectamos nosso computador com um par de cabos trançados, mas com um cabo contendo um conjunto de pares trançados. O cabo coaxial é outro de cobre com larga utilização na transmissão de dados. Esse cabo era usado no sistema telefônico para linhas de longa distância, as quais foram massivamente substituídas por cabos de fibra óptica; hoje o cabo coaxial é geralmente

78 Para maiores informações sobre distorção de multipath, cf. Cisco [2008].

90

utilizado em TVs à cabo e em redes metropolitanas. Comparado aos pares trançados, ele possui maior proteção a ruídos e maior banda de transmissão. A fibra óptica é um meio condutor de fechos de luz que possui uma série de vantagens se comparada ao cobre: maior banda de tráfego; como seu sinal possui baixo enfraquecimento, os repetidores são necessários a cada 50km, ao passo que o cobre tem um repetidor a cada 5km, diminuindo o gasto com a propagação do sinal; o sinal óptico não é afetado por interferência eletromagnética ou falhas elétricas, ou por corrosivos químicos no ar, de modo que se adapta a ambientes industriais desfavoráveis; companhias telefônicas também preferem fibras ópticas por serem mais finas e leves; e elas são dificilmente interceptadas, o que aumenta a segurança no tráfego de pacotes. A fibra óptica é largamente utilizada na espinha dorsal da Internet dadas as propriedades apresentadas acima. Embora haja sistemas com fibra óptica capazes de oferecer um serviço consideravelmente mais rápido, a troca dos pares trançados pela fibra óptica na última milha é um processo caro, mas alguns provedores de acesso oferecem este serviço no país. Destaco três tipos de cabeamentos na última milha envolvendo a fibra óptica: fibra a mais de 300 metros do cliente (FTTN – Fiber to the Node or Neighborhood), não adentrando na última milha; fibra a menos de 300 metros (FTTC – Fiber to the Curb), mas sem alcançar o cliente; e fibra óptica até a residência (FTTH – Fiber to the Home). Esta última solução é a mais cara, mas esse investimento prepara a última milha para taxas maiores de transmissão. O restante do percurso que não é coberto pela fibra óptica é frequentemente realizado por cabos metálicos, como os descritos acima. Após apresentar três tipos de meios de transmissão guiados, disserto sobre três sistemas de Internet que se valem desses meios e em seguida sobre um sistema que utiliza os fios de energia: DSL; cabo de TV; fibra óptica; e linhas de energia. O problema encontrado para um computador no tráfego de dados por meio de cabos de par trançado é que enquanto a telefonia se pauta em grande medida nos sinais analógicos, o computador se vale de sinais digitais, os zeros e uns. Diante disso, o modem é um equipamento fundamental para fazer a conversão do sinal digital do computador para o analógico da rede e o inverso, possibilitando a conexão de computadores por meio da linha telefônica. O modem é a condensação das palavras modulador e demodulador. Em conexões como essa, DSL (Digital Subscriber Line), a linha de telefone é utilizada para uma transmissão de dados, sendo possível usar o telefone ao mesmo tempo em que se navega pela Internet. Isto porque embora utilizem os mesmos cabos, o sistema DSL usa uma frequência de onda de transmissão diferente do sistema de telefonia. Do outro lado dessa linha telefônica, mais precisamente na central telefônica mais próxima, há um equipamento chamado DSLAM

91

(Digital Subscriber Line Access Multiplexer) que converte sinais em pacotes e o inverso, e separa os dados da rede de telefone e da rede de Internet. Esse sistema substituiu em grande medida as conexões dial-up, as quais também utilizam a linha telefônica, mas impossibilitam o uso concomitante de telefone e Internet. Nessa situação, é possível ouvir os sinais analógicos ao retirar o telefone do gancho. Um elemento comumente presente nesse tipo de conexão é o splitter, dispositivo que converge vários cabos em apenas um. Outro ponto a se considerar é que a velocidade de tráfego do dial-up é muito baixa, cerca de 56 Kbps.

Fig. 2.10 – Acesso à Internet por DSL (Kurose e Ross, [2000]: 39)

Existem vários tipos de modems. Eles se dividem entre internos ao computador e externos, como modems DSL e o modem a cabo (utiliza o cabo conectado à TV). Em síntese, o modem é inserido entre o digital (computador) e os mais diversos meios de transmissão. As redes de televisão a cabo também são empregadas para o provimento de Internet. A TV a cabo foi concebida durante a década de 1940 com a finalidade de melhor recepcionar sinais para pessoas em áreas rurais ou montanhosas, consistindo em uma grande antena posicionada em um lugar apto a captar sinal de televisão, um amplificador chamado head end para reforçar o sinal e um cabo coaxial que distribuía o sinal para as casas. Inicialmente, o processo era realizado por pequenos empreendimentos, os quais foram comprados por grandes corporações que estenderam o raio de ação dos sistemas a cabo e conectaram esses vários sistemas. Com o passar do tempo, as conexões entre as cidades foram substituídas por cabos de fibra óptica, assim como aconteceu com o sistema de telefonia. Essas corporações resolveram oferecer o serviço de Internet por meio dos cabos coaxiais. E

92

assim como no fio de par trançado, o cabo coaxial também precisa se conectar a um modem para então se acoplar ao computador. Uma das grandes diferenças entre o DSL – sistema que usa fio de par trançado – e o de cabo – sistema de cabo coaxial – é que a capacidade do segundo se vincula diretamente à quantidade de pessoas que utilizam o serviço na proximidade, ao passo que no sistema DSL isso não faz diferença. Isto porque no DSL um fio de par trançado sai da estação final para cada residência, enquanto no sistema de televisão a cabo um mesmo cabo alimenta várias residências por meio de sua ramificação. Além disso, no cabo há maior potência de interceptação de dados, pois qualquer usuário do serviço de cabo pode ler os pacotes que passam pelo mesmo, e isso não acontece no sistema DSL pelo fato de haver cabos dedicados desde a estação final. Este problema pode ser mediado através da encriptação dos dados trafegados no cabo. De todo modo, não ter a possibilidade de interceptação a partir da estação final é melhor do que ter seus dados interceptados ainda que criptografados. Para a fibra óptica funcionar ela precisa de três componentes: fonte de luz, meio de transmissão e detector. Convencionalmente, um pulso de luz significa 1 e a ausência de pulso 0. O meio de transmissão é o cabo de fibra óptica e o detector gera pulsos elétricos ao receber os sinais de luz e transmite para um dispositivo que funciona a partir de sinais elétricos – como um computador. Em um cabeamento FTTH, há na residência um terminal de rede óptica (ONT – Optical Network Terminator) que se conecta a um distribuidor (splitter) da região por meio do cabo de fibra óptica. O distribuidor concentra até cerca de 100 cabos de fibra óptica em um. Este cabo se liga ao terminal de linha óptica (OLT – Optical Line Terminator) presente na central telefônica da operadora (end office). O OLT é responsável por fazer a conversão entre sinais elétricos e ópticos. Ele que se conecta à Internet através de um roteador da operadora (Kurose e Ross, [2000]). Dado o fato de os computadores funcionarem com sinais elétricos, os sinais ópticos devem ser transformados em elétricos pelo modem. Um ponto relevante da fibra óptica é que estamos longe de alcançar o limite de sua transmissão de dados, pois essa tecnologia excede 50.000 Gbps (50Tb) de velocidade, ao passo que o limite atual é de 100 Gbps devido a nossa incapacidade de fazer a conversão entre sinais elétricos e ópticos rapidamente (Tanenbaum e Wetherall, [1981]). Outro meio de transmissão guiado é a linha de energia. Embora não seja comum, é possível se conectar à Internet por meio das linhas de energia, usando o PLC (Power Line Communication). A energia elétrica e os sinais do PLC podem trafegar pela mesma linha de energia porque assumem frequências distintas. De modo geral, o sinal sai da central e um equipamento chamado ejetor envia ele para a rede elétrica; durante o percurso há repetidores

93

para evitar que transformadores filtrem a frequência do sinal; esse sinal passa pelo extrator próximo da residência e chega em um modem PLC; este pode ser conectado a um computador, roteador, etc. Tal meio de transmissão possui algumas desvantagens, como a relação com os transformadores que podem absorver os sinais impossibilitando a transmissão; os equipamentos do PLC não podem utilizar filtros de linha, entre outros, para não perder o sinal; e a taxa de envio e recebimento de dados é a mesma, algo que geralmente é otimizado para aproveitar a banda disponível na medida em que tendemos a receber mais dados do que enviar. Após apresentar alguns meios de conexão guiada que chegam em uma residência, descrevo certos meios não guiados. A conexão sem fio (wireless) é utilizada para conectar componentes da infraestrutura da Internet e também como ponto de acesso em casas, universidades, praças públicas, entre outros. Um elemento fundamental para o funcionamento de um wireless é a estação-base (o ponto de acesso sem fio – base station). Ele é responsável por enviar e receber dados de um hospedeiro do wireless. Para isso, precisa coordenar a transmissão de múltiplos hospedeiros com o qual está associado. Torres celulares e pontos de acesso nas redes de área local (LANs) são exemplos de estação-base. Embora ofereça o serviço de rede sem fio para os hospedeiros, geralmente os pontos de acesso se conectam à Internet por meio de cabos. Todos os dispositivos conectados à Internet por um ponto de acesso específico compartilham a mesma banda de saída para a Internet. E o ponto de acesso trabalha como uma espécie de intermediário que afunila dispositivos em uma banda de saída, onde cada dispositivo possui uma fração da referida banda. Para aprofundar o conhecimento acerca do wireless, trato aqui de conexões mediante canais de rádio terrestre e satélite. As conexões por meio de canais de rádio terrestre se valem do espectro eletromagnético para trafegar informação por meio de dados; são atrativos porque além de não dependerem de cabeamento até o usuário atravessam paredes, proveem conexão para dispositivos móveis; e conseguem levar um sinal por longas distâncias. A propagação do sinal dos rádios terrestres depende diretamente do ambiente no qual ela acontece e da distância que o sinal deve percorrer. E assim como nos sinais ópticos e outros meios de transmissão, as conexões wireless também precisam transformar suas ondas em sinais digitais. Os canais de rádio terrestre podem abranger diversos tipos de rede, como mostrado a seguir.

94

Fig. 2.11 – Abrangência de canais de rádio terrestre (Kurose e Ross, [2000]: 543)

Padrões como o 802.11a e g podem ser utilizados em redes das mais diferentes distâncias – contanto que sejam empregados os equipamentos apropriados. Além disso, fica nítida a diferença das tecnologias de telefonia móvel usadas (2G, 3G e 4G) e sua capacidade de tráfego. Outro ponto a destacar é que os padrões empregados na telefonia móvel 4G evidenciam uma convergência entre rede de transmissão de dados de telefonia móvel e as utilizadas pelas tecnologias de redes sem fio, visto que o 4G está totalmente baseado no protocolo IP. O 5G acaba não aparecendo no referido gráfico, mas é necessário escrever algumas linhas sobre ele, o qual é intitulado como o padrão 802.11ac, tendo plenas condições de substituir o 4G e visto hoje como uma panaceia tecnológica. Para além da velocidade substancialmente superior, é notável a preocupação dos EUA em estar à frente do desenvolvimento dessa tecnologia, a qual possui até o momento um protagonismo realizado pela empresa chinesa chamada Huawei, empresa presente e estabelecida no mercado das telecomunicações e de telefonia. Sabemos do quão importante foi para os EUA capitanear o desenvolvimento da Internet e uma série de protocolos fulcrais para seu funcionamento. E hoje fica evidente o incômodo apresentado por políticos do país de não assumir esse protagonismo, o qual desemboca num possível não protagonismo em questões políticas, econômicas e tecnológicas relacionadas à difusão desse padrão. Um dos padrões mais comuns para o acesso à Internet por intermédio de redes locais sem fio é o WiFi (padrão IEEE 802.11). Embora não seja o único padrão de acesso em redes locais, o WiFi assume a liderança e está presente em inúmeros espaços, sendo uma das tecnologias de acesso mais importantes na contemporaneidade. Outro meio comum de acesso residencial à Internet é a via rádio. Para isso, é necessário ter uma antena precisamente alinhada a uma das torres da empresa provedora de acesso, sem nenhum obstáculo à frente; um cabo de par trançado que leve o sinal da antena para o modem; este pode se conectar por outro cabo de par trançado com a placa de rede de

95

um computador ou mesmo com um roteador WiFi. Os problemas desse tipo de acesso se apresentam quando a antena não está bem fixada e muda sua orientação com o vento; e quando há algum obstáculo entre a torre e a antena – algo que pode acontecer com o crescimento de uma árvore, por exemplo. Além disso, não se deve esquecer que uma antena pode receber uma descarga elétrica de um raio, o que danifica equipamentos e prejudica a transmissão de dados. O satélite é outro meio de transmissão não guiado. Ele liga dois ou mais transmissores-receptores conhecidos como estações terrestres. Os satélites recebem dados por uma frequência, geram um novo sinal através de um repetidor e transmitem esse sinal por outra frequência para evitar interferência com o sinal de entrada. Os feixes descendentes – responsáveis por enviar dados para a superfície terrestre –, podem cobrir uma amplitude elevada a ponto de se estender a parte substancial da superfície terrestre ou a apenas centenas de quilômetros de diâmetro. São utilizados três tipos de satélites para a comunicação: geoestacionário (GEO – Geoestationary Earth Orbit), de órbita média (MEO – Medium-Earth Orbit) e de órbita baixa (Low-Earth Orbit).

Fig. 2.12 – Satélites de comunicação, propriedades e quantidade necessária para cobertura global (Tanenbaum e Wetherall, [1981]: 137)

Nota-se a partir da figura acima que o número de satélites necessários para cobrir a Terra varia em conformidade com a altura na qual eles se encontram. Por outro lado, o tempo que um pacote leva para sair do hospedeiro e chegar ao seu destino (latência) varia em sentido inverso ao da altura. O satélite resolve em parte o problema de uma torre de transmissão utilizada em Internet via rádio, pois seu espectro é maior. Seu problema está na esfera econômica, se comparado à transmissão por torre. Outra característica dos satélites é que eles são basicamente meios de difusão (broadcast). Isto é positivo no momento em que se quer transmitir uma mesma página popular de Internet para vários computadores. Em

96

contrapartida, os satélites são um problema na perspectiva de segurança e privacidade, pois a propagação de sinal abrange toda uma área e, se bem sintonizados, atores podem interceptar frequências destinadas a outros. Por isso, a criptografia é essencial para esse tipo de tráfego. Um fator econômico a se considerar é que o custo para a propagação de dados por satélites tem o mesmo independente da distância. A transmissão transcontinental teria o mesmo valor que a transmissão de dados entre casas de uma mesma rua. O meio de acesso varia em conformidade com a tecnologia de satélite adotada. De modo geral, para funcionar esse tipo de irradiação, os satélites precisam emitir sinais para uma antena capaz de receber e transmitir sinais para ele. E o satélite precisa se comunicar com uma antena que o conecte à Internet, o que evidencia sua característica de ser um meio de difusão. Assim, parte massiva da estrutura da Internet se encontra no chão, como os dispositivos que se conectam a ela, computadores que armazenam dados, etc. Além do volumoso número de satélites ativos que estão ao redor da Terra, um sério problema é a poluição que deixam em sua órbita, pois vários são desativados e permanecem orbitando. Sites como Stuff Space79 e Apps.agi80 auxiliam a verificar em tempo real satélites envolta do planeta, o movimento dos mesmos, quem são seus proprietários e mesmo quais dos satélites estão ativos. O Brasil lançou em maio de 2017 o primeiro satélite geoestacionário controlado pelo governo brasileiro numa parceria entre Ministério da Defesa e a Telebrás, o Satélite Geoestacionário de Defesa e Comunicações Estratégicas (SGDC) – ele já pode ser visto por meio do site Stuff Space. Este satélite tem como objetivos principais fornecer uma comunicação segura para as forças armadas e auxiliar na implementação do Plano Nacional de Banda Larga. Embora o lançamento do satélite seja discutido desde 2011, o contrato para sua construção foi assinado em 2013 após as revelações de que o governo brasileiro foi alvo de espionagem da NSA (National Security Agency), agência de segurança nacional dos Estados Unidos, responsável também por adulterar equipamentos de rede para praticar espionagem pela Internet (Greenwald, [2014]). O autor dessa revelação foi , analista de sistemas e ex-funcionário da NSA. A partir dessa incursão pela camada física é notável que a Internet se aproveita de infraestruturas comunicacionais que a precedem para transmitir seus dados, o que inclui até mesmo linhas de energia; os meios de transmissão que possibilitam o acesso à Internet variam de modo significativo seguindo a divisão entre guiados e não guiados. Cada um deles

79Cf. . Acesso em 9 nov. 2017. 80 Cf. . Acesso em 9 nov. 2017.

97

necessita de protocolos em camadas superiores que garantam o tráfego de dados pelos meios físicos disponíveis, os quais podem ser vários na conexão entre um ponto e outro nessa rede mundial de computadores. E para que a comunicação se estabeleça, equipamentos precisam fazer a tradução dos inúmeros sinais em sinais digitais. A camada física deixa patente a noção de convergência digital apresentada anteriormente, onde plataformas de telefonia, TV e Internet criam o novo a partir da sua confluência. Como colocado, o modelo TCP/IP proposto no RFC 1122 (Braden, [1989]) não adota a camada física como uma das camadas de seu modelo. No entanto, a compreensão desta estrutura comunicacional por meio da qual a Internet passa é elementar para a visualização dessa rede de redes. Por outro lado, os debates acerca da governança dessa estrutura estão antes vinculados com a área de telecomunicação do que com a governança da Internet. No entanto, defendo que para entender em profundidade um sistema é necessário retroceder ao menos um passo, do mesmo modo que é importante compreender a infraestrutura da Internet para estudar suas pontas, sua camada de aplicação. Com a finalidade de dar maior materialidade à Internet, maior capacidade de visualizá-la, sigo minha caracterização da rede para além dos meios de transmissão, passando por hubs, switches e roteadores através da espinha dorsal da Internet até alcançar o “outro lado”, aquela parte que está nas “nuvens”, nuvens essas que estão mais em contato com a terra do que nossos pés.

2.4 – Redes, conexões, equipamentos, relações Como se sabe, provedores de acesso, ou provedores de serviço de acesso (Internet Service Providers – ISPs), oferecem o serviço de conexão à Internet a um usuário final. Os ISPs podem ser empresas de telefonia, TV a cabo, universidade, entre outros. Conforme colocado acima, os acessos à Internet são capazes de se dar por variados meios de transmissão, de modo que um ISP pode oferecer variados tipos de acesso. Se o provedor de acesso é o responsável pela conexão com a Internet, é ele que nos conecta ao servidor de conteúdo, entendido aqui como ator que fornece diferentes tipos de informação e serviços online, como notícias, serviço de e-mail e entretenimento. Netflix, Google, Yahoo! e Facebook são alguns exemplos de empresas que também trabalham provendo conteúdo online. Para que esse serviço funcione, os ISPs devem estar conectados entre si. Cada rede ISP possui autonomia para gerenciar sua rede, mas precisa obedecer certas convenções de nomeação e endereço para que suas pontas consigam se comunicar com outros ISPs. Existem

98

níveis de ISPs, onde os mais baixos se conectam com os mais altos que, por sua vez, se conectam entre si. Dito de outro modo, sou cliente do ISP responsável por me conectar à Internet e meu ISP é cliente de um ou mais ISPs que, por sua vez, tecem conexão com outros ISPs. Esta conexão de redes evidencia o caráter da Internet como sendo uma rede de redes, onde o ISP assume centralidade no trânsito de dados. Os ISPs possuem tamanhos variados, podendo servir apenas uma pequena região geográfica, extensões de um país ou mesmo continentes. Nos últimos anos alguns provedores de conteúdo também estão criando sua própria rede e se conectando com ISPs menores, quando possível. O Google é uma dessas empresas. Coloco abaixo uma representação da conexão entre ISPs que estão separados em níveis de extensões geográficas.

Fig. 2.13 – Interconexão entre ISPs

Existem múltiplos níveis de provedores de acesso e são variados os fatores considerados para a classificação dos mesmos, como número de clientes, abrangência, capacidade de tráfego, acordos de peering (tráfego sem custo) e trânsito (tráfego com custo). De modo geral, um peering acontece entre provedores de mesmo nível, ao passo que acordos de trânsito usualmente se estabelecem entre redes de níveis diferentes, nas relações desiguais. Esses níveis são classificados em 3: T1 (Tier 1); T2 (Tier 2); e T3 (Tier 3). De modo breve, o T1 realiza peering apenas com redes T1 e vendem acesso e trânsito para redes de nível inferior (T2 e T3). Além disso, redes T1 possuem uma visão panorâmica da Internet porque têm acesso a toda tabela de roteamento das redes, conseguindo acessar a rede desejada. Os T2 compram acesso de trânsito da T1, realizam peering com redes T2 e vendem acesso a redes T3. Dificilmente os T2 conseguem prover serviço a seus clientes em mais de dois continentes e frequentemente possuem redes de menor qualidade e velocidade do que os ISPs T1. As

99

redes T3 podem fazer peering entre si e fazem acordos de trânsito com T1 e T2. Seu foco é na localidade, cobrindo um país ou sub-regiões. O acordo entre redes de mesmo nível é variado, dependendo de compromissos específicos (Moreiras e Ribeiro, [2014b]). De modo geral, a maior cobertura geográfica é realizada pelas T3, ao passo que as T1 possuem maior volume de trânsito de dados; e os clientes podem se conectar com qualquer um dos Tiers para ter acesso à Internet (Winther, [2006]). Tendo isso em vista, podemos reproduzir o gráfico acima com setas representando trânsito e linhas sem setas representando peering.

Fig. 2.14 – Interconexão entre ISPs – II

Provedores de acesso geralmente se conectam com um número significativo de redes por meio de peering com a finalidade de oferecer a seus clientes um serviço com redundância e performance. Mas, na medida em que isso é alcançado, tendem a minimizar o número de peering com o fito de deixar maior espaço para o estabelecimento de interconexões pagas. Portanto, a competição entre provedores de acesso se sucede a partir de um complexo entre conexões sem custo financeiro – na medida em que se conectar é fundamental para o fortalecimento da rede – e pagas – oferecendo conexão a arquiteturas menores –, onde a configuração da rede de redes não se estabelece considerando apenas valores técnicos compartilhados – como redundância global, confiabilidade e eficiência –, mas pensando também na otimização da rede com vistas a modelos de negócios particulares. Diante disso, concordo com a afirmação feita por DeNardis ([2014]: 123) de que “[a]s opções de interconexão não são apenas acordos técnicos e de mercado, mas arranjos com uma variedade de implicações de interesse público”81. Além de identificar provedores de acesso e de conteúdo, há outros sistemas que compõem esta complexa rede de redes e que se conectam entre si, os sistemas autônomos (Autonomous Systems – ASs). Segundo o Regional Internet Registries Statistics (online), no

81 [“[i]nterconnection choices are not only technical and market arrangements but arrangements with a variety of public interest implications”].

100

Brasil temos mais de 6 mil ASs, sendo o terceiro país com mais ASs no mundo. O país está atrás dos Estados Unidos e da Rússia. A nível mundial e até o momento da escrita da tese (2019), existem cerca de 90 mil sistemas autônomos. Isso deixa claro que os sistemas autônomos são as efetivas redes que, ao se comunicarem, formam a Internet. Não há uma elucidação precisa sobre o que é um sistema autônomo. Mas uma definição recorrente está no RFC 1771 (Hawkinson e Bates, [1996]), sendo considerado que “um grupo conectado de um ou mais prefixos IP são executados por um ou mais operadores de rede, os quais possuem uma política de roteamento ÚNICA e CLARAMENTE DEFINIDA”82. Os prefixos IP são um bloco de números IP. Eles são utilizados pela camada de rede e servem como uma identificação única na rede mundial de computadores. Um número semelhante a este é o utilizado para a identificação dos sistemas autônomos: ASN (Autonomous System Number). Um sistema autônomo pode ser uma empresa de telecomunicações, um provedor de acesso, provedor de conteúdo, uma rede de distribuição de conteúdo (CDN – Content Delivery Network), grandes instituições que operam redes – como agências de governo e universidades. A Unicamp, por exemplo, é um AS. Sua identificação única é o AS5318783. Ela está conectada a outros ASs, como a Rede Nacional de Ensino e Pesquisa (RNP) que possui o AS1916; a FAPESP (AS1251); e a Hurricane Electric (AS6939). Retornando ao ISP, não necessariamente ele é um AS. Isto porque um provedor de acesso pode ser pequeno a ponto de não possuir uma infraestrutura condizente a um AS. Moreiras e Ribeiro [2014b] apontam que os ASs podem ser multihomed, de trânsito ou stub. Multihomed é aquele AS que se liga a mais de um AS, de maneira que se mantém conectado à Internet mesmo que um desses ASs entre em colapso. Ademais, um multihomed não permite que o tráfego de um AS seja enviado para outro por meio de sua rede. Por outro lado, um AS de trânsito permite a troca de trânsito entre ASs mediante sua rede. Já um AS stub se liga a apenas um AS (Moreiras e Ribeiro, [2014b]). Represento abaixo as diferentes relações entre ASs, incluindo linhas tracejadas que equivalem a conexões indiretas.

82 [“a connected group of one or more IP prefixes run by one or more network operators which has a SINGLE and CLEARLY DEFINED routing policy”]. 83 Para maiores informações sobre um AS, cf.: . Sobre mapa de AS no Brasil, acessar: . Cf. estatísticas de ASs no Brasil e no mundo em: . Para lista com maiores ASs do mundo, verificar: . Para visualizar diagrama de controle da Internet a partir das conexões entre ASs, entrar em: . Acesso dos links mencionados em 9 nov. 2017.

101

Fig. 2.15 – Diferentes relações entre ASs

Um sistema autônomo recebe e administra seu próprio bloco de números IP; define sua própria política de gerenciamento e o tipo de serviço prestado; determina os protocolos utilizados; possui um número que identifica a sua rede (ASN); e colabora com outros ASs através de uma linguagem em comum, o protocolo BGP (Border Gateway Protocol). É a cooperação entre distintos ASs que mantém uma rede distribuída, robusta e que consegue lidar com falhas estabelecendo rotas alternativas para o funcionamento da rede. Mas é importante ter em vista que essa robustez topológica funda-se numa desigualdade estrutural dos atores que sustentam essas redes, onde grandes corporações possuem domínio sobre parte significativa daquilo que alicerça a Internet, um aglomerado altamente conectado que, se afetado por problemas técnicos ou ataques, tem condições de desestruturar a Internet.84 Entre as redes que formam a Internet, temos os backbones, os quais correspondem à espinha dorsal da Internet, seu “núcleo”, aquilo que dá às redes locais um caráter global. Um backbone emprega as mais altas velocidades de transmissão de pacotes na rede (Malecki, [2004]). Assim como outros meios de difusão, foi possível se apropriar de cabos intercontinentais existentes para transmitir pacotes informacionais em longas distâncias. Pois sabemos que desde 1850 a América e a Europa já eram conectadas por cabo submarino atravessando o Atlântico85. Os cabos que conectam ASs são elementares para a compreensão das enervações presentes nessa rede de redes, tanto os terrestres quanto os submarinos. Em âmbito nacional, há o Atlas Brasileiro de Telecomunicações (Possebon, [2015]) que traça as linhas no território. No que diz respeito aos cabos submarinos, a TeleGeography possui muitos mapas –

84 Na obra Linked, de Barabási [2002], o autor descreve algumas experiências acerca da robustez de uma rede como a Internet. Para isso, cf. especialmente o capítulo “Nona conexão: Calcanhar de Aquiles”. 85 No que se refere à história de cabos submarinos pelo Atlântico, cf.: . Acesso em 9 nov. 2017.

102

inclusive interativos86 – que facilitam a visualização de concentrações na rede. Por exemplo, até o início desta pesquisa (2014) com exceção do cabo Atlantis-2 que iniciou seu trabalho em 2000, o Brasil não tinha outro cabo submarino conectando o país a outros continentes sem passar pelos Estados Unidos. Agora possui outros dois cabos conectando o Brasil com o continente africano: South Atlantic Cable System (SACS); e o South Atlantic Inter Link. Ambos passaram a operar em setembro de 2018. E o projeto é o de estabelecer outras três conexões de fibra óptica que não passam pelos Estados Unidos para chegar em outros continentes até 2021. Um ponto importante a se destacar é que o Atlantis-2 pode operar em até 8Gbps, ao passo que outros cabos operam, por exemplo, em 500Gbps (Americas 2), 4 Tbps (SAM-1) e há um cabo que até mesmo pode chegar a uma taxa de transmissão de 40Tbps (AMX1) (Possebon, [2015]). O Atlantis-2 possui a menor capacidade de transmissão dentre os 7 cabos backbones conectados ao Brasil até 2015 (Possebon, [2015]). Portanto, este cabo submarino que não passa pelos EUA tem uma taxa de transmissão modesta, o que limita as possibilidades de utilização do mesmo. É certo que parte massiva dos conteúdos acessados pela Internet se concentram nos Estados Unidos e Europa, assim como diversas empresas colocam ao menos parte de seu conteúdo o mais próximo possível de seus clientes para que a experiência seja mais dinâmica. Mas é problemático trafegar pacotes informacionais por um país que possui um histórico de violação de pacotes alheios. Pois no momento em que essses pacotes transitam por um roteador nos Estados Unidos, os mesmos estão diretamente acessíveis por este país. Por outro lado, não é possível pensar em uma Internet que não se conecte com os Estados Unidos dada a centralidade que ele ocupa com equipamentos, conteúdos, entre outros, que são produzidos ou hospedados naquele país87. De todo modo, acredita-se que a liberdade de fluxo informacional aumentará a partir dessas novas conexões com outros continentes sem passar pelos Estados Unidos. Conforme os tipos de conexão apresentados, o acesso de um AS a outro pode acontecer de maneira indireta ou direta. A conexão direta colabora com o desenvolvimento da Internet e proporciona uma Internet mais barata, pois não será necessário pagar a um terceiro a conexão entre esses sistemas autônomos. Essa troca de tráfego geralmente é colaborativa, não envolvendo transação financeira mesmo entre concorrentes porque costuma ser benéfica para os envolvidos. É importante que provedores realizem troca de tráfego regional, pois o tráfego entre serviços ofertados em determinada região tende a se tornar mais barato e rápido.

86 Cf. mapa interativo dos cabos submarinos disponível em: . Acesso em 9 nov. 2017. 87 Cf. texto Cabos submarinos tupiniquins, de Diego Canabarro [2014], para maior problematização de uma (im)possível Internet no Brasil sem se valer dos Estados Unidos.

103

Em uma situação contrária a essa, onde AS A e AS B não estão diretamente conectados, um usuário do AS A que queira acessar o site da prefeitura de sua cidade hospedado no AS B poderia ter que enviar pacotes até um ou mais ASs em outra região para então os mesmos retornarem à sua cidade. Se os ASs daquela região estivessem conectados entre si, não seriam desperdiçados tantos recursos com tráfego de pacotes a longas distâncias, as quais geram um tráfego mais lento e com maior possibilidade de falhas. Ademais, essa conexão não contribuiria com o congestionamento no tráfego de dados em regiões com maior número de conexões entre ASs, pois o tráfego local compreende uma porcentagem significativa de todo tráfego na Internet (DeNardis, [2014]).

Fig. 2.16 – Encurtando distâncias por meio de possíveis conexões diretas

Como a interconexão física mesmo em uma dada região é de custo elevado, seria impraticável se conectar a todos os ASs do local. Diante disso, geralmente as conexões diretas entre ASs acontecem através de pontos de troca de tráfego (IX – Internet Exchange). Os pontos de troca de tráfego passam a ser utilizados nos Estados Unidos durante a década de 1990 com a finalidade de conectar provedores de acesso por meio dos Network Access Points (NAP), pontos físicos para a conexão entre os provedores de acesso. O NAP foi construído com financiamento da NSF, sendo composto inicialmente por quatro empresas localizadas em San Francisco, Chicago, Washington D.C. e Nova York (Tanenbaum e Wetherall, [1981]). Em 1993 foi estabelecido o primeiro IX comercial (DeNardis, [2014]). Em poucas palavras, um IX é uma construção repleta de roteadores de diversas redes, contendo ao menos um de cada rede pertencente àquele IX. As conexões em um IX são estabelecidas entre os atores participantes através de interconexão entre os roteadores presentes.

104

O número de pontos de troca de tráfego tem crescido substantivamente, facilitando a interconexão das redes e aprimorando a Internet88. Além da economia de recursos, aumento da velocidade e menor latência ao conectar ASs de uma região por um IX, um AS com presença em mais de um IX pode vender o transporte entre eles para ASs interessados; pode vender a última milha para ISPs que tenham interesse; entre outros. O esquema abaixo evidencia maior distribuição da conexão entre ASs por meio do desenvolvimento de IXs, abrindo a possibilidade para um espectro significativo de comunicações que, por sua vez, nos possibilita vislumbrar outra ordem de comunicação que pulveriza, mas não elimina, centralidades na Internet. Mas nota-se também a relevância de um IX, o qual passa a ser um ponto nodal na arquitetura da rede, embora seja mais disseminado comparativamente.

Fig. 2.17 – Cenários com e sem IX (IX.br, online)

No Brasil, temos os IXs do IX.br que cobrem parte substancial do território. O IX.br é um projeto do Comitê Gestor da Internet no Brasil (CGI.br) – ator relevante para a Internet no Brasil sobre o qual dissertarei neste trabalho – que cria uma infraestrutura para interconexão direta de ASs no país. O CGI.br possui um núcleo para implementar suas decisões, o NIC.br (Núcleo de Informação e Coordenação do Ponto BR).

88 Cf. mapa com IXs no mundo disponível em: .

105

O projeto IX.br está preocupado em estabelecer nas regiões metropolitanas com interesse em troca de tráfego. Com isso, haveria a racionalização dos custos na medida em que os balanços de tráfego são resolvidos localmente e não pela rede de terceiros que podem estar fisicamente distantes. Outras vantagens dele seria a melhoria no desempenho e qualidade aos clientes, e a operação mais eficiente da Internet como um todo, posto que há maior controle de uma rede sobre a entrega de seu tráfego em regiões próximas de seu AS. Tecnicamente, todos os ASs presentes em um mesmo IX podem se conectar. Por exemplo, a empresa Oquei Soluções em TI (AS61937), pequeno provedor de acesso do município de José Bonifácio, interior do estado de São Paulo, faz parte do IX São José do Rio Preto, do IX.br. Este IX possuía 17 membros até o início de 2019. A Oquei mantém conexão com apenas uma empresa: Sinal BR Telecom LTDA (AS262761). A empresa Oquei também mantém conexão com a Telefônica (AS10429), mas isso se estabelece fora do referido IX. A Sinal BR é membro de outro IX localizado no município de São Paulo. Lá ela se conecta com uma série de outros ASs, incluindo a Hurricane Electric, uma T189. Ou seja, com apenas duas conexões no IX São José do Rio Preto a Oquei Soluções consegue alcançar T1s da Internet. É certo que essas conexões são pagas. Portanto, o investimento realizado pode não estimular a Oquei a tecer outras conexões no IX do qual ela faz parte. Não basta ser um AS determinado a colocar um roteador em um IX para se tornar membro do mesmo. Cada IX possui suas próprias especificações, assim como um AS pode colocar condições para se conectar a outros ASs. Como exemplo de regras para adesão a um IX, destaco algumas encontradas no site do IX.br (): possuir e operar um sistema autônomo; estabelecer acordos de troca de tráfego com outros participantes; implementar protocolo de roteamento exterior BGP4 (fundamental para haver a comunicação entre as redes envolvidas); e participantes não podem utilizar de recursos de outros sem a devida autorização. Sobre o projeto IX.br é pertinente notar que pelo fato de o CGI.br não ser uma operadora de telecomunicação, os IXs não podem ser conectados pelo projeto. Por outro lado, estimulam que ASs participantes em mais de um IX ofereçam serviço de transporte entre as mesmas. Para um país é estrategicamente importante ter IX porque isto faz com que o país não seja tão dependente de outros países para se conectar à Internet. Ademais, se houver problema de conexão com outros territórios, o país com o IX pode permanecer trocando dados em sua região.

89 Cf. mapa de abrangência da Hurricane Electric disponível em: .

106

Um mapa com as posições geográficas de IXs no globo evidencia a desigualdade na distribuição dos mesmos90, onde encontram-se vazios geográficos no norte da África em contraste com um substancial número de IXs na Europa. No norte da África alguns países sequer possuem um IX. Já no Brasil, apenas o IX.br possui 27 IXs e projetos para novos pontos. Esses IXs seguem em grande medida a distribuição de ASs no país91. É indispensável fixar que as relações entre ASs, com a participação ou não de IXs, constituem a Internet. Dito de outro modo, as relações bilaterais ou envolvendo mais atores donos de redes privadas sustentam a composição dessa rede de milhares de redes que só pode ser entendida como uma a partir de uma abstração. Conforme apresentado, tais conexões não estão intimamente relacionadas ao alcance de um bem comum e técnico. Pelo contrário, questões políticas e econômicas podem fazer com que regiões não tenham ou percam sua conexão com a Internet. São os elementos técnicos que fazem a conexão das redes, mas eles estão amalgamados a questões políticas e econômicas. Além disso, IXs são locais de concentração no tráfego de dados que podem ser utilizados como ponto de vigilância e censura – privada ou governamental. Após discorrer neste item sobre provedores de acesso, sistemas autônomos, backbones e pontos de troca de tráfego, dedico as próximas linhas à escrita sobre o que geralmente encontramos do outro lado da rede em uma perspectiva cliente-servidor: data centers. O centro de processamento de dados é uma instalação na qual uma série de equipamentos de tecnologia da informação são agrupados e organizados com a finalidade de armazenar, gerenciar, disseminar e mesmo rodar determinados aplicativos “em nuvem” para seus clientes – como e-mail, mecanismo de busca, editor de texto, etc. Sendo assim, ele pode oferecer diversos serviços, como disponibilizar armazenamento de dados, streaming – processo em que a transmissão e o consumo da mensagem (como um vídeo ou uma música) acontecem ao mesmo tempo, como num fluxo (Neiva, [2013]) – e rodar ferramentas de desenvolvimento e softwares para uso final (como o Google Docs). Empresas como Google, Microsoft, Facebook e Amazon possuem numerosos data centers espalhados pelo mundo. A construção de um centro de processamento de dados é significativamente cara, mas reduz o custo de tráfego e aumenta a performance no tratamento de dados. De modo geral, data centers funcionam a partir de um roteador de borda que conecta aquele sistema com a Internet; um balanceador de carga para distribuir as solicitações

90 Cf. mapas de distribuição mundial de IXs disponíveis em: ; e . Acesso em 27 abr. 2019. 91 Cf. mapa com distribuição de ASs no país no seguinte link: . Acesso em 27 abr. 2019.

107

dos clientes; e diversas torres de servidores conectadas entre si por um comutador – equipamento responsável por reencaminhar pacotes.

Fig. 2.18 – Esquema simplificado de um centro de processamento de dados

Kurose e Ross [2011] apontam uma série de pesquisas sobre como projetar a rede de interconexão, os protocolos que conectam as torres de servidores e os roteadores de borda de um data center. Isto se justifica pela centralidade dos centros de processamento de dados na arquiteutura dominante para tráfego de dados na Internet (cliente-servidor). Um data center consome um nível elevado de energia. Essa energia gera calor que, por sua vez, afeta no desempenho dos equipamentos. Para resolver esse problema é necessário resfriar esses espaços. Isto exige um alto consumo de água. Andrew Blum ([2012]: 239) oferece descrições sobre a precisão com que as empresas escolhem os locais para construírem seus data centers – o que leva em consideração fatores como menor consumo de energia e água – e sobre o obscurantismo corrente na constituição de um centro de processamento de dados: “[u]ma cultura de sigilo desenvolvida no mundo dos data centers, com empresas protegendo ferozmente tanto o escopo completo de suas operações, quanto as particularidades das máquinas alojadas dentro. Os detalhes de um data center tornaram-se como a fórmula da Coca-Cola, entre os mais importantes segredos coporativos”92. O Google prefere deixar em segredo o modo de funcionamento de seus centros de processamento de dados. E um argumento utilizado para isso é a segurança dos dados dos usuários. Ora, não se pode esquecer da divulgação de um denso sistema de vigilância realizado pelos Estados Unidos, incluindo o PRISM – programa que permitia à NSA (Agência de Segurança Nacional norte-americana) coletar comunicações de pessoas através de empresas como Facebook, Yahoo! e Google – e de que não faltam situações em que essa

92 [“[a] culture of secrecy developed in the data center world, with companies fiercely protecting both the full scope of their operations, and the particularities of the machines housed inside. The details of a data center became like the formula for Coke, among the most important corporate secrets”].

108

segurança é posta em xeque. É necessário também considerar o capital investido para o desenvolvimento da tecnologia que adotam nos data centers e que o Google certamente se preocupa com concorrentes. No livro Tubes, Blum [2012] descreve o ambiente de mistério quando foi conhecer um centro de processamento de dados do Google. Todavia, atualmente a empresa tem mudado o distanciamento e “seriedade” com os quais lida com seus usuários. A empresa está investindo no acesso dos clientes a seus ambientes. Por exemplo, ela está expandindo seu espaço para visitantes em sua sede (Googleplex), localizada no Vale do Silício, onde os visitantes podem andar por parte do Googleplex em bicicletas estilizadas, conhecer parte de seus prédios, tirar fotos com estátuas das versões de Android93 e comprar sulvenirs na loja do Google. Além disso, é possível fazer um passeio virtual por data centers a partir da aplicação de mapas da empresa (Google Maps)94. Projetos como o Open Compute Project tentam desconstruir a caixa-preta na qual os centros de processamento de dados geralmente são colocados. Esse projeto cria inclusive espaços para construções coletivas. Conforme o site do projeto: “[a]ssuma o controle do seu futuro tecnológico. O Open Compute Project (OCP) está reimaginando o hardware, tornando- o mais eficiente, flexível e expansível. Junte-se a nossa comunidade global de líderes em tecnologia que trabalharam juntos para abrir a caixa-preta da infraestrutura de TI proprietária a fim de obter mais opções, personalização e economia de custos”95 (OCP, online). No site compartilham esquemas de data centers completos e desafiam as pessoas a melhorá-los. Esse é um outro modo de as empresas resolvem problemas que as assolam. É importante notar que as concepções de “aberto” e “livre” presentes há décadas de desenvolvimento da Internet ganham uma roupagem inovadora e empreendedora no trato com o desenvolvimento ou aprimoramento de novas tecnologias, onde um número substantivo de pessoas fazem do trabalho uma diversão do tempo livre96. Esse tipo de ação empreendedora é semelhante à geração de valor de uma empresa que se dá por meio da nossa prática de navegar pela Internet e deixar nossos rastros, algo que comumente realizamos em nosso tempo livre97. Entre as

93 Cada versão do sistema operacional Android utilizado principalmente para dispositivos móveis possui um boneco. E cada versão possui o nome de uma sobremesa. 94 Cf. . Acesso em 27 abr. 2019. 95 [“[t]ake control of your technology future. The Open Compute Project (OCP) is reimagining hardware, making it more efficient, flexible, and scalable. Join our global community of technology leaders working together to break open the black box of proprietary IT infrastructure to achieve greater choice, customization, and cost savings”]. 96 Cf. maiores detalhes do projeto disponíveis em: . Acesso em 27 abr. 2019. 97 Nesse sentido, essa prática corrobora com o argumento de Adorno (2002) de que o tempo livre do trabalhador é a extensão de sua jornada de trabalho, sendo que neste caso gera-se valor mesmo em momentos de lazer. É possível destacar uma série de outras atividades realizadas no tempo livre através do computador que geram valor a determinada empresa, como a utilização participativa no aplicativo de navegação por satélite Waze, onde

109

empresas participantes do projeto, destaco: Facebook, Intel, Nokia, Seagate, Cisco e Lenovo98. Conforme colocado, existem vantagens no caminho para o tráfego de dados, como economia, qualidade do serviço ofertado e evitar o congestinamento da Internet. Diante disso, provedores de conteúdo de maior porte acabam por investir em uma rede de fornecimento de conteúdo (CDN) que fornece o conteúdo a usuários. Um CDN cuida da disponibilização de conteúdo, monitora a rede e dispõe as informações em pontos estratégicos, ajudando a rede a ser bem aproveitada. Nas palavras de DeNardis ([2014]: 113):

Replicar (também chamado de espelhar) essas informações em servidores distribuídos localizados em todo o mundo por meio de um CDN resolve esse problema ao equilibrar a carga de acesso em vários servidores distribuídos e links de acesso ao invés de em um link para um repositório de informações centralizado. Os CDNs também auxiliam a atenuar a latência ou o atraso que os usuários experimentam caso acessem informações multimídia distantes que precisam atravessar muitos ‘saltos’ ou roteadores antes de chegar ao destino99.

Imagine um provedor como a Netflix fornecendo conteúdo multimedia a partir de um único ponto da Terra. Certamente ela teria gastos elevados. Para resolver esse problema que provavelmente aumentaria de modo significativo a latência da rede, ela construiu uma rede de CDN própria (Florance, [2016]). A partir disso, a Netflix consegue colocar seu conteúdo mais próximo de seus clientes. Como ela tem o interesse de levar seu conteúdo com qualidade para seus clientes, a empresa estimula ISPs a se conectarem a seus CDNs gratuitamente, algo que também é vantajoso aos ISPs porque não precisam percorrem um longo caminho para oferecer esse serviço de streaming aos usuários de seu serviço de acesso. Ao invés de disponibilizar todo o conteúdo que possui, a Netflix faz uma seleção do mesmo e o distribui em conformidade com o perfil da região. Isto gera reclamações por parte de usuários que gostariam de acessar vídeos da Netflix que estão disponíveis apenas em outras regiões. Empresas como Google e Amazon também possuem a própria rede CDN, mas a grande maioria das empresas pagam pela utilização desse serviço. Os maiores nomes de CDN são Akamai, Level 3, Google e Limelight. os usuários podem alertar os demais sobre o que pode ser encontrado no trânsito e mesmo editar mapas. Enfim, ações voluntárias dentro de uma comunidade à primeira instância se apresenta como práticas para um coletivo, mas na grande maioria das vezes há uma ou várias empresas agregando valor econômico com isso. 98 Cf. mapa com distribuição mundial dos data centers disponível em: . Acesso em 27 abr. 2019. 99 [Replicating (also called mirror) this information on distributed servers located around the globe via a CDN solves this problem by balancing the access load over numerous distributed servers and access links rather than over a link to a centralized information repository. CDNs also help mitigate the latency, or delay, that users experience if they access distant multimedia information that must traverse many ‘hops’ or routers before arriving at its destination].

110

A partir dessa apresentação física daquilo que condiciona a existência da Internet é possível perceber que ela tende a ser substancialmente mais complexa do que nuvens. Para além disso, nota-se que a Internet não é algo apartado do real; sua extensão se dá por uma série de conexões e aparelhos. Há diversos equipamentos, concepções arquitetônicas, união de sistemas autônomos e relações entre equipamentos e centros de processamento de dados que fazem a Internet ser o que é: uma infinidade de equipamentos que conversam entre si e possibilitam experiências distintas nas suas pontas. Com vistas a dar continuidade no detalhamento e problematização dessa rede de redes, parto para a camada seguinte, onde efetivamente inicia a Internet: enlace de dados.

111

Capítulo 3 – Arquitetura da rede – II

Todo protocolo também possui um contexto histórico. Examinar as alternativas descartadas a padrões arraigados ajuda a descobrir os valores e interesses em jogo em seu desenvolvimento e seleção100. Laura DeNardis ([2014]: 64)

3.1 – Enlace A camada de enlace de dados se preocupa com o envio confiável de mensagens finitas entre equipamentos diretamente conectados levando em consideração o que constitui a camada física, a qual geralmente varia diversas vezes de material no trajeto entre a origem e o destino dos pacotes de dados que carregam informação, como visto no capítulo anterior. A camada de enlace é o lugar na pilha de protocolos onde hardware e software se encontram. Essa camada também detecta e opcionalmente corrige defeitos da camada física no trânsito de dados. Isto é, detecta e corrige erros no nível de bits, sendo que este serviço depende do tipo de protocolo utilizado na camada. Outra questão que aparece a partir dela é o controle do fluxo de dados, como no caso de um transmissor conseguir enviar mais mensagens do que o receptor é capaz de receber. Nesse caso, é necessário um controle do fluxo de dados. Muitas vezes o controle de fluxo e de tratamento de erros trabalham integrados (Tanenbaum e Wetherall, [1981]). A tarefa da camada de enlace é mais localizada porque movimenta pacotes – chamados nesta camada de frames – de um nó até o seguinte. Um nó pode ser um hospedeiro, roteador, comutador de pacotes (switch), pontos de acesso WiFi (Kurose e Ross, [2000]), etc.; em poucas palavras, um nó é um ponto de recepção e transmissão de mensagens. Essa tarefa de movimentar pacotes de um nó a outro é fundamental para que na camada seguinte (transporte) seja possível o tráfego de dados entre redes. Retomando o exemplo do envio de uma correspondência do Brasil aos Estados Unidos presente no capítulo anterior, a camada de enlace é aquela encarregada de enviar meu pacote do local onde depositei a correspondência até a central regional da empresa e desta para a central responsável para envios de mensagens por avião, etc. Mas a tarefa dessa camada não é simplesmente mover um frame de um nó para o seguinte. A seguir, apresento três dos serviços que protocolos dessa camada podem oferecer.

100 [Every protocol also has a historical context. Examining the discarded alternatives to entrenched standards helps uncover the values and interests at stake in their development and selection].

112

(1) Enquadramento de dados (framing). Quase todos os protocolos desta camada encapsulam os datagramas (pacote de dados da camada de rede) dentro de um frame para transmitir dados contendo dada informação. O frame é especificado de acordo com o protocolo utilizado. (2) Entrega confiável acontece quando um protocolo do enlace garante que enviará cada datagrama para o nó posterior. Este tipo de serviço é comumente utilizado por enlaces com altas taxas de erro para corrigi-lo localmente, como as redes sem fio. Mas esse serviço pode ser uma sobrecarga para enlaces com baixa taxa de erro, como enlaces de fibra, coaxiais e pares de fios trançados. (3) Detecção e correção de erros é essencial para os casos em que há atenuação de sinal e ruídos eletromagnéticos. Em geral, o serviço de detecção de erros é executado em hardware e mais sofisticado do que a de outras camadas. A correção do erro é semelhante à detecção. A diferença é que na correção um receptor não apenas detecta quando há erro no frame como também determina o local preciso do frame onde o erro acontece e assim o corrige (Kurose e Ross, [2000]). Genericamente, existem dois tipos de tecnologias de transmissão de dados de enlace: ponto a ponto e difusão (broadcast). Na difusão pode haver vários remetentes e destinatários conectados a um mesmo canal de transmissão compartilhado. Quando uma máquina desse canal envia dados, todas as demais recebem os mesmos, mas o pacote informacional será ignorado por todas as máquinas para quem o pacote não foi endereçado. Em uma analogia, essa situação seria semelhante a ouvir um anúncio no supermercado para algum repositor ir até o corretor L com urgência. Muitas pessoas ouvem a informação destinada apenas aos repositores. O que se faz é ignorar a informação caso não seja um repositor do supermercado. A radiodifusão é um exemplo de difusão, pois um ponto emite um sinal que vai para todos ao seu alcance. A diferença entre rádio e computador é que todos os computadores podem enviar e receber dados. Como se sabe, a Internet possibilita o que antes faltava na comunicação em massa: a interação entre emissor e receptor. O broadcast está presente em diversas redes, entre elas as de satélite, rede de cabo coaxial e LANs compartilhando um ponto de acesso sem fio (como WiFi). O grande problema desse tipo de transmissão é controlar o fluxo. Para isso, é necessário um protocolo que consiga coordenar o deslocamento de dados, a transmissão de frames. Os protocolos que determinam quem é o próximo a “falar” em um espaço de multiacesso estão em uma espécie de subcamada da camada de enlace chamada MAC (Media Access Control). Ela é importante principalmente em LANs porque em sua maioria utilizam canais de multiacesso. Um dos principais meios de interconexão para redes locais broadcast são Ethernet e WiFi.

113

Já as redes WAN geralmente utilizam o ponto a ponto, com exceção de satélites. Na rede ponto a ponto há um emissor e apenas um receptor na extremidade do enlace onde muitas vezes são necessárias máquinas intermediárias para estabelecer a conexão entre remetente e destinatário. Os protocolos projetados para esse tipo de transmissão são, por exemplo, o Protocolo Ponto a Ponto (PPP – Point-to-Point Protocol) e o Controle de Enlace de Dados de Alto Nível (HDLC – High-Level Data Link Control). O primeiro protocolo serve para variáveis fins, incluindo cuidar do tráfego e controle de erros, de roteador a roteador e de usuário doméstico a ISP (Tanenbaum e Wetherall, [1981]). Já o HDLC é um protocolo orientado a bit que, entre outras características, estabelece, reinicia e encerra conexões, e transmite dados. De modo geral, a camada de enlace é implementada no adaptador de rede, ou placa de interface de rede (NIC – Network Interface Card). O NIC controla o envio e recepção de dados através da rede. Cada tipo de arquitetura de rede exige um tipo de NIC, de maneira que geralmente possuímos um NIC Ethernet em nossos computadores e uma interface de rede para conexões sem fio. O NIC possui em seu núcleo um controlador da camada de enlace. Assim, inúmeros serviços dessa camada são realizados no hardware. Para transmitir uma mensagem, o controlador separa um datagrama recebido que fica armazenado em camadas mais altas que a sua, encapsula o datagrama e transmite o frame. Quando recebe um dado, o controlador extrai o datagrama que se torna objeto da camada de rede. Se o protocolo utilizado verifica erros, é o controlador transmissor que estabelece os bits de detecção de erro no cabeçalho de frame e o controlador receptor que executa a verificação desses erros (Kurose e Ross, [2000]). Cada interface de rede possui um endereço da camada de rede associado a ele. Portanto, um mesmo dispositivo pode ter mais de um endereço da camada de enlace, também chamado de endereço LAN, endereço físico ou endereço MAC. Do mesmo modo, um mesmo dispositivo pode dispor de vários endereços IP. No entanto, um comutador da camada de enlace – também chamado de switch – não possui um endereço MAC nas suas interfaces porque sua função é transportar datagramas entre hospedeiros e roteadores (Kurose e Ross, [2000]). Nesse sentido, é como se a comunicação entre um hospedeiro e um roteador acontecesse sem que houvesse um switch entre eles; um roteador ou um hospedeiro não precisa enviar um pacote diretamente a um switch se ele encontrar-se entre emissor e receptor.

114

Fig. 3.1 – Cada interface conectada à LAN tem um único MAC (Kurose e Ross, [2000]: 489)

O endereço MAC é algo fixo, mas hoje é possível trocá-lo por meio de software. Ao contrário do IP que é um endereço da camada de rede, o endereço MAC não muda se um computador for levado para outra parte do mundo. Ele é um número estável. Ou seja, este endereço é único e possui validade internacional. O IEEE é o grupo responsável pela distribuição de endereço MAC. Para diferenciar o endereço IP do MAC, imagine que o primeiro é uma espécie de endereço postal ao passo que o MAC é um número pessoal, como a identificação do passaporte. Dada a diferença de distribuição desses endereços, pode-se dizer que o MAC compreende uma estrutura linear ao passo que o IP hierárquica. O endereço MAC é capital para o envio de frame em LANs. Quando uma interface quer enviar mensagem para outra da LAN, ela insere o endereço MAC da interface desejada. Assim, quando todas as máquinas da LAN receberem aqueles dados com um endereço MAC específico, elas vão descartar os dados se não possuírem o MAC de destino. No entanto, é possível enviar dados onde todas as máquinas da rede são as destinatárias. Por se tratar de um endereço destinado a enviar e receber pacotes informacionais entre nós, as máquinas conhecem apenas o endereço MAC dos dispositivos de sua LAN. Como endereço IP e MAC são de camadas diferentes, é necessário haver uma tradução entre eles para identificar um destinatário. Esse serviço é realizado pelo protocolo ARP (Address Resolution Protocol), sendo que cada nó da rede precisa ter uma tabela ARP que possui o mapeamento de endereço IP para MAC. E assim como o IP varia, essa tabela também varia com o tempo. Após escrever pontos fundamentais da camada de enlace, discorro sobre duas de suas principais arquiteturas de interconexão: Ethernet e WiFi. Inicio pela arquitetura Ethernet (IEEE 802.3). Durante a década de 1980 e 90 a arquitetura Ethernet teve tecnologias concorrentes, como token ring, FDDI e ATM (Kurose e Ross, [2000]), mas ela dominou o mercado de redes LAN com fio, sendo a primeira LAN de alta velocidade amplamente disseminada (Kurose e Ross [2000]). Ela foi inspirada na rede de computadores construída no

115

Havaí, a ALOHAnet – rede de computadores mencionada no capítulo anterior. Como o Havaí está em um arquipélago, era complexo conectar computadores por cabos. Diante disso, uma arquitetura de interconexão a partir de rádios de ondas curtas ascendentes (até o computador central) e descendentes (do computador central para os demais) foi desenvolvida. O sistema funcionava bem, mas com o tempo foi necessário estabelecer uma estrutura capaz de lidar com as colisões na transmissão de frames. Bob Metcalfe conheceu o trabalho da ALOHAnet e, a partir disso, construiu um sistema broadcast por fio com David Boggs – a arquitetura de interconexão Ethernet –, lançando as bases para as LANs dos computadores de hoje. A Ethernet passou por uma série de evoluções. Se no início estava relacionada a cabos coaxiais, hoje consegue trabalhar também com par trançado e fibra óptica, e possui uma topologia diferente do projeto inicial. A Ethernet não é um protocolo-padrão. Pelo contrário, existem diversas versões, como 10BASE-T, 100BASE-T2 e 1000BASE-SX. Todas elas são padronizadas pelo grupo de trabalho IEEE 802.3101 (Kurose e Ross, [2000]). Algumas das características que possibilitam a longevidade da Ethernet é ela ser simples, flexível, de baixo custo e fácil manutenção. Outro fator é que a Ethernet é fácil de operar com o TCP/IP, modelo que, como se sabe, se tornou dominante na Internet. Dado o caráter de broadcast, a Ethernet envia os dados em uma topologia de estrela, pois recebe os pacotes informacionais e a envia para todos os membros da LAN. Um equipamento que faz isso é o hub (repetidor), um dispositivo da camada física que por isso atua sobre bits e não frames. Ele recria o bit que chega em sua interface, aumenta a energia e o transmite para as interfaces com as quais está conectado. O repetidor simplesmente conecta todos os cabos que se ligam a ele, como se todos estivessem soldados. A partir dos anos 2000, o hub que estava no núcleo da Ethernet foi substituído pelo switch. Assim como o hub, é fácil adicionar e remover estações que se conectam a um switch, basta plugar e desplugar um cabo de par trançado. Uma diferença entre o hub e o switch é que, ao contrário do hub, o comutador de pacotes da camada de enlace transmite frames apenas para as portas às quais os mesmos são destinados. Portanto, as demais portas sequer sabem da existência do frame que não era destinado a elas. Essa restrição no envio de frame influi na segurança do tráfego de dados. Além disso, hub e switch possuem domínios de colisão distintos. Uma colisão acontece quando dois frames são transmitidos simultaneamente. Eles se sobrepõem e o sinal resultante disso é adulterado. Quando um frame sofre colisão ele precisa ser retransmitido. Enquanto num hub há um domínio de colisão em comum, no switch cada porta tem seu próprio domínio

101 Cf. a produção desse grupo de trabalho disponível em: . Acesso em 9 nov. 2017.

116

de colisão. Com esse domínio de colisão não compartilhado no switch, vários frames podem ser enviados ao mesmo tempo e mesmo assim não há colisão. Apresento abaixo a diferença da arquitetura interna do hub, switch e também do roteador – equipamento já apresentado neste trabalho e sobre o qual disserto também no próximo item.

Fig. 3.2 – Esquema de hub e switch (Tanenbaum e Wetherall, [1981]: 306)

Fig. 3.3 – Esquema de roteador (Kurose e Ross, [2000]: 347)

Fisicamente esses dispositivos são parecidos, mas a arquitetura deles se difere de modo substancial. Assim como um roteador, o switch tem a capacidade de armazenar e repassar dados. Isso é importante quando a porta de saída não consegue transmitir frames com a mesma velocidade que a de entrada recebe – entendo porta aqui como a interface física de entrada e saída de um equipamento, algo diferente das portas de software associadas a aplicações de rede. Uma das diferenças existentes entre roteadores e comutadores é que o switch trabalha na segunda camada (enlace) enquanto o roteador trabalha na terceira (rede). Além de não ter colisões (comutador também armazena e repassa informação). Como são de camadas diferentes, utilizam endereços e tipos de pacotes diferentes. Como vimos, o comutador usa o endereço MAC e pacotes de frames, ao passo que o roteador se vale do endereço IP para rotear datagramas. O switch tem a vantagem de ter fácil configuração, alta taxa de encaminhamento, tendo que processar menos dados que o roteador – pois este trabalha em uma camada acima. Por outro lado, uma rede grande formada por switches demandaria grandes tabelas ARP nos hospedeiros e roteadores, gerando elevada taxa de tráfego e processamento ARP. Já o roteador oferece uma estrutura que consegue criar conexões de

117

longa distância, estabelecendo o melhor caminho de roteamento para os datagramas. E como o roteador trabalha com um endereçamento hierárquico (IP), os pacotes não ficam circulando na rede mesmo quando há caminhos redundantes (Kurose e Ross, [2000]). Sinteticamente e tomando como referência o esquema do roteador apresentado acima, o roteador possui portas de entrada nas quais faz o exame do protocolo e consulta sua tabela para indicar por qual porta determinado pacote deve sair; elemento de comutação, responsável por conectar as portas de entrada e de saída do roteador, sendo uma espécie de rede dentro do roteador e considerado seu coração; portas de saídas, incumbidas de transmitir o pacote até o enlace de saída; e o processador de roteamento, cuja função é executar os protocolos de roteamento e também realizar funções de gerenciamento de rede (Kurose e Ross, [2000]). Dessa forma, três equipamentos trabalham em níveis diferentes e, por isso, possuem funções e complexidades distintas, embora a função principal deles seja comutar pacotes. Abaixo, exponho um esquema dos equipamentos e as camadas que implementam (Fig. 3.4) para, a seguir, especificar mais alguns equipamentos e suas respectivas camadas (Fig. 3.5).

Fig. 3.4 – Equipamentos e as camadas que implementam (Kurose e Ross, [2000]: 507)

Fig. 3.5 – Equipamentos e suas camadas (Tanenbaum e Wetherall, [1981]: 358)

Portanto, quanto mais alta a posição do equipamento nas camadas, maior é a quantidade de camadas que precisa processar, sendo que as pontas implementam todas as camadas. Nesse sentido, os próprios equipamentos demonstram que na arquitetura da Internet as pontas são mais inteligentes. Mas não se pode desconsiderar que equipamentos como o gateway de aplicação e o gateway de transporte não fazem parte das pontas da rede. Segundo Kurose e Ross [2000], apenas com propósitos de controle que roteadores rodam protocolos de aplicação

118

e transporte. Ao mesmo tempo, nota-se o complicado intrincamento da rede ao considerar que o hub foi substituído no núcleo da Ethernet pelo switch, equipamento com maior complexidade. E também existe uma série de outros elementos que tornam a rede mais complexa, como os IXs. O conjunto de padrões WiFi (IEEE802.11) constituem outra arquitetura de interconexão sem fio utilizada na camada de enlace. O modo de operação dessa arquitetura foi explicado em grande medida no capítulo anterior, na parte de meios de comunicação não guiado. Portanto, é sabida a necessidade de rádios e estação-base que consigam se comunicar para estabelecer uma comunicação sem fio. O conjunto de padrões WiFi auxilia esse processo. Pois antes de haver um padrão, um computador com rádio de marca X não conseguia se comunicar com uma estação-base de marca Y, o mesmo acontecia em conexões cabeadas com computadores de diferentes marcas antes de padronizarem a comunicação entre eles. O WiFi foi desenvolvido durante a década de 1990, momento em que o IEEE já dominava o padrão de redes locais com cabo. Assim como o conjunto de padrões Ethernet, o WiFi é broadcast. A ideia geral do WiFi é a comunicação de dispositivos por meio de uma estação-base. No entanto, ele também está preocupado com uma comunicação sem a presença da mesma. Pensando na conexão com a Internet, os dispositivos se conectariam à estação-base que, por sua vez, estaria conectada à Internet por fio, onde cada estação-base possui uma área de cobertura, uma célula. Dada a questão da mobilidade, outro ponto importante que destoa da Ethernet é que o WiFi precisa estar atento à transferência de estação-base pelo dispositivo móvel (handoff) – algo que já acontecia com celulares, mas não com o conjunto de padrões Ethernet. Existe uma série de padrões 802.11, os quais variam em frequência, largura de banda, velocidade de transferência e alcance. O padrão WiFi oferece diversos serviços, divididos entre serviços de distribuição e da estação. Os primeiros se relacionam ao gerenciamento da associação a células e interação com estações fora da célula; os segundos são serviços dentro de uma única célula (Tanenbaum e Wetherall, [1981]). Portanto, esses serviços possibilitam a comunicação entre estações e comunicação na estação, o que inclui associação e desassociação de redes (handoff), autenticação, desautenticação, privacidade e entrega de dados – serviços essenciais para uma realidade em que é comum acionar o WiFi em um smartphone e ver que o mesmo se encontra no raio de ação de diversas estações-base ao visualizar uma lista de nomes de várias redes disponíveis. A partir da caracterização dessa camada, expondo suas características, operação e seus principais padrões na comunicação entre nós, vamos adentrar na camada que

119

efetivamente estabelece a conexão entre redes e que, por conseguinte, possui amplo alcance na operação da Internet.

3.2 – Rede Como colocado, a camada de rede se preocupa com a combinação de múltiplos enlaces presentes nas redes para que uma informação saia do emissor e consiga alcançar seu destino – o qual potencialmente está em outra rede –, encontrando o melhor caminho para o envio de pacotes entre esses hospedeiros. Os pacotes podem chegar completamente desorganizados, mas o trabalho da reorganização do mesmo cabe a camadas superiores. Em suma, a camada de rede faz a comunicação entre dois hospedeiros quaisquer da rede de redes, sendo a responsável por manter a arquitetura da Internet unida102. Sua função é basicamente encaminhar (ou repassar) e rotear pacotes. Encaminhar pacotes é o processo interno a um roteador de receber um pacote e encaminhá-lo para a saída apropriada. Rotear envolve todos os roteadores de uma rede, os quais realizam interações entre si que determinam os caminhos percorridos pelos pacotes desde sua origem até seu destino. A comunicação entre roteadores acontece por intermédio de protocolos de roteamento, onde os roteadores estabelecem e utilizam uma tabela de roteamento. Ela é a referência para estabelecer o melhor caminho a um pacote. São protocolos de roteamento que organizam automaticamente esta tabela. Se fizermos a analogia com uma viagem, o roteamento se vincula ao processo de planejamento de uma viagem de um lugar a outro que se dá passando por diversas estradas e cruzamentos. Já o encaminhamento seria o processo de passar por um único cruzamento durante a viagem, onde temos mais de uma opção e devemos escolher aquela que leva ao lugar que se quer chegar. São três os componentes mais importantes dessa camada. (1) Protocolo IP, mencionado anteriormente. (2) Componente de roteamento, responsável por determinar o caminho que o pacote desta camada (datagrama) segue da origem até o destino. Como colocado, protocolos de roteamento criam uma espécie de tabela de roteamento semelhante a que o MAC constrói para uma LAN. Entre esses protocolos, temos: RIP (Routing Information Protocol); OSPF (Open Shortest Path First); e BGP. (3) O terceiro componente é o responsável pela comunicação de erros em datagramas e também por atender a determinadas

102 Uma das formas de perceber a conexão que a camada de rede consegue realizar é visualizar a partir de um mapa os locais que determinado pacote precisa passar ao sair de um remetente e alcançar seu destinatário. Para isso, basta escrever um endereço no link a seguir e visualizar as linhas que compõem conexões: . Acesso em 27 abr. 2019.

120

requisições da camada de rede. O protocolo ICMP (Internet Control Message Protocol) que cuida desse terceiro componente. No decorrer deste item disserto com maior profundidade sobre os dois primeiros componentes. Sobre o terceiro, acrescento apenas que hospedeiros e roteadores utilizam o protocolo de mensagem (ICMP) de controle da Internet para comunicar dados da camada de rede da Internet. Geralmente ele é utilizado para comunicar erros, mas as mensagens variam, como as mensagens a seguir: “hospedeiro de destino inalcançável”; “protocolo de destino inalcançável”; “hospedeiro de destino desconhecido”; “descoberta de roteador”; e “cabeçalho IP inválido”. A camada de rede pode oferecer vários serviços. A entrega garantida assegura a entrega do pacote no seu destino, ainda que isso demore; a entrega garantida com atraso limitado garante a entrega de um pacote com atraso limitado (por exemplo, 80 ms). Existem outros serviços referentes a um fluxo de pacotes: entrega de pacotes na ordem, a qual garante a entrega dos pacotes na ordem que foram enviados; largura de banda mínima garantida, serviço que cria um comportamento de um enlace de transmissão com uma taxa específica de bits entre emissor e receptor, de modo que se o emissor enviar os pacotes abaixo da taxa especificada, nenhum pacote será perdido e chegará dentro de um atraso especificado; e serviços de segurança, onde apenas emissor e receptor sabem a chave de sessão secreta utilizada na codificação da carga dos datagramas enviados ao computador de destino (Kurose e Ross, [2000]). A camada de rede da Internet fornece apenas um modelo de serviço por meio do protocolo IP, o serviço do melhor esforço. Neste serviço, não há garantia de temporização entre pacotes; não há garantia de que os pacotes serão recebidos na ordem que foram enviados; e sequer garantia de que os pacotes enviados foram recebidos. Portanto, se uma rede não conseguisse entregar nenhum pacote ela estaria contida na concepção de melhor esforço. Embora a Internet utilize o modelo do melhor esforço na camada de rede, outras camadas conseguem lidar com serviços que o melhor esforço não consegue oferecer. Mas existem outras arquiteturas de rede que se valem de outros serviços, como o caso da arquitetura ATM (Asynchronous Transfer Mode)103. Por outro lado, todas as redes possuem a função de encaminhar e rotear. O protocolo IP é um dos protocolos essenciais da camada de rede, pois é a partir do número IP que um computador consegue enviar e receber pacotes pela rede mundial de computadores. Como um dispositivo precisa ser identificável na rede para se comunicar, o endereço IP tem um caráter público, sendo fácil descobrir o número IP atribuído ao

103 Para aprofundamento no modelo de arquitetura ATM, cf. Siu e Jain [1995].

121

computador ou servidor que hospeda um site104. O fato de ter o IP de um servidor não significa que tenho a exata localização de um computador, mas apenas a região na qual ele está. Por exemplo, ao pesquisar sobre o site descubro o número IP 65.55.118.92 que está localizado nos Estados Unidos, na cidade de Washington, Virgínia. Isso significa apenas que ao fazer a requisição do número de IP do referido site me indicaram aquele servidor, mas poderia ser de um CDN utilizado pela Microsoft, etc. Além do mais, sabemos que a Microsoft possui numerosos ASs105 que estão espalhados pelo mundo, os quais também distribuem IP para sua rede. Portanto, com o endereço IP é possível identificar a região na qual determinado dispositivo se localiza, mas isso não significa, por exemplo, que o computador responsável por hospedar o site é apenas o de número IP 65.55.118.92. Como colocado ao dissertar sobre o endereço MAC, a distribuição do endereço IP acontece seguindo uma hierarquia. A instituição responsável pela administração dos IPs é a Corporação da Internet para Atribuição de Nomes e Números (ICANN – Internet Corporation for Assigned Names and Numbers). Ela distribui IPs seguindo as diretrizes do RFC 7020 (Housley et al., [2013]). A ICANN oferta os blocos de endereços IPs para cinco registros regionais de Internet (RIR – Internet Regional Registry): LACNIC, ARIN, RIPE NCC, APNIC e AfriNIC. Estes, por sua vez, distribuem os blocos de IP para registros nacionais de Internet (NIR – National Internet Registry). Caso não haja um NIR no país, o RIR (Regional Internet Registry) distribui IPs para ISPs, organizações como bancos, entidades governamentais, universidades, entre outros. Portanto, há toda uma cadeia hierárquica até o usuário final receber um endereço IP para se conectar à Internet, sendo que ele geralmente recebe um número IP de um provedor de acesso. Vale salientar que a distribuição dos ASNs mencionados no capítulo anterior segue o mesmo procedimento. Como um IP é hierárquico e distribuído regionalmente, se eu utilizar meu computador para me conectar à Internet pelo sul do Brasil terei um endereço IP diferente do IP recebido para acessar a Internet pelo norte do país. E o IP não é o endereço de um computador, mas o endereço atribuído a uma interface (NIC) do mesmo. Nesse sentido, se eu tenho no computador uma interface Ethernet e outra WiFi, eu terei dois endereços MAC e dois endereços IP, os quais podem ser hoje atribuídos para meu computador e amanhã para outros. A atribuição de endereço IP para um roteador é geralmente feita manualmente (Kurose

104 Cf. o IP do dispositivo utilizado no seguinte link: . E o IP de um site em: . Links acessados em 9 nov. 2017. 105 Para isso, basta pesquisar o nome “Microsoft Corporation” em sites informados previamente, como ; e .

122

e Ross, [2000]), ao passo que os hospedeiros geralmente recebem um endereço IP por meio do Protocolo de Configuração Dinâmica de Hospedeiros (DHCP – Dynamic Host Configuration Protocol). Ele então é responsável pela distribuição de IPs em uma rede. Primeiro, os equipamentos se comunicam por meio da camada de enlace (endereço MAC) para então haver a atribuição de IP ao hospedeiro. O DHCP pode atribuir IP dinâmico ou estático. O IP estático é importante para servidores e outros elementos da rede – como os roteadores –, pois a partir dele torna-se mais fácil encontrar o número de endereço de um site. Se o site for muito utilizado, provavelmente seu endereço estará salvo em servidores próximos, não sendo necessário um longo processo de requisições para encontrar o endereço IP de determinado servidor. Existiam outros protocolos para fazer a mesma função do IP no momento em que ele foi desenvolvido, especialmente o X.25, durante a década de 1980, e o ATM, durante a década de 1990. Mas o IP era mais simples que os demais concorrentes, conseguindo funcionar acima de qualquer tecnologia da camada de enlace, possibilitando qualquer rede de pacotes se conectar à Internet. Isto porque o IP oferece o serviço de melhor esforço (Lam apud Kurose e Ross, [2000]). Contudo, não se pode esquecer que o IP era um protocolo usado pela rede ARPANET, a rede que modificou, agregou e foi agregada, constituindo assim a Internet. A mudança de um protocolo basal para o funcionamento de toda a rede se mostrou complexo no período supracitado de confluência entre ARPANET e NSFNET. Ademais, é importante lembrar que o desenvolvimento do IP foi subsidiado pelo governo dos Estados Unidos, o que influiu na adoção desse protocolo – conforme já mencionado. Um endereço IP é uma série de números separados por pontos, como: 65.55.118.92. Este é um número da versão 4 do IP e possui 32 bits. Ele é dividido em 4 partes, contendo cada uma delas 4 bytes. Essas partes são separadas por pontos e estabelecidas em notação decimal, indo de 0 a 255. Ou seja, no total temos aproximadamente 4 bilhões de endereços possíveis. A análise para obter a região da qual o número IP é se realiza da esquerda para a direita, sendo o último byte a parte mais específica do endereço. Retomando a analogia da correspondência apresentada no capítulo anterior, processar os números do endereço IP seria o mesmo que ler o endereço do envelope de uma correspondência de baixo para cima. Como cada interface deve ter um único IP exclusivo no mundo, preciso saber o número de IP de um dispositivo para me conectar a ele, o que inclui acessar o computador que hospeda um site. Seria difícil decorar o número de todos os sites que podemos acessar diariamente. Se o único meio de acessar um site fosse pelo número IP, muito provavelmente

123

criaríamos uma lista que relacionasse endereços IP com alguma descrição do site (como seu nome). Por exemplo, é mais fácil memorizar do que 143.106.10.174. Para facilitar ao usuário a conexão com outro computador que hospeda um site, há um serviço realizado pela camada de aplicação que traduz o nome do site para seu número de IP. O sistema que realiza isso se chama DNS (Domain Name System), sobre o qual disserto no item da camada de aplicação. Como o número de dispositivos conectados à Internet tem crescido vertiginosamente, os 4 bilhões de endereços IPs não são suficientes para conectar todos os dispositivos. Uma das respostas a isso é a utilização da técnica NAT (Network Address Translation), a qual permite vários computadores de uma rede utilizarem um mesmo IP. Seria o mesmo que usar o sistema PABX de ligações telefônicas, onde um único número consegue atender um grande número de telefones. Outra resposta é criar uma nova versão do IP. Preocupados com o esgotamento do IPv4, pesquisadores publicaram um RFC sobre a próxima geração de IP em janeiro de 1995, o RFC 1752 (Bradner e Mankin [1995]). Esta é a versão 6 do IP. Nesta versão, o IP possui 128 bits, o que representa um número praticamente infinito de endereços IP (340 undecilhões de endereços). Um endereço IPv6 é representado por conjuntos de números e letras, sendo que os primeiros vão de 0 a 9 e os segundos de A a F, como podemos observar no endereço a seguir: 2A03:2880:2130:9F04:FACE:B00C:0:12C. Mesmo havendo uma série de benefícios do IPv6 comparado ao IPv4106 e mesmo que o IPv6 tenha suporte ao IPv4, o IPv4 não foi totalmente descartado. Pelo contrário, existe uma grande dificuldade de fazer com que todas as redes implementem o IPv6 em seus equipamentos, de tal maneira que o IPv4 possa vir a nunca ser totalmente desativado. Pensando na escassez desses recursos críticos, os números atribuídos aos sistemas autônomos também cresceram, indo de 16 bits (equivalente a 65.536 ASNs) para 32 bits (mais de 4 bilhões de ASNs). Assim sendo, não há uma preocupação quanto a escassez de ASNs. O processo de transição entre essas duas versões de IPs deixa evidente a dificuldade de mudar protocolos de camada de rede. A substituição dos protocolos da camada de rede é comparável a modificar os alicerces de uma casa. Por outro lado, a camada de aplicação implementa novos protocolos com facilidade. Trabalhando com a analogia da construção, mudar um protocolo de aplicação seria o mesmo que mudar a pintura de uma casa.

106 Cf. diversas obras, entre elas Kurose e Ross [2000], e Tanenbaum e Wetherall [2011].

124

Ciente da relevância desse protocolo para a Internet e mesmo da dificuldade para transitar entre versões – o que mostra certa rigidez de mudanças na camada de rede –, discorro sobre outro componente da camada de protocolo, o roteamento. Para isso, escrevo mais algumas linhas sobre o roteador. Um dos principais equipamentos dessa camada é o roteador, sobre o qual dissertei brevemente no item anterior ao compará-lo com o switch. Sua função é basicamente aprender caminhos, receber pacotes e encaminhá-los. Ele faz isso pautado em uma tabela de encaminhamento, a qual é organizada automaticamente por algoritmos de roteamento. Contudo, também é possível configurar manualmente uma rota, chamada de rota estática. Os pacotes podem formar filas tanto nas portas de entrada quanto nas de saída de um roteador. Essas filas estão ligadas a fatores como o tráfego na rede e a velocidade do elemento de comutação. Elas são possíveis porque o roteador tem uma memória. Na analogia do capítulo anterior, há o armazenamento de minha correspondência em pontos específicos, como um galpão. Meu envelope permanece lá até ser encaminhado para o ponto seguinte ou para seu destino. Todavia, há um problema com minha carta se um desses pontos específicos estiverem lotados de correspondência. Do mesmo modo, há problema com o datagrama se a memória do roteador estiver cheia. Caso as filas de pacotes a serem encaminhados estejam grandes a ponto de exaurir a memória do roteador, acontece a perda de pacote. Assim, determinado pacote não chega a seu destino e não pode compor os dados a serem implementados pelo hospedeiro. Nesse sentido, o modelo TCP/IP pode se valer de protocolo de camada superior para garantir que a cópia do pacote perdido alcance seu destino. Geralmente um roteador processa uma larga quantidade de fluxo, por isso suas tarefas devem ser as mais simples possíveis. Mas o esquema apresentado no item anterior sobre o funcionamento de um roteador em comparação ao hub e ao switch evidencia sua complexidade107. Para facilitar a administração de um AS ele pode dividir seus roteadores em redes menores, em sub-redes, que possibilitam trabalhar com a rede em uma escala reduzida. Para além dessas sub-redes, existe uma divisão entre roteadores de um sistema autônomo: aqueles que trabalham internamente a ele; e aqueles que trabalham na interface com outros ASs, comumente chamados de roteadores de borda (gateway router). Um gateway é então responsável por estabelecer a conexão entre redes que muitas vezes podem ter modos de

107 Para compreender em detalhes o funcionamento de um roteador, ler item 4.3 (O que há dentro de um roteador?) do livro de Kurose e Ross [2000].

125

operação diferentes entre si, realizando a conversão necessária tanto em termos de hardware quanto de software para que essa comunicação possa acontecer. Diante dessa diferença de roteadores, existem protocolos de roteamento interno ao AS (IGP – Interior Gateway Protocol) e protocolos de roteamento externo (EGP – Exterior Gateway Protocol). Um protocolo de roteamento interno é utilizado para precisar como funciona o roteamento dentro do AS – como o RIP e o OSPF – e quais são os caminhos ótimos entre emissor e receptor dentro do AS. Já na relação entre ASs, o protocolo tem a função de obter informações de ASs próximos sobre suas sub-redes; difundir a alcançabilidade dos roteadores internos ao AS; e determinar rotas para sub-redes considerando a informação de alcançabilidade e política do AS (Kurose e Ross, [2000]). A partir de detalhes acerca dos blocos de endereço IP de seu AS e dos blocos de IP de outros ASs, o roteador de borda determina a tabela de rotas. E com a tabela de rotas ele indica a melhor rota para o pacote. O principal protocolo para roteamento inter-ASs é o BGP. Portanto, o BGP é o protocolo que agrega toda a Internet (Kurose e Ross, [2000]). Como se pode notar, a camada de rede demarca a dimensão de relações intra e inter ASs, reforçando a concepção de que a Internet é uma rede de redes, as quais possuem suas próprias políticas. O roteador de borda consegue estabelecer fronteiras entre uma rede e outras, sendo que internamente é possível utilizar protocolos distintos de outras redes de computadores. Todavia, é necessário ter um IP para se conectar com máquinas que estão para além das fronteiras delimitadas por roteadores de borda, fronteiras essas que podem transcender continentes e questionar uma dimensão de governo que se paute em um Estado nacional. Fora do AS é necessário um acordo comunicacional por meio do protocolo de roteamento BGP. Os roteadores aparecem aqui como equipamentos que conseguem estabelecer uma visão ampla acerca das redes, possuindo informação sobre as sub-redes que os cercam e, a partir disso e outros elementos, são capazes de indicar o melhor caminho para uma mensagem chegar a seu destino, como colocado anteriormente. Ainda que roteadores consigam se comunicar entre si para anunciar erros no processo de envio e entrega de uma mensagem, o serviço do melhor esforço adotado pela camada de rede não garante que a mensagem chega a seu destino. Para isso, como dito, existe um protocolo da seguinte camada que pode cuidar desse processo: o protocolo TCP. No próximo item discorro sobre a camada de transporte.

126

3.3 – Transporte A camada de transporte tem a função de reforçar o processo de entrega dos pacotes que atendem às necessidades dos mais distintos aplicativos, oferecendo inclusive serviço de detecção e correção de erros de camada anterior. Ela possui a função crítica de prover uma espécie de conexão virtual direta entre aplicações que estão rodando em hospedeiros distintos (Kurose e Ross, [2000]), uma conexão lógica. Isto porque a comunicação deve acontecer de forma que as camadas superiores fiquem isoladas das mudanças que acontecem na tecnologia de hardware. Portanto, o serviço oferecido pela camada de transporte faz com que a de aplicação não tenha que se preocupar com roteadores, switches, ASs, entre outros, para se comunicar com outro computador. O pacote trocado por essa camada é o segmento que, ao ser descapsulado, entrega à camada de aplicação a mensagem. A conexão entre hospedeiros é especificada através de portas, sendo que cada uma delas representa um tipo de serviço. Por exemplo, se quero enviar um e-mail, muito provavelmente haverá uma conexão entre transmissor e receptor por meio da porta 25; na transferência de arquivos é utilizada a porta 20; para acessar páginas web é usada a 80; etc.

Fig. 3.6 – Portas, protocolos e seus usos (Tanenbaum e Wetherall, [1981]: 572) Porta Protocolo Uso 20,21 FTP Transferência de arquivo 25 SMTP E-mail 53 DNS Tradução de número e nomes de domínio 80 HTTP World Wide Web 81 Skype Comunicação sincrônica 6999 BitTorrent Compartilhamento de arquivo

As portas até o número 1024 são consideradas portas bem conhecidas (well- known ports) e são reservadas para serviços padrão (Tanenbaum e Wetherall, [1981]). A ICANN mantém uma lista das portas oficiais dos protocolos de transporte. Mas há também uma série de portas não-oficiais108, como as comumente utilizadas pelo BitTorrent (68881- 6999) e Bitcoin (8333). Uma das maneiras de compreender a camada de transporte é diferenciando ela de um sistema menos complexo, os circuitos. Conforme colocado no capítulo anterior, especificamente no início do item Elementos históricos, alguns acreditam que a Internet tenha se originado em 1969, quando a interligação de computadores se deu não mais com

108 Cf. lista de portas na Wikipédia disponível em: . Acesso em 9 nov. 2017.

127

comutadores de circuitos e sim comutadores de pacotes. Os comutadores de circuitos são utilizados nas redes telefônicas, embora hoje em dia parte do sistema de telefonia também trabalhe com a comutação de pacotes – especialmente em chamadas telefônicas ultramarinas, por serem mais caras (Kurose e Ross, [2000]). A concepção de comutação de pacotes para uma rede global de computadores foi desenvolvida por Licklider em 1962. Ele foi o primeiro gerente do programa de pesquisa de computação da ARPA. Mas como colocado, no ano anterior, Kleinrock [1961] havia publicado um trabalho sobre técnicas de comutação de pacotes. Em 1964, Paul Baran [1964] avançava na pesquisa sobre comutação de pacotes pelas redes militares norte-americanas e na mesma época Donald Davies e Roger Scantlebury desenvolviam ideias sobre o assunto na Inglaterra. Para funcionar, a comutação de circuitos precisa de um caminho dedicado, como a reserva de uma taxa de transmissão constante nos enlaces da rede durante o período em que emissor e receptor estão conectados. Ou seja, é necessário que seja construído uma espécie de túnel de comutação entre eles. A falha em qualquer um dos equipamentos envolvidos desconecta os dois atores. Nesse tipo de comutação o fluxo comunicacional segue o mesmo caminho e os pacotes informacionais chegam na mesma ordem. Para isso, uma largura de banda fixa é reservada para o estabelecimento da conexão entre os dois atores. Por outro lado, a comutação de pacotes não precisa de um caminho físico dedicado; os pacotes não seguem necessariamente o mesmo caminho e sequer chegam na mesma ordem; a reserva de largura de banda é dinâmica, o que diminui o congestionamento no tráfego de dados na rede e a consequente perda de pacotes; e como a comutação de pacotes não tem um caminho físico dedicado, a falha em um dos equipamentos que conectam emissor e receptor não necessariamente irá desconectá-los. Mas o encaminhamento de pacotes tende a ser mais demorado do que a comutação de circuitos. Isto porque enquanto no primeiro há o processo de armazenar e repassar os dados – o que possibilita inclusive a perda de pacotes caso esgote a memória do roteador –, no segundo os bits fluem de forma contínua pelo fio (Tanenbaum e Wetherall, [1981]). A camada de transporte lida diretamente com essas questões da comutação de pacotes, onde pacotes podem ser perdidos e não chegar a seu destino no processo de comutação. Além disso, como os datagramas não seguem o mesmo caminho, eles podem chegar na ordem alterada, cabendo a organização deles. Dependendo do serviço oferecido pelo protocolo utilizado nesta camada, os pacotes poderão ou não ser reorganizados no destino assim como a entrega dos pacotes poderá ou não ser confiável.

128

Dois dos principais protocolos da camada de transporte são o UDP e o TCP. O protocolo TCP oferece a entrega confiável e em sequência de pacotes, sendo criado para se adaptar às propriedades da rede de redes e ser robusto diante das falhas que possam aparecer no processo de tráfego de pacotes. O TCP não é livre de erros, mas a quantidade de erros é baixa o suficiente para os mesmos serem praticamente ignorados. O TCP recebe os segmentos e confere se há alguma parte faltante. Caso tenha recebido todos os segmentos, os mesmos são agrupados e colocados em sequência. Esse protocolo faz com que o emissor fique enviando pacotes até receber uma resposta de que o receptor recebeu todos eles. Além disso, realiza o controle de congestionamento. A partir do reconhecimento de que a rede está congestionada, o TCP diminui sua taxa de transmissão para não a sobrecarregar. Antes de uma aplicação poder enviar mensagens de um host para outro, o TCP das duas máquinas precisa instaurar uma comunicação inicial por meio de segmentos estabelecendo parâmetros de transferência de dados. Este tipo de comunicação inicial é chamado de conexão orientada. Ainda que o TCP ofereça um serviço confiável e que sequencia os pacotes, lidando inclusive com o controle de congestionamento na rede, não são todas as aplicações que foram construídas a partir de suas características. Dependendo do tipo de aplicação é necessário um sistema mais dinâmico e que funcione mesmo com a perda de pacotes. O UDP atende a isso, pois acrescenta apenas a verificação de erros simples e indicação da porta de destino com o fim de entregar os dados do segmento ao processo de aplicação. Ao contrário do TCP, no UDP não há o estabelecimento de conexão para que se inicie o envio de pacotes, não há garantia do recebimento e mesmo da ordem dos pacotes recebidos. Isso faz com que não haja atraso com o processo de estabelecer conexão. Por outro lado, como o UDP não possui o controle de congestionamento, se todos começassem ao mesmo tempo a fazer streaming pelo UDP haveria uma alta taxa de perda de pacotes na rede e a velocidade do TCP diminuiria drasticamente. Em síntese, o UDP oferece um serviço econômico e seguro, mas sem controle de congestionamento e de fluxo. Este protocolo é mais utilizado em consultas e aplicações diretas tipo cliente-servidor onde a entrega imediata é mais importante do que a entrega precisa, como videoconferência, VoIP, streaming e jogos interativos. Segue abaixo alguns exemplos de utilização dos protocolos UDP e TCP.

129

Fig. 3.7 – Aplicações da Internet e seus protocolos de transporte (Kurose e Ross, [2000]: 227) Aplicação Protocolo de aplicação Protocolo de transporte Correio eletrônico SMTP TCP Web HTTP TCP Transferência de arquivo FTP TCP Recepção de multimídia Tipicamente proprietário UDP ou TCP Tradução de nome DNS Tipicamente UDP

No próximo item escrevo sobre esses protocolos de aplicação, pertencentes àquela camada que tem contato direto com o usuário.

3.4 – Aplicação Finalmente, a última camada, aquela que possui os protocolos de nível mais alto, como protocolo de transferência de arquivo (FTP – File Transfer Protocol), protocolo de correio eletrônico (SMTP), o DNS (Domain Name Server) que mapeia os nomes de hospedeiros para seus endereços de rede e o HTTP, usado para buscar páginas na web. Embora sejam implementados nos hosts, a camada de aplicação contém programas que dependem da rede para funcionar, sendo que a grande maioria das aplicações da rede possuem uma interface com o usuário, como o navegador web. Um protocolo de aplicação é distribuído por diversos sistemas finais e os protocolos dessa camada servem para trocar mensagens com a aplicação presente em outro sistema final. Eles podem ser públicos – como os especificados em RFCs, sendo o HTTP um exemplo de protocolo público – ou próprios, como o Skype. Disserto abaixo sobre alguns protocolos da camada de aplicação me concentrando no DNS, FTP e HTTP, e os serviços nos quais eles estão envolvidos. Como colocado, o sistema de nome de domínio (DNS) é o tradutor de nomes para endereço IP e vice-versa, ele especifica um mecanismo de mapeamento automático de nomes de hospedeiros e seus respectivos endereços IP. É a partir dele que as máquinas são identificadas e encontradas, possibilitando a interconexão. Pois, como sabemos, para que haja a comunicação mediada por computador é necessário saber o endereço IP das máquinas envolvidas na conexão. Conforme Eijk e Maniadaki [2007], nomes de domínio são o principal instrumento para uma informação ser encontrada na Internet e também estão no centro da comunicação entre usuários. Pelo fato de termos maior facilidade de gravar nomes de sites do que seu endereço IP, esse sistema trata de fazer essa tradução de maneira praticamente automática quando

130

digitamos algum endereço em nosso navegador, sendo este entendido como uma interface amigável de acesso a conteúdo web. Diante disso, o serviço oferecido por esse sistema é uma espécie de grande banco de dados no qual são armazenados endereços IP com seus respectivos nomes, um sistema generalizado de banco de dados distribuídos, visto que não se concentra em um único computador e possui uma hierarquia entre servidores específicos que compõem esse sistema. O DNS se tornou necessário no momento em que novas redes (especialmente LANs) foram adicionadas à ARPANET durante a década de 1980. Quanto mais redes eram adicionadas, mais trabalhoso se tornava para encontrar um hospedeiro. Antes disso, havia um número limitado de hospedeiros, de modo que era simples manter uma tabela associando o hospedeiro a seu nome e endereço. Antes do DNS, bastava baixar um arquivo HOSTS.TXT mantido por Postel (DeNardis, [2014]). O arquivo era uma tabela centralizada que se modificava com a adição de novas redes e seus respectivos hospedeiros. Jon Postel e Paul Mockapetris testaram o sistema pela primeira vez em junho de 1983. Como parte significativa dos hospedeiros possuem hoje IP dinâmico e como a cada dia mais dispositivos se conectam à Internet, essa tabela está constantemente mudando. Ela é uma espécie de lista telefônica que muda constantemente inúmeros de seus números e endereços. Esse sistema recebe bilhões de requisições diárias. Ele funciona a partir de uma estrutura hierárquica de servidores geograficamente distribuídos cujo topo é ocupado por servidores raiz. Os servidores raiz são os responsáveis por saber aonde estão os domínios de topo (TLDs – Top Level Domains), um dos componentes dos endereços da Internet. Os TLDs podem ser de países – como “.br” (Brasil), “.us” (Estados Unidos) e “.ar” (Argentina) – ou genéricos – como “.edu”, “.net” e “.org” . Nesse sentido, o DNS contradiz a ideia inicial de que a rede não deveria ter pontos centrais (Moreira et al. [2009]). A operação desse sistema se dá tendo em vista (1) examinar e atualizar esse grande banco de dados e (2) transformar nomes de domínios em endereços IP e o inverso. Ele é hierárquico porque ao digitar em um navegador uma página que quero acessar, esse nome de domínio é dividido em partes que são tratadas hierarquicamente da direita para a esquerda e encaminhada para servidores que seguem uma hierarquia para encontrar o endereço. O que marca a divisão do endereço em partes são os pontos presentes nele. Por conseguinte, o processo de requisições se dá da parte genérica do nome (TLDs) até sua parte específica, como demonstrado na representação gráfica abaixo com o endereço .

131

Fig. 3.8 – Hierarquia do DNS

Nesse processo, primeiro é preciso saber aonde se encontra o servidor que sabe a localização dos endereços “.br” para, entre eles, saber quais possuem os “.com.br” e assim encontrar o “.google.com.br”. Uma vez que o navegador possui o endereço IP a partir do DNS, os hospedeiros podem se conectar para correspondência (mail através da porta 25), página da web (www por meio da porta 80), transferência de arquivos (FTP pela porta 20 ou 21), etc. Cada nível conhece apenas os servidores de nomes de domínios imediatamente inferiores. Nesse sentido, são necessárias diversas requisições até meu computador acessar o serviço desejado. Como essas requisições precisam ser rápidas e não há problema se elas se perderem no processo, o DNS utiliza o protocolo UDP. Para realizar as requisições, os computadores dos usuários possuem um componente chamado “resolver”. Ele consulta um servidor chamado recursivo que geralmente está no provedor de acesso. Os recursivos que realmente fazem as consultas a toda a árvore de servidores. Portanto, o processo geralmente acontece nesta ordem: navegador; resolver; servidor recursivo; requisições à árvore de servidores.

132

Fig 3.9 – Representação gráfica do funcionamento do DNS

Primeiro é realizada a requisição ao servidor raiz, o qual possui nome e endereço dos servidores DNS autoritativos de domínio de topo. São apenas treze servidores raiz no mundo. Dez deles estão localizados nos Estados Unidos, um na Ásia e dois na Europa109. Os servidores raiz são nomeados de A a M. Os servidores autoritativos possuem um banco de dados de outros servidores autoritativos e de nomes de domínio bem como o IP dos servidores diretamente inferiores a ele. Por exemplo, o servidor autoritativo “.com.br” sabe o endereço dos servidores “.gov.br”, “.edu.br”, entre outros, e os de seu domínio, como “bb.com.br”, “hotmail.com.br”, “uol.com.br”, etc. Diante disso, quando requisitam um endereço IP, um servidor autoritativo pode responder do seguinte modo: (1) “Este é o endereço de IP do nome de domínio requisitado: ...”; (2) “Não sei, mas este servidor autoritativo pode te ajudar: ...”; (3) “Erro: o domínio solicitado é inválido ou inexistente”. Na representação acima, todos os servidores souberam responder às requisições até encontrar o endereço IP desejado. Como se pode observar, há toda uma estrutura hierárquica que determina o modo de funcionamento desse sistema e orienta as requisições para servidores capazes de responder

109 Cf. o nome, endereço e localização de todos os servidores raiz em: . Para conferir as requisições diárias ao servidor A, por exemplo, cf. .

133

aos pedidos que objetivam estabelecer conexões entre hospedeiros. Nesse sentido, existem servidores raiz, servidores de domínios de topo de países, genéricos e até mesmo de um ISP. Este servidor DNS local que pode ser de uma universidade, departamento acadêmico, ISP residencial, etc., não necessariamente pertence a essa hierarquia de servidores (Kurose e Ross, [2000]). É importante saber que nesse processo pode ser que um dos servidores tenha em sua memória temporária (cache) o endereço requisitado e que não seja necessário fazer todos os pedidos apresentados na representação gráfica acima. Nas próximas consultas, servidores intermediários de nomes irão verificar se já não possuem a informação antes de retornar o IP de níveis superiores. Do mesmo modo, a estação que iniciou a série de requisições também guarda na memória cache a tradução do mesmo nome de domínio. Nesse sentido, o servidor raiz não necessariamente será requisitado em todas as conexões que eu quiser estabelecer. Outro ponto é que embora os servidores raiz sejam tratados como treze, os mesmos são replicados ao redor do globo por motivos de segurança e confiança110. Por exemplo, em junho de 2017 o Brasil possuía vinte e oito cópias de servidores raiz. Nesse sentido, um servidor raiz e seu endereço IP correspondente pode equivaler a vários servidores físicos espalhados pelo mundo. O servidor A (IPv4 198.41.0.4 e ASN 26415), operado pela VeriSign, tem servidores em Frankfurt, Hong Kong, Londres, Nova Iorque e Los Angeles. Já o servidor K (IPv4 199.7.83.42 e ASN 20144), operado pela ICANN, possui 160 servidores espalhados pelo mundo. Segundo Möller [2007], não existem mais de treze servidores raiz por conta das limitações do protocolo. O servidor raiz A possui um papel central. Ele contém dados de todos os outros servidores raiz e transmite esses dados duas vezes por dia para todos os servidores (Möller, [2007]). Todavia, nenhum servidor DNS possui a informação de todos os hospedeiros da Internet. A entidade responsável por esse sistema é a ICANN, a qual além de operar o servidor K realiza a administração do DNS através da função IANA (Internet Assigned Numbers Authority), responsável, entre outros, pela atribuição de nomes (domínios) e números (IP e AS) na rede mundial de computadores. Como se pode observar a partir do que foi colocado até o momento, a ICANN assume a função de gerenciar funções fundamentais para a arquitetura da Internet, como os identificadores únicos que mantém a Internet operacional, os recursos críticos da Internet – o que inclui endereços da Internet, número dos sistemas autônomos e nomes de domínios. Dado o fato de exercer essa atividade, no capítulo

110 Cf. mapa com servidores raiz e suas cópias disponível em: . Acesso em 9 nov. 2017.

134

seguinte discuto, entre outros, essa instituição dentro de um espectro da Internet chamado de governança da Internet. Diferente de outros protocolos de aplicação, como os utilizados para e-mail, transferência de arquivos e navegar na web, o DNS é uma aplicação que não interage diretamente com o usuário. A partir do que foi colocado até o momento, torna-se evidente que (1) o tráfego da Internet não passa pelos servidores raiz; a eles são feitas requisições, como se fosse a consulta a uma lista telefônica. (2) As requisições não são direcionadas necessariamente aos Estados Unidos, dado que existem múltiplos servidores espalhados pelo mundo. E (3) o Brasil também possui cópias dos servidores raiz, precisamente dos servidores F, I, J e L. Todavia, não se pode dizer com isso que os Estados Unidos deixam de ser central na Internet, conforme colocado anteriormente. E também não se deve esquecer que os servidores DNS têm a potência de servir como alvos para a suspensão da Internet em determinadas regiões dado o tipo de serviço que ele oferece. Feito o detalhamento do sistema DNS, apresento o FTP. O protocolo FTP, destinado a transferência de arquivos entre computadores remotos, passou a ser utilizado em 1974. Como o FTP lida com arquivos, ele utiliza o serviço oferecido pelo TCP na camada de transporte se valendo do modelo cliente-servidor para funcionar. O primeiro computador (servidor) possui determinado arquivo que o segundo (cliente) quer copiar. É estabelecida uma conexão entre eles para o cliente copiar o arquivo do servidor. Por exemplo, membros do NIC.br geralmente deixam uma cópia dos documentos mencionados e das apresentações no seguinte link: . O navegador abre uma série de pastas por meio das quais o cliente pode pesquisar e fazer download de arquivos. Outro exemplo é o serviço de FTP que o setor de informática do IFCH (Instituto de Filosofia e Ciências Humanas) da Unicamp oferecia a seus alunos. Cada discente possuía um espaço virtual no qual poderia armazenar arquivos que eram acessíveis ao logar em uma máquina da sala de informática. No entanto, esse mesmo espaço virtual estava disponível por meio do serviço FTP. Para isso, o aluno teria que instalar um programa em seu computador (Filezilla), configurar a conexão daquela aplicação com a do servidor do IFCH, se identificar e colocar uma senha. Nessa configuração era necessário colocar inclusive a porta de acesso: 21. A partir disso, o aluno poderia administrar seus arquivos remotamente, fazendo download, upload ou mesmo deletando os arquivos da pasta. O BitTorrent é outro protocolo da camada de aplicação que se vincula a transferência de arquivos, mas seguindo o modelo P2P. Ele é fortemente combatido por empresas que lutam pela propriedade intelectual porque um grande número de arquivos trocados por meio desse protocolo violam direitos autorais bem como por uma economia

135

voltada a preservar modelos tradicionais de distribuição de mídias. O BitTorrent é relevante para o tráfego diário na Internet, representando 40% do mesmo (BitTorrent, online). Mediante esse protocolo o host pode compor um arquivo baixando ele de vários atores (peers) ao mesmo tempo. E não é necessário ter o arquivo completo para disponibilizá-lo a outros hosts. Suponhamos que quero baixar um documentário. Por intermédio desse protocolo, começo a baixá-lo de uma série de peers que possuem esse mesmo protocolo. Faço o download de fragmentos do arquivo de vários peers ao mesmo tempo. Assim que começo a baixar ao menos parte do arquivo, o conteúdo que passa a estar no meu computador, ainda que fragmentado, pode ser baixado por outros usuários que tenham interesse no mesmo arquivo. Como coloca DeNardis [2014], o design do BitTorrent de conectar diretamente sistemas finais de modo descentralizados sem intermediários é consistente com os valores originais da Internet em suas redes antecessoras. Tentar restringir esse tipo de protocolo ancorado apenas em argumentos técnicos não pode se sustentar ao considerarmos que as “técnicas” fazem parte de uma tecnopolítica que se exerce por meio das mais diversas facetas, onde a dimensão dita técnica pode ser inclusive uma linha argumentativa que mascara questões de dimensões políticas, econômicas, entre outras. Um dos principais eventos da década de 1990 para a Internet foi o advento da World Wide Web. Ela foi responsável por oferecer um caráter interativo com a Internet a um número elevado de pessoas através do navegador web em uma década que a mesma passou a ser acessível comercialmente, servindo também como plataforma para a habilitação e disponibilização de diversas aplicações. Entre essas aplicações, temos busca (como Google, Bing e DuckDuckGo), comércio pela Internet (por exemplo, Amazon, Submarino e eBay) e redes sociais (como Facebook, Twitter e LinkedIn). Todavia, não foi a web quem inaugurou os serviços oferecidos para redes de computadores. Como colocam Elton e Carey [2013], é comum esquecer dos serviços oferecidos online que precederam a web e o papel que esses serviços tiveram na rápida difusão da Internet, como e-mail, conferência por computador, banco de dados online, banco eletrônico, quadro de avisos e mesmo o videotexto (uma plataforma do início da década de 1970 no Reino Unido que oferecia diversos serviços online): “[c]oletivamente, essas aplicações on-line contribuíram muito para o entendimento de interfaces de usuário, publicidade, conteúdo, compras, jogos on-line, gráficos, comunicações, e as necessidades e os bens de pessoas comuns”111 (Elton; Carey, [2013]: 28-29). Ademais,

111 [“[c]ollectively, these online applications contributed in a major way to the understanding of user interfaces, advertising, content, shopping, online games, graphics, communications, and the needs and whats of ordinary people”].

136

defendem que a omissão disso resulta em uma perspectiva incompleta e excessivamente centrada nos Estados Unidos112. Tim Berners-Lee começou a desenvolver a web no Centro Europeu para Física Nuclear (CERN – Organisation Européenne pour la Recherche Nucléaire) no final da década de 1980. Seu ambiente de trabalho era desafiador, pois assim como em outras instituições havia uma série de máquinas de marcas diferentes que não conseguiam se comunicar. Sua proposta era a de criar um espaço onde essas máquinas conseguissem trocar informação, mesmo que tivessem sistemas operacionais diferentes e fossem de distintas redes de computadores (Berners-Lee, [1999]). Esse esforço inicial sofre uma série de modificações e em junho de 1993 a web entra em domínio público (CERN, [1993]). Berners-Lee se inspira em trabalhos anteriores para desenvolver o projeto, como os sobre hipertexto – texto em formato digital no qual se agrega uma série de informação por meio de links que encaminham o leitor para outra página (como na Wikipédia) – realizados por Bush [1945] (Memex113) na década de 1940 e por Ted Nelson114 (Xanadu, [2017]) (Xanadu). Além disso, o contexto familiar de Berners-Lee também influenciou no desenvolvimento da web115. Ou seja, não houve um “Eureca!” no desenvolvimento da web. Mesmo em sua época havia projetos parecidos com o seu sendo elaborados, como o Prospero por Clifford Newman; o WAIS (Wide Area Information Servers), desenvolvido pela Thinking Machines, KPMG e a Apple; e o Gopher, de Mark McCahill. Inclusive os dois últimos sistemas se disseminaram antes da web. Berners-Lee ficou preocupado porque isso poderia sufocar a web (Berners-Lee, [1999]). Em pouco tempo a web assumiu proporções significativas (Heylighen, [1994] e Berners-Lee, [1999]), a ponto de muitas vezes ser confundida com a própria Internet, assim como hoje confunde-se o Facebook com a

112 “Os serviços on-line para o público em geral não começaram com a web. Em mais de uma dúzia de países, começaram mais cedo, e, certamente, ajudaram a impulsionar a vigorosa e precoce difusão da Internet”. [“Online services for the general public did not start with the web. In a dozen or more countries, they started earlier, and they certainly helped drive the remarkably vigorous early diffusion of the Internet”] (Elton; Carey, [2013]: 45). 113 Cf. vídeo sobre o digrama do Memex disponível em: . Acesso em 9 nov. 2017. 114 “Ele [Ted Nelson] sonhava com uma sociedade utópica, na qual todas as informações podiam ser compartilhadas entre pessoas que se comunicavam como iguais” (Berners-Lee, [1999]: 05). [“He [Ted Nelson] had the dream of a utopian society in which all information could be shared among people who communicated as equals”]. Abbate [1999] considera Ted Nelson um dos representantes da contracultural hacker das décadas de 1960 e 70. 115 “Sou filho de matemáticos. Minha mãe e meu pai faziam parte da equipe que programou a primeira máquina de programa armazenado comercial do mundo, o ‘Mark I’ da Universidade de Manchester, o qual foi vendido pela Ferranti Ltd. no começo da década de 1950” (Berners-Lee, [1999]: 03). [“I am the son of mathematicians. My mother and father were part of the team that programmed the world's first commercial stored-program computer, the Manchester University ‘Mark I’, which was sold by Ferranti Ltd. in the early 1950s”].

137

Internet116. É notável porque mais uma vez é possível constatar que a construção coletiva da Internet pensando em um “bem comum” é algo relativo e que acaba por se dissolver nas práticas do desenvolvimento dessa rede mundial de computadores, onde há também disputas que permitem agir sobre a ação do outro ao estabelecer, neste caso, o projeto de Berners-Lee como o mais utilizado e “legítimo”. E isso não se dá apenas pelo convencimento ou qualidade técnica. “Eu diria a eles [seus colegas de serviço]: ‘Podemos criar uma base comum para a comunicação e, ao mesmo tempo, permitir que cada sistema mantenha sua individualidade. Essa proposta está relacionada a isso, e o hipertexto global é o que permitirá que haja sucesso. Só há a necessidade de criar um endereço para cada documento ou tela em seu sistema e o resto é fácil’”117 (Berners-Lee, [1999]: 20). Juntamente com seus colegas, Berners-Lee elaborou o navegador, servidor web, HTTP, URL e o HTML (HyperText Markup Language), cinco componentes imprescindíveis para o funcionamento da web (Berners-Lee, [1999]). (1) O navegador (como Google Chrome, Firefox, Safaria e Internet Explorer) é a aplicação por meio da qual o cliente acessa informações disponibilizadas na web. (2) O servidor web (como Apache e Windows) é responsável por armazenar dados da web e responder às requisições feitas por meio do protocolo de aplicação HTTP. Ele possui IP fixo e pode receber milhões de requisições de diferentes navegadores por dia. A partir desse endereço não é possível saber à primeira vista se o documento está no Brasil ou no Japão, o que deixa evidente o caráter difuso dos arquivos presentes na web, a ponto de em cliques estar conectado com um servidor no Brasil e, em seguida, com um no Congo. (3) HTTP é a base para a comunicação entre cliente e servidor web, definindo a estrutura das mensagens e o modo como cliente e servidor as trocam (Kurose e Ross, [2000]). (4) URL (Uniform Resource Locators) é um esquema de endereçamento universal utilizado para localizar recursos disponíveis na Internet, de forma que todo arquivo disponível na web é identificado com um endereço URL único118. (5)

116 Segundo pesquisa divulgada nos Estados Unidos (Convergência Digital, [2015]), 55% dos brasileiros acreditam que o Facebook é a Internet. 117 [“I would tell them [your coworkers], ‘We can create a common base for communication while allowing each system to maintain its individuality. That’s what this proposal is about, and global hypertext is what will allow you to do it. All you have to do is make up an address for each document or screen in your system and the rest is easy’”]. 118 Por exemplo, quando entro no endereço e clico no link “redes de computadores”, sou direcionado para outro arquivo em HTML cujo endereço é . Se eu clicar na imagem presente nesta página, serei direcionado para um arquivo de imagem JPEG hospedado em: . E assim o processo segue infinitamente. Se eu digitar qualquer um desses endereços no meu computador e não houver nenhuma restrição pelos dispositivos que conectam meu computador até onde aquela página está hospedada, posso acessar o conteúdo disponível na mesma de qualquer parte do mundo. Links acessados em 9 nov. 2017.

138

HTML é um padrão para formato de documentos na web, sendo empregado na construção de páginas web, as quais podem ter links para uma série de recursos, como arquivos de imagem JPEG, formato PDF, etc. Todos esses componentes foram se aprimorando com o tempo, o que amplia sua utilidade. Por exemplo, se na primeira versão do HTML era possível utilizar, entre outros, hyperlinks e imagens, na sua quinta versão são acrescentadas diversas possibilidades, como áudio, vídeo, imagens e mapas ativos, e equações. Outro protocolo que merece destaque é o XML (eXtensible Markup Language), pois o mesmo estabelece uma infraestrutura comum para diversas linguagens, operando como uma espécie de ponto de comunicação. E tanto o HTML quanto o XML são “mark-up languages”, fornecendo assim especificações comuns que podem interpretar dados e exibi-los através de um navegador web. Coloco abaixo alguns exemplos de URLs:

Fig. 3.10 – Exemplos de URLs Nome Usado por Exemplo http Hipertexto http://www.kyatera.com.br/ https Hipertexto com segurança https://www.ifch.unicamp.br/fppgs/ ftp FTP ftp://ftp.nic.br/ File Arquivo local file:///C:/Users/rapha/Downloads/hz158a.pdf mailto Enviar e-mail mailto:[email protected] rtsp Streaming tsp://youtube.com/montypython.mpg

Para facilitar a compreensão de um URL, vou tomar como exemplo o e desmembrá-lo. “https” é o protocolo utilizado na conexão. Ele possui uma camada adicional de segurança se comparado ao HTTP. Como sabemos, o protocolo poderia ser HTTP, FTP, entre outros. Nesse caso, a porta de comunicação utilizada pela camada de transporte para acessar determinado conteúdo será a 80. “www” é o tipo de serviço oferecido (web). O domínio “ifch.unicamp.br” é o endereço pelo qual o servidor atende às requisições de recursos. “/fppgs/1fppgs/files/” é o local no qual o recurso solicitado se encontra. E “anais- 1fppgs-caderno-trabalhos-completos.pdf” é o nome do arquivo solicitado, um arquivo de texto em formato PDF. Outro elemento que hoje faz parte da web é o cookie. O cookie é um componente que passou a ser relevante ao mesmo tempo que controverso na web. Basicamente, um cookie é um código atribuído por um servidor ao navegador que o reconhece quando este está no site ou o acessa novamente. Mas ele pode inclusive acompanhar a navegação do consumidor em outros sites. Além disso, um cookie pode restringir o acesso de determinado usuário ou

139

mesmo apresentar conteúdo em função da identificação do mesmo. Este código fica armazenado no computador do navegador, sendo o usuário ciente ou não disso. A grande maioria dos sites comerciais utilizam cookies, realizando um rastreamento pelos sites que os usuários visitam. Isto pode dizer muito sobre eles. É a partir disso que recebemos propagandas direcionadas em sites de mecanismo de busca, no Facebook, entre outros. Por outro lado, essas empresas podem se valer de outros modos de rastreamento. Por exemplo, o Google faz inclusive leituras dos e-mails de seus usuários para oferecer a eles recursos que consideram relevantes para os mesmos. Como colocado nos Termos de serviço do Google, atualizado no dia 14 de abril de 2014: “[n]ossos sistemas automatizados analisam o seu conteúdo (incluindo e-mails) para fornecer recursos de produtos pessoalmente relevantes para você, como resultados de pesquisa customizados, propagandas personalizadas e detecção de spam e malware. Essa análise ocorre na medida que o conteúdo é enviado e recebido, e quando ele é armazenado” (Google, [2014]). Como coloca Berners-Lee [1999], o problema não está no cookie em si, mas em saber quais os tipos de dados que estão coletando e o modo como os utilizam, visto que as empresas podem inclusive vender os dados dos cookies, os quais podem oferecer diversas informações que ajudam, entre outros, a compor perfis de usuários. Nesse sentido, é necessária a compreensão do modo como a web opera e a relevância do cookie na navegação para se posicionar diante dessa “facilidade” de experienciar a web que tem uma potência vigilante119. Uma das maneiras simples e acessíveis de entender os cookies que determinada empresa utiliza é lendo os termos de serviço da empresa. Por outro lado, parece inviável ler os termos de serviço de todos os sites que acessamos e usam cookies. Dado o fluxo de requisições entre cliente e servidor na navegação pela web, foi desenvolvido um outro servidor que oferece suporte ao servidor web, o servidor proxy. Ele basicamente atende às requisições feitas ao servidor web, armazenando em seu disco cópias de dados requisitados há pouco tempo. Caso não tenha a informação requisitada pelo cliente, ele faz o pedido ao servidor web. Portanto, ora o servidor proxy trabalha como servidor e ora como cliente. De modo geral, um ISP compra e instala um cache web em sua rede, o que influi no fluxo do tráfego de dados e na velocidade de disponibilização de um conteúdo ao cliente. Em poucas palavras, um servidor proxy é um CDN, sobre o qual dissertei no capítulo anterior.

119 Para informação técnica detalhada do cookie, cf. RFC 6265 (Barth, [2011]).

140

Enfim, a web funciona se as pessoas disponibilizam informação ali. Para tanto, foi necessário o convencimento de sua relevância. Conforme relata Berners-Lee [1999] na obra Weaving the Web, houve bastante resistência na aceitação da web na época. Mas com o tempo ela começou a se disseminar: “O acontecimento mais valioso foi que as pessoas, ao verem a Web e perceberem um senso de oportunidades irrestritas, começaram a instalar o servidor e a postar informações. Em seguida, adicionaram links para sites relacionados, considerados complementares ou simplesmente interessantes. A Web começou a ser utilizada por pessoas de todo o mundo. Mensagens de gerentes de sistemas começaram a aparecer: ‘Olá, acredito que você possa estar interessado. Acabei de disponibilizar um servidor Web’”120 (Berners- Lee, [1999]: 48). Note que por meio da persistência e do conhecimento de Berners-Lee suas ideias foram implantadas e disseminadas. Com isso, estabelece-se uma orientação ao desenvolvimento tecnológico de interação entre computadores em rede. A partir desse estabelecimento surgem outras tecnologias que tomam essas ideias iniciais como pressuposto para o desenvolvimento de outras. E assim determinada vertente tecnológica segue um caminho entre um conjunto de possibilidades. Vários atores desenvolveram navegadores nos primórdios da web e ainda hoje existe uma série deles. Marc Andreessen e membros do NCSA (National Center for Supercomputing Applications) criaram o navegador Mosaic no início da década de 1990, um dos primeiros aplicativos a disponibilizar uma interface gráfica multimídia, oferecendo uma experiência diferente para usuários de computadores capazes de se conectar à web. Em meados de 1994, Marc Andressen e Kim Clark criaram a empresa Netscape e lançaram um navegador da empresa: Navigator. Ao contrário do NCSA, o Netscape tinha um traço de grupo que desenvolvia produtos e não de uma equipe de pesquisa (Abbate, [1999]). No ano de 1996 a Microsoft entra na disputa da hegemonia de navegadores declarando “guerra” contra o Netscape que sai derrotado após alguns anos121. Ora, havia uma “guerra” declarada entre essas empresas preocupadas com a elaboração de navegadores. Diante disso, em que medida pode- se dizer que o “aprimoramento” da Internet e de seus aparatos estão pautados exclusivamente em questões técnicas? Por que essas empresas não se uniram em prol da construção conjunta

120 [“The most valuable thing happening was that people who saw the Web, and realized the sense of unbound opportunity, began installing the server and posting information. Then they added links to related sites that they found were complementary, or simply interesting. The Web began to be picked up by people around the world. The messages from systems managers began to stream in: ‘Hey, I thought you’d be interested. I just put up a Web server”]. 121 No quarto episódio do programa televisivo Download: The True Story of the Internet, de John Heilemann [2008], há detalhes sobre essa “guerra dos navegadores” realizada entre as empresas Netscape e Microsoft. Há também o livro de Cusumano e Yoffie [1998], Competing On Internet Time: Lessons From Netscape And Its Battle With Microsoft, que relata essa disputa entre Netscape e Microsoft.

141

de um navegador web? Por isso não podemos nos esquecer do ambiente no qual o desenvolvimento tecnológico está inserido. Há disputas, conflitos, egos, modelos de negócios, objetivos, questões econômicas, políticas e diversos outros fatores que se cruzam e desembocam numa determinada vertente tecnológica adotada, onde a neutralidade da rede poderia ser entendida apenas na dimensão de potência. A neutralidade da rede refere-se a todas as informações que trafegam na rede mundial de computadores serem tratadas da mesma forma, sem discriminação de velocidade, permitindo o acesso igualitário às informações, não sofrendo limitação ou controle no envio, recebimento ou transmissão de dados (Silveiras, [2014]: 126). Como se pode observar, a aplicação web consiste em muitos elementos. Assim, não podemos pensar o funcionamento da web somente a partir do protocolo HTTP. Pelo contrário, é necessário, entre outros componentes, um padrão para formato de documentos (HTML), um navegador web, servidores web e um protocolo da camada de aplicação (HTTP). O HTTP é importante, mas apenas cumpre com a função de um protocolo de aplicação definindo o formato e a sequência dos protocolos que são trocados entre o navegador e o servidor. Essa mesma complexidade também está presente no correio eletrônico que, para funcionar, precisa de servidores de correio responsáveis por armazenar as caixas postais dos usuários, leitor de correio (como o Gmail e o Microsoft Outlook) que permite o usuário ler e criar e-mails, etc., sendo que o principal protocolo do correio eletrônico é o SMTP. Mas assim como o HTTP, o SMTP é apenas uma parte da aplicação correio eletrônico. Não se pode dizer o contrário da chamada por voz pela Internet (VoIP – Voice over IP) ou do BitTorrent. De fato, a web consegue fazer com que diferentes sistemas operacionais sejam capazes de se comunicar por meio de sua plataforma. E ela é notadamente uma arquitetura que inspira descentralidade, pois sequer tem um sistema que controla quem pode ou não ter um servidor ou mesmo o conteúdo disponibilizado através do mesmo. A parte de identificação é de responsabilidade de outras camadas e o controle de seu conteúdo é debatido por governos. Por isso, embora a web não precise de mecanismos de controle para funcionar na perspectiva da camada de aplicação, ela é sustentada por uma série de instâncias que controlam. O fato de não se pautar em controle não significa que a web seja isenta de padrões. Pelo contrário, é necessário seguir determinados padrões para disponibilizar conteúdos nessa rede dentro da Internet, uma vez que a web não é a Internet, mas faz parte dela. Além disso, é preciso considerar a função do cookie na web e as potencialidades que possui, especialmente ao ter em vista que ele é comumente utilizado por sites, mesmo os sites não comerciais.

142

Embora a web tenha um caráter técnico de padrões, computadores, servidores, etc., é inegável seu elemento social. Berners-Lee [1999] coloca que a web é mais social do que técnica, pois a base de seu desenvolvimento é para ajudar pessoas a trabalharem juntas. Acrescenta que o próprio desenvolvimento de protocolos para a web precisa considerar normas ou leis que governam a interação das pessoas.

***

A partir do que foi apresentado até o momento, represento graficamente e de modo sintético a arquitetura dessa rede.

Fig. 3.11 – Representação sintética da arquitetura da rede

A exposição realizada nesses dois capítulos sobre a arquitetura da Internet mostra a complexidade que envolve seu funcionamento bem como a diversidade de dispositivos e padrões que estabelecem a comunicação entre os mesmos. E a dimensão histórica que tangenciou a exposição relativiza uma “origem” da rede e mesmo um “Eureka!” na sua constituição. O que há é um contexto propício para o desenvolvimento de determinada tecnologia e atores que levaram em consideração uma memória histórica para ajustar suas práticas no desenvolvimento e/ou aprimoramento dessa tecnologia. As bases da Internet se formam a partir de cientistas financiados pelo Estado e induzidos pelo exército norte-americano com as noções, por exemplo, de “capacidade de

143

sobrevivência”, “flexibilidade” e “alto desempenho”; e os usuários não autorizados também fizeram suas colaborações. A Internet sofre influência também de vários outros atores espalhados pelo mundo, inclusive na constituição de protocolos centrais. Ela se desenvolve num contexto americano de Guerra Fria, Guerra do Vietnã, movimento hippie e conflito interno em decorrência dessas guerras, onde algumas universidades americanas estavam envolvidas com tal rede de informação descentralizada, a qual possibilitava práticas impossíveis de serem realizadas em sistemas centralizados. Além disso, há o processo da virada cibernética, aprimoramento de equipamentos elétricos, miniaturização e ultraespecialização. A rede NSFNET acaba por servir como um ponto de convergência, uma centralidade que congrega redes de computadores dispersas, mudando a topologia das redes no longo prazo, corroborando para a construção de associações padronizantes que articularam gargalos, os quais podem servir como pontos de controle. Como nos lembra Bourdieu [1991], as palavras e os conceitos são instrumentos de construção da realidade social. Diante disso, o que se pode dizer de palavras, conceitos e códigos que fundamentam o funcionamento da Internet? Como tentei mostrar, existe um intrincado jogo nos debates que se dizem técnicos. As características de adaptabilidade e design participativo fez essa rede de redes se tornar cada vez mais abrangente e, por conseguinte, sofrer influência de outros setores, como o comercial e suas preocupações com “baixo custo”, “simplicidade” e apelo ao consumidor. Enfim, a Internet precisa lidar com uma miríade de atores que de algum modo dialogam e alcançam acordos para desenvolvê-la. Essa construção se dá por uma multiplicidade de atores que constroem um sistema altamente complexo. Mas não se pode esquecer que esta rede é uma entre diversas outras possibilidades. Desde o começo essa rede de redes demonstrou que tinha condições de ser utilizada de diversas maneiras, o que aumentou ainda mais conforme agregava um número maior de pessoas. É certo que a Internet afeta elementos sociais, os quais Kleinrock desconsiderou no início de suas considerações sobre essa rede de redes. Nela é possível observar não só a comunhão tecnológica como também a congregação de comunidades de humanos. A Internet se consolida a partir da utilização de infraestruturas já existentes, mas com o tempo consegue desenvolver uma extensa arquitetura personalizada capaz de transportar outros meios de telecomunicação. E a ela bem como seus protocolos precisa lidar com essa questão da diversidade de matérias que devem dialogar para a rede funcionar. Nesse contexto, o conjunto de protocolos TCP e IP aparecem como o centro magnético da Internet.

144

E é justamente na transição do NCP para o TCP/IP que temos uma grande mudança no núcleo da rede de redes, mudança essa que hoje é difícil de se realizar – dado que até mesmo a utilização de uma versão mais recente do protocolo IP não consegue eliminar o uso da versão anterior. Dada a complexidade do sistema, a composição dessa arquitetura em camadas hierárquicas com funções específicas torna sua administração setorizada e a compressão da rede palatável. Todavia, o ato de puxar as linhas que tecem esse tecido informacional revela componentes da rede desconhecidos e outros conhecidos, mas sob uma outra roupagem. Isto faz com que haja na leitura um movimento de recomposição daquilo que entendemos como Internet, revelando que a nuvem abstrata que constitui a rede é formada em grande medida por mecanismos sólidos que manuseiam bits, os quais podem ser uma requisição, fragmento de um vídeo, texto, site, imagem, etc. Para isso, é essencial se apropriar de termos, disposições e arquiteturas que integram a Internet, assim como Sterling [1992] propôs conhecer o sistema telefônico a partir de uma perspectiva diferente da óptica do usuário. A camada física deixa essa materialidade presente, demonstrando que a Internet é mais complexa do que aparenta122. Como colocado, há vários equipamentos, concepções arquitetônicas, conexões e linguagens que de alguma maneira estabeleceram acordos para constituir essa relação entre sistemas autônomos de computadores. Palavras como fibra óptica, par de fios trançados, satélite, servidor, padrão, protocolo, sistema autônomo, backbone, data center, ponto de troca de tráfego e CDN ganham significado no entendimento da operação dessa rede, onde “estar conectado” depende do trabalho coordenado entre dispositivos. Parte dos elementos mencionados no item sobre a camada física compõem nosso cotidiano, como modems, cabos e rádios, o que facilita na percepção da presença física da arquitetura da rede e pode nos estimular a refletir sobre a dimensão política que está presente na realização dessa rede. E ao mesmo tempo em que se observa a robustez da rede não se pode esquecer que o estudo da dimensão física aponta centralidades na Internet – tanto numa perspectiva de armazenamento quanto na organização e transmissão de dados. Portanto, só é possível falar de uma distribuição relativa da rede mundial de computadores. Enquanto a camada física oferece uma dimensão genérica e concreta da rede física que roda a Internet, a de enlace de dados trata especificamente das relações que tornam confiável o envio de mensagens entre nós considerando a camada física que os conectam;

122 Tive a oportunidade de visitar parte do data center do NIC.br. A complexidade da rede que demonstro aqui se tornou ainda mais acentuada para mim nessa visita técnica, onde um composto de cabos, dispositivos técnicos e significativos ruídos formavam o sistema complexo do centro de processamento de dados, um fragmento da Internet.

145

interações pontuais que possibilitam hospedeiros conversarem entre si. Nessa camada o MAC é tomado como o endereço estático de um dispositivo, embora hoje em dia seja possível alterá-lo. É essa camada que conversa diretamente com a interface física do dispositivo, fazendo a mediação entre o físico e o lógico. Entre as arquiteturas de interconexão, destacam- se a Ethernet para redes cabeadas e a WiFi para as redes sem fio que, por sua vez, acabam por se conectar com estruturas cabeadas. Por intermédio dessa camada torna-se nítido que nem todas as máquinas estão aptas a implementar as camadas que compõem o modelo TCP/IP, reafirmando a concepção de que a parte inteligente da rede ficaria em seus sistemas finais, suas pontas, embora o que foi apresentado nesses dois capítulos mostre um núcleo de rede que certamente não é acéfalo. A camada de rede consegue oferecer uma comunicação ampla entre sistemas autônomos que podem ter os protocolos e políticas distintos das outras redes e ainda assim se comunicar. Sem essa camada não seria possível pensar na comunicação entre esses sistemas. De certo modo, ela efetivamente roda a Internet, possibilita o caráter reticular da comunicação entre computadores encontrando as melhores rotas para fazer as máquinas conversarem. E como os equipamentos da rede implementariam camadas superiores somente em exceções, a recepção, armazenamento e transmissão de datagramas aparece como a função básica e primordial da camada. O roteador é um equipamento fulcral nesse processo, ao passo que os protocolos IP e BGP possibilitam em grande medida a conexão entre roteadores de redes distintas. Essa camada mostra como é árduo mudar aquilo que a compõe. O serviço proporcionado pela camada de rede da Internet é o do melhor esforço, o que não promove uma confiabilidade de que determinada informação alcançará seu destino. Isto pode ser resolvido com a camada de transporte. A pilha de protocolos TCP/IP utiliza o TCP e o UDP como protocolos que cuidam da entrega de pacotes, onde a escolha entre ambos depende das características de uma aplicação. A conexão entre hospedeiros se dá mediante portas com funções específicas. Essa camada consegue estabelecer uma espécie de conexão virtual direta entre dois dispositivos que podem estar distantes fisicamente, possibilitando que a camada de aplicação não tenha que considerar os elementos físicos e mesmo a alteração deles para estabelecer essa comunicação. Finalmente, temos a camada de aplicação, aquela que tem contato direto com o usuário. Embora a interconexão entre computadores seja papel de outras camadas, é o sistema hierárquico e de servidores distribuídos implementado na camada de aplicação que encontra o endereço de outra máquina com a qual queremos nos conectar para, por exemplo, acessar um

146

e-mail ou pagar uma conta. Esse mesmo sistema auxilia na compreensão de que servidores que compõem um mesmo sistema podem conter um mesmo endereço sem necessariamente estarem no mesmo lugar – como é o caso dos servidores raiz e os replicados pelo mundo. Essa camada evidencia que embora os protocolos sejam fulcrais para a rede mundial de computadores, eles não agem sozinhos. Pelo contrário, trabalham vinculados a um composto sociotécnico – como a web que funciona a partir do modelo cliente-servidor e não depende apenas do HTTP para funcionar. Com o desenvolvimento da web, os cookies passam a ser utilizados e com eles é possível levantar uma série de polêmicas a respeito do modo de sua utilização. Isto fomenta discussões sobre vigilância, privacidade, entre outros. Por outro lado, isso se complexifica ao pensarmos que vigilância, privacidade e demais temas que acometem a interação do humano com a Internet são afetados não apenas pela aplicação, mas por toda uma cadeia de elementos sociotécnicos que compõem os fios da rede mundial de computadores123. Nesse sentido que é importante questionar quais são as instituições por detrás desse arranjo. Trato sobre isso no próximo capítulo. Da conexão entre computadores que constituíram redes espalhadas pelo mundo até o que hoje se concebe como Internet houve um longo processo de composição por justaposição – ou incrementação – onde persistem determinações de décadas anteriores dada a dificuldade de sua modificação; perseveram disposições de uma época em que as redes de computadores se estabeleciam entre usuários confiáveis e com conhecimentos técnicos. Isto é acentuadamente diferente do contexto atual em que pessoas de diferentes partes do mundo e com distintas formações acessam a Internet. Os princípios de construir uma rede de redes seguindo o modelo TCP/IP e o núcleo simples com inteligência nas pontas promoveu a ampliação da Internet por facilitar a criação de novas aplicações e a interconexão de redes com distintas tecnologias, mas agora aplicações que demandam mobilidade, escalabilidade, segurança, qualidade de serviço, etc., têm dificuldade de serem atendidas por essa arquitetura (Moreira et al. [2009]). O limite da rede fomenta debates sobre como aprimorá-la, se (1) por meio de inovações pontuais que mantém essa estrutura ou (2) começando uma nova Internet. Um texto interessante sobre essa discussão é o curto artigo Future Internet Architecture: Clean-Slate Versus Evolutionary Research, de Jennifer Rexford e Constantine Dovrolis [2010].

123 No recente documentário Eis os delírios do mundo conectado, dirigido pelo alemão Werner Herzog [2016], temos um exemplo não apenas das visões destoantes sobre a constituição da Internet como também o modo como ela pode nos afetar, a ponto de se estabelecer uma comunidade que se “afasta” dessa rede mundial de computadores dado o vício que seus membros desenvolveram no uso dela.

147

Rexford faz elogio à rede minimalista que provê o melhor esforço na entrega de pacotes com computadores programáveis em suas pontas, afirmando que essas decisões iniciais foram muito importantes por diminuir as barreiras para a inovação e tecnologias de conexão, o que conduziu a inovações inimagináveis por designers da Internet. Ele questiona a possibilidade de começar uma nova Internet e mesmo um novo computador e diz que isso seria possível, mas acredita que a Internet pode fazer muito mais do que faz hoje. A Internet das Coisas seria um exemplo disso. Basicamente, a Internet das Coisas diz respeito a conectar à Internet objetos que fazem parte do nosso cotidiano, como fogão, geladeira, micro-ondas e fechaduras. Nesse sentido, a implementação do IPv6 é crucial para possibilitar a conexão de tantos dispositivos à Internet, já que o IPv4 praticamente se esgotou. A autora concorda que hoje a Internet passa por alguns problemas, mas isso poderia ser resolvido revendo alguns de seus princípios. E conclui dizendo que talvez uma nova geração mude a Internet futura em algo que lembre vagamente sua predecessora, sendo capaz de acomodar as mudanças de modo mais amplo e profundo que a rede de redes atual. Por fim, defende que “[u]ma disposição para retroceder e projetar a partir do zero é importante ao repertório de pesquisa, por meio do qual é capaz de possibilitar esses avanços no campo e da própria Internet”124 (Redfox apud Redfox e Dovrolis,[2009]: 38). Dovrolis, por sua vez, pondera que na economia industrial uma tecnologia emergente não será capaz de substituir uma tecnologia amplamente implementada se os custos para isso não justificarem essa mudança. Ele argumenta que a Internet não seria ossificada, mas apenas se modificaria devagar porque para suportar inovações nas camadas da arquitetura os protocolos precisam se desenvolver vagarosamente. Por isso que esses protocolos formariam uma sustentação estável na qual diversidade e complexidade podem surgir. Dovrolis argumenta ainda que ao invés de pensarmos na Internet enquanto um artefato que projetamos no passado e agora podemos refazer desde sua base, devemos pensar na Internet enquanto um ecossistema cuja evolução é controlada pela tecnologia, economia global, ideias criativas de milhões de indivíduos e um conjunto constante de mudanças de pressões ambientais e restrições. Conclui dizendo que os pesquisadores de Internet devem medir e compreender o ecossistema dessa rede de redes, prever os impasses que ele enfrentará em breve e criar mutações inteligentes, as quais podem evitar ou resolver esses desafios. Essas mutações inteligentes devem ser possíveis de serem adotadas pela arquitetura atual assim como devem ser compatíveis com versões anteriores, incrementando a rede.

124 [“[a] willingness to step back, and design from scratch, is an important part of the research repertoire that can enable these advances in the field, and of the Internet itself”].

148

Os autores adotam posturas distintas, mas moderadas. Reafirmam que a Internet possui limites, ela não consegue abarcar todas as propostas que aparecem para serem implementadas. À primeira vista a Internet parece algo sem limite, principalmente se comparada a tecnologias que a precedem. Para nós, usuários, é difícil perceber os limites da rede. A impressão é a de que cedo ou tarde uma tecnologia x ou y será implementada na rede. Mas ao nos aproximarmos dessa arquitetura e de toda a parafernália sociotécnica que a compõe fica evidente que há limites, os quais são criados a partir da vertente tecnológica que foi adotada em seu desenvolvimento. Os princípios da Internet impõem regras que os arquitetos da rede devem seguir (Schewick, [2010]), guiando o modo como determinada tecnologia se desenvolve. Como seria, por exemplo, se tivéssemos adotado o modelo P2P e não o cliente-servidor como epicentro das comunicações mediadas por computadores? Haveria limites, outros limites, outras questões, outras fronteiras e talvez outras formas de centralidades e modelo de governança dessa rede. Embora possua limites, a Internet do modo como está configurada não deixa de fomentar inovações em suas diversas camadas, como a aceleração na transmissão pela fibra óptica (Zolnerkevic, [2013]); ondas de rádio torcidas que podem competir com a velocidade proporcionada por fibras ópticas (Yan et al. [2014]); aumento substantivo da velocidade de transmissão em fios de cobre (Brodkin, [2014]; e Bucco, [2014]); possibilidade de transformar antigas frequências de TV em WiFi gratuito (Ingham, [2014]); e o desenvolvimento de um sistema preocupado em armazenar dados e aguardá-los para transmiti-los em momento propício, podendo ser utilizado para a comunicação interplanetária (IPNSIG, online). As inovações tecnológicas – como computação em nuvem, Internet das Coisas e reconhecimento de voz e facial – possuem um desafio técnico a ser superado ao mesmo tempo em que têm exigido o desenvolvimento ou aprimoramento de políticas públicas. Diante disso, há uma relação de dependência entre novas tecnologias e políticas públicas, pois estas também precisam considerar o desenvolvimento tecnológico. Conforme Kleinwätcher ([2015]: online): “[c]omo nunca antes, as inovações tecnológicas recentes têm implicações de políticas públicas, as quais não podem mais serem desenvolvidas e implementadas ignorando as mudanças no ambiente tecnológico”125. Não há técnico em uma perspectiva puramente técnica, mas um técnico que está conectado com tomadas de decisão humanas, as quais são orientadas, entre outros, por discursos, valores, agendas políticas de atores que trabalham na arquitetura da rede. Não há

125 [“[a]s never before, new technological innovations have public policy implications, and public policies can’t be developed and implemented anymore by ignoring the changing technological environment”].

149

um puramente técnico ou o puro desinteresse. Sempre que houver o discurso neutro é necessário questionar, como afirma Bourdieu [1994], se é possível um ato desinteressado e, a partir disso, desconfiar do interesse no desinteresse. Porque a escolha de um protocolo, modelo de arquitetura de rede, navegador web, entre uma série de escolhas que são feitas no uso da Internet frente a outras possibilidades influem no desenvolvimento da rede, têm a potência de governar o modo como nos relacionamos com ela e, certamente, demarca limites. As escolhas aparentemente técnicas mascaram escolhas sociais de profunda significação (Winner, [1980]); “[n]o fim, cada solução/opção técnica promove determinados interesses, fortalece determinados grupos e, até certo ponto, afeta a vida social, política e econômica” (Kurbalija, [2014]: 34); e como coloca DeNardis ([2014]: 64): “[t]odo protocolo também possui um contexto histórico. Examinar as alternativas descartadas a padrões arraigados ajuda a descobrir os valores e interesses em jogo em seu desenvolvimento e seleção”126; há o não dito, o vilipendiado, detrás das disposições técnicas que devemos fazer falar. E os arranjos da arquitetura técnica da Internet também são arranjos de poder. Nesse sentido, é importante retomarmos alguns pontos sobre o poder em Foucault colocado na Introdução deste trabalho. Ora, como na Introdução, o poder são relações de poder que estão em todas as sociedades aonde houver liberdade, existindo de maneira distinta e se modificando constantemente. Como colocado, esse tipo de concepção de poder permite sua utilização nas mais distintas relações sociais, pois o poder é circular, se exercendo em rede. A Internet não deixa de ser uma rede de relações sociais tanto em nosso cotidiano quanto na constituição de sua infraestrutura. E como veremos no capítulo cinco deste trabalho, elementos historicamente estabelecidos possuem uma aura de verdade, o que nada mais é do que o resultado de relações de poder que possui o mínimo de estabilidade. Como diz Foucault ([1977c]: 12): “[a] verdade é deste mundo; ela é produzida nele graças a múltiplas coerções e nele produz efeitos regulamentados de poder”. Esse tipo de percepção endossa a ideia de que deve-se fazer falar o não dito para compreender o dito, para compreender o contexto no qual estamos inseridos ampliando e relativizando a dimensão de verdade do modo como é colocada, onde entendo a manifestação da verdade como “um conjunto de procedimentos possíveis, verbais ou não, pelos quais se atualiza isso que é colocado como verdadeiro por oposição ao falso, ao oculto, ao invisível, ao imprevisível etc.” (Foucault, [1980]: 12). E nesse movimento as linhas que articulam o poder se tornam mais visíveis. Durkheim [1895] coloca que uma das maneiras de perceber a presença de elementos coercitivos é ir contra as regras

126 [“[e]very protocol also has a historical context. Examining the discarded alternatives to entrenched standards helps uncover the values and interests at stake in their development and selection”].

150

que compõem a sociedade. Mas como fazer isso quando não se conhece sequer as regras que constitui determinado elemento social? Por isso é importante um conhecimento em profundidade de uma arquitetura sociotécnica que utilizamos, um conhecimento profundo significante a ponto de resistir à possibilidade de seu desaparecimento. E não se pode esquecer que essas escolhas, essas decisões, essas disputas entre protocolos, esses cortes e tomadas de posição tecnopolíticas e os gargalos que se formam nessa arquitetura – os quais podem ser entendidos como potenciais pontos de controle –, colaboram para a construção de subjetividades. Práticas como não permitir que pacotes vindos de certo AS possam trafegar em determinado AS; optar por um caminho maior no tráfego de pacotes pela rede sobrepondo elementos técnicos e econômicos por questões políticas; vetar o uso da arquitetura P2P em um AS; estimular a produção de cabos submarinos que não passem pelos Estados Unidos; e financiar a construção de um satélite nacional após revelações do caso Snowden mostram que as tecnopolíticas constroem a Internet e tentam governar as potencialidades do uso dessa rede mundial de computadores. Os exemplos colocados neste parágrafo são apenas modelos das mais diversas formas em que o poder se exerce, onde é possível se valer de variadas modalidades instrumentais (palavras, disparidade econômica, mecanismos de controle, sistemas de vigilância, etc.); sistemas de diferenciações (como diferenças econômicas, linguísticas, culturais, de localização no processo de produção, habilidade, etc.); e formas de institucionalização. Como veremos nos dois próximos capítulos, a governança da Internet se dá de maneira aberta e com aparelhos múltiplos, mas a partir de seus recursos críticos e outros elementos que são frequentemente utilizados na Internet é possível visualizar um modo de institucionalização que oferece maior potência de governar a Internet a determinados atores em detrimento de outros. Nesse sentido, desvelar a Internet e compreender suas ranhuras e fissuras facilita na posição que adotamos perante a relação com essa tecnologia e a politizá-la; é um movimento de ajustar ações futuras considerando o conhecimento adquirido, onde uma análise ascendente a partir dos mecanismos infinitesimais que integram essa rede e a observância de como eles dialogam nos dá condições para compreender essa reticulação computacional em sentido ampliado e o raio de ação de poderes da rede. Sobre isso, deve-se considerar que a alteração na arquitetura técnica da Internet interfere em sua política, de modo que arranjos técnicos são arranjos políticos, onde a potência de controle dessa arquitetura se relaciona com o controle dos fluxos de dados que dependem da Internet para circular. Como coloca Afonso ([2002]: 02): “[o] processo acelerado de convergência tecnológica entre os

151

meios de comunicação – telefonia, televisão e Internet deverão trafegar cada vez mais por redes comuns – significa que as políticas públicas de desenvolvimento da infraestrutura afetarão progressivamente todos os meios de comunicação digital; o controle social sobre essas políticas, portanto, passa a ser ainda mais importante” e um espaço de intensa disputa. É tendo isso em vista que desenvolvo o próximo capítulo, pois trazer à baila a governança da Internet e a identificação de seus principais atores contribui com o desvelamento da política na sua arquitetura e reforça a concepção de que o desenvolvimento tecnológico está intimamente relacionado com práticas políticas.

152

Capítulo 4 – Governança da Internet – I

Em suma, há vencedores e perdedores em qualquer processo de institucionalização. E há sempre pressão contínua para a modificação das regras de forma a refletir os interesses especiais de várias partes127. Milton Mueller ([2002a]: 11)

Nos dois últimos capítulos, apresentei o funcionamento da maquinaria técnica da Internet por intermédio de um movimento ascendente em camadas. A partir disso, alguns atores que compõem esse quadro foram mencionados. Este capítulo e o seguinte são dedicados a examinar os atores e as conexões que são estabelecidas, oferecendo subsídios e reflexões sobre a governança da Internet (gI), a qual passa a fazer parte das agendas diplomáticas principalmente após a Cúpula Mundial sobre a Sociedade da Informação (CMSI). A Cúpula foi realizada em 2003 (Genebra) e 2005 (Tunes) por meio do patrocínio da Organização das Nações Unidas (ONU) e com o intuito de ponderar sobre o novo contexto mundial a partir do desenvolvimento tecnológico. A expressão “governança da Internet” é relevante para a discussão na medida em que evidencia a veia política do controle da Internet. Diante disso, os próximos parágrafos destinam-se a lidar com os significados que querem dar sentido a esse termo para então tornar ainda mais visível o complexo de relações institucionais que tecem a arquitetura dessa rede. Juntamente com a discussão sobre gI, apresento a justificativa de problematizar a governança da Internet e não ter feito o mesmo com a ideia de Internet; contextualizo a gI; e exponho alguns conceitos de “governança”.

4.1 – Concepções de governança da Internet Quando lemos a palavra Internet possuímos uma série de lembranças, referências, sentidos e significados que estabelecem um quadro do que ela significa. Ao aprofundar o conhecimento sobre essa rede de redes, as informações que possuímos tendem a ser adensadas. Nesse sentido, nossa mente inclina-se a adaptar o novo ao que existia. Esse novo possui condições inclusive de negar a apreensão anterior sobre como definíamos a Internet. De todo modo, o pressuposto é o de que ao debater Internet não iniciamos a discussão do zero graças às prenoções que se espera terem sido rearticuladas com a leitura dos capítulos

127 [In short, there are winners and losers in any institutionalization process. And there is always continuing pressure for the modification of the rules in ways that reflect the special interests of various parties].

153

anteriores128. Já “governança da Internet” pode gerar ruídos que dificultem o entendimento do termo dada a carência de prenoções. Portanto, embora não exista um consenso sobre sua definição, apresento neste capítulo uma acepção largamente conhecida de “governança da Internet” a fim de que ela seja tomada como uma referência a ser rearranjada no decorrer da leitura desse capítulo para alcançar uma definição mais elaborada. Como colocado, o Estado (especialmente o norte-americano) esteve presente no desenvolvimento da Internet juntamente com militares, acadêmicos e, com o tempo, sociedade civil. Todavia, existia em alguns círculos de usuários durante as décadas de 1980 e 90 a compreensão de que a Internet estava para além dos Estados, de maneira que não faria sentido eles regulamentarem a Internet ou fragmentos dela (Bygrave e Michaelsen, [2009]). John Perry Barlow, um dos fundadores da EFF (Electronic Frontier Foundation) – fundação sem fins lucrativos que defende os direitos da liberdade de expressão no meio digital –, escreve em 1996 a Declaração de Independência do Ciberespaço (Barlow [1996]) como resposta à tentativa do governo norte-americano de regimentar a Internet, compondo assim um documento no meio de uma série de fluxos e contrafluxos resultantes do conflito de regimentar a Internet129. Este é um dos momentos de fragilização do suposto limite entre ciberespaço e sociedade, reafirmando a presença do Estado não apenas no fomento e administração, mas também na regulamentação da rede mundial de computadores onde, em

128 Todavia, caso considere necessário, é possível tomar como referência três definições de Internet e problematizá-las considerando o que foi discutido nos capítulos anteriores. 1) Conselho Federal de Redes dos Estados Unidos ([1995]: online) (FNC), a qual já foi mencionada em nota anterior: ‘Internet’ refere-se ao sistema de informação global que: 1) está logicamente interligado por um espaço de endereçamento globalmente único baseado no Protocolo de Internet (IP) ou nas suas subsequentes extensões/follow-ons; 2) é capaz de dar suporte a comunicações usando o pacote Protocolo de Controle de Transmissão/Protocolo de Internet (TCP/IP) ou suas extensões/follow-ons, e/ou outros protocolos compatíveis com IP; e 3) fornece, utiliza ou torna acessível, pública ou privadamente, serviços de alto nível sobre as comunicações e infraestrutura relacionada aqui descritas 2) No trabalho Governança da Internet: conceitos, evolução e abrangência (Gatto, Moreiras e Getschko, [2009]: 69), a Internet é concebida como: “a rede entre computadores que adota protocolos-padrão, essencialmente o TCP-IP, para transmissão de dados via pacote (comutação), que permite a comunicação simultânea entre usuários, a troca de mensagens eletrônicas, o acesso a portais eletrônicos, a formação e participação em comunidades, a transmissão de dados (texto, som, voz, vídeo), o comércio eletrônico, a difusão de conhecimentos, dentre outras atividades”. Acrescentam ainda que “[a] Internet não se conceitua como uma mera ferramenta de comunicação, realizada por diversas redes de computadores sob mesmo protocolo. Tampouco podemos afirmar o outro extremo, de que a Internet é uma sociedade em si, pois lhe falta a devida organização ou estrutura. Porém, mesmo diante das complexidades do conceito da Internet, é inegável admitir os reflexos sociais, políticos, econômicos, culturais, dentre outros” (Gatto, Moreiras e Getschko, [2009]: 75). 3) Dicionário Houaiss de comunicação e multimídia (Neiva, [2013]: 299): “Rede de computadores disperso por todo o planeta que trocam mensagens utilizando um protocolo comum, unindo usuários particulares, unidades de pesquisa, órgãos culturais, institutos militares, bibliotecas e empresas de todas as envergaduras”. Diante dessas definições, deve-se considerar que as mesmas refletem pontos de vista, abordagens e interesses, o que não é diferente na significação de gI. 129 Uma das obras de referência sobre parte desse embate é o livro de Bruce Sterling, intitulado The Hacker Crackdown: Law and Disorder on the Electronic Frontier, de 1992.

154

alguns casos, são estabelecidas leis específicas sobre a Internet130. Portanto, num governo tripartite, Executivo, Legislativo e Judiciário têm condições de influir nos arranjos sociotécnicos da Internet, alterando sua operação bem como a estabilidade e a segurança em ao menos parte dessa rede de redes. Sua entrada na gI é importante também porque a partir disso, aumenta a potência de proteção dos direitos humanos, por exemplo, numa dada territorialidade. Ao mesmo tempo, o Estado também tem condições de adotar medidas vigilantistas em larga escala. E dependendo do papel que determinado Estado possui na Internet, essas influências podem afetar parcelas da rede que estão para além do seu território131. Por exemplo, um governo nacional pode bloquear o acesso de domínios que estão sob sua jurisdição (como no Brasil o domínio .br) afetando qualquer pessoa que queira entrar em um site com esse domínio. Nesse sentido, é fulcral que representantes do Estado compreendam as consequências da tomada de decisão ao bloquear o acesso a um site ou aplicativo em âmbito nacional. Mas a gI acontece em primazia pelo setor privado ao invés de se ancorar nos Estados, visto que o setor privado possui menos restrição de atuação do que os Estados e tem posse de parte substancial dos recursos utilizados para o estabelecimento e operação da Internet. Um exemplo disso foi a atuação controversa da Amazon no bloqueio do WikiLeaks em 2010132. De todo modo, o importante é sublinhar que dentro de uma territorialidade existe a soberania do Estado, sendo este suscetível às mais diversas influências; e que a administração da Internet é realizada por múltiplos atores que sofrem e exercem impacto na realização dessa administração, onde a associação entre eles é fundamental para atingir um dado objetivo. A governança da Internet considera essa pluralidade de atores como componentes de um todo, pluralidade essa que seria fundamental para evitar ou minimizar o risco de fragmentação da Internet; manter a compatibilidade e interoperabilidade nessa rede de redes; garantir direitos e definir as responsabilidades de vários atores; resguardar usuários finais de maus usos e abusos da Internet; e estimular desenvolvimentos futuros (Kurbalija e Gelbstein, [2005]). O impasse certamente está no como realizar isso, e há uma série de embates para a delimitação do modo de se efetivar a governança da Internet. Os desacordos e acordos na gI

130 Um exemplo disso no Brasil é a Lei 12965/2014, mais conhecida como Marco Civil da Internet (Brasil, [2014]). Ela estabelece princípios, garantias e deveres para o uso da Internet no país. Parte do meu mestrado se deu analisando a tentativa do Estado brasileiro de regulamentar a Internet no país, o que pode ser conferido em: Consultas públicas para o Marco Civil da Internet e Reforma da Lei de Direito Autoral (Silveiras, [2014]). 131 Klaus Lenk tem um artigo interessante sobre a relação entre governança territorial e ciberespaço. Cf. Lenk [1997]. 132 Em 2010 a Amazon bloqueou o acesso ao site do WikiLeaks hospedado em seus servidores. Na perspectiva do WikiLeaks, isso teria acontecido a partir de pressões do governo norte-americano. Segundo a Amazon, isso aconteceu porque o WikiLeaks teria violado diversos termos de serviço. Cf. Roberts [2010]; e G1 [2010].

155

sucedem considerando principalmente os seguintes atores: governo, empresas e sociedade civil, os quais se fragmentam em diferentes grupos de interesse (como comunidade técnica e comunidades internacionais). E como aponta Kurbalija e Gelbstein [2005], cada um dos envolvidos concebem a própria Internet e sua governança a partir de um ponto de vista133. Ainda, com o processo de convergência digital, a prática de governar a Internet oferece posições privilegiadas não apenas no que diz respeito aos fluxos de dados, mas também às relações de poder. Isso aviva os interesses por detrás da governança da Internet bem como multiplica a diversidade de temas que podem compor sua agenda, refletindo sobre o modo de operação do DNS, cibersegurança, direitos humanos online, acesso e inclusão da diversidade, entre diversas outras temáticas que podem ser mais ou menos relevantes dependendo do contexto em que se discute a gI. O termo “governança” tem maior ressonância no debate sobre Internet porque “governo” possui menor precisão para denotar a coordenação e regulação de atores interdependentes sem a presença de uma autoridade política abrangente na gestão da Internet (Mueller, [2010]). No contexto recente, essa expressão foi empregada pela primeira vez no documento oficial do Banco Mundial de 1992134, intitulado Governança e Desenvolvimento, no qual não há uma definição acurada sobre o termo, concebido como: “a forma como o poder é exercido na gestão de recursos econômicos e sociais para o desenvolvimento de um país”135 (Banco Mundial, [1992]: 01). Como se pode observar, não há uma precisão que distinga governo de governança no documento do Banco Mundial. No mesmo sentido, dicionários que tive a oportunidade de pesquisar também não estabelecem uma diferença precisa entre os termos136, mesmo porque possuem a mesma raiz. No mesmo ano em que o Banco Mundial publica o referido documento, James Rosenau [1992] sustenta que governança e governo não possuem o mesmo significado, não sendo necessária a existência do governo para existir a governança. Ambas as expressões se referem a determinado comportamento visando um objetivo. Mas se governo sugere

133 “Especialistas em telecomunicações veem a questão da Governança da Internet através do prisma do desenvolvimento de infraestruturas técnicas. Os especialistas em computadores concentram-se no desenvolvimento de vários padrões e aplicações, como XML ou Java. Os especialistas em comunicação destacam a facilitação da comunicação. Ativistas dos direitos humanos veem a Governança da Internet a partir da perspectiva da liberdade de expressão, da privacidade e de outros direitos humanos básicos. Advogados concentram-se em jurisdição e resolução de disputas legais” (Kurbalija e Gelbstein, [2005]: 13). 134 “Contexto recente” porque a expressão é do século XV (Cunha, [1982]). 135 [“the manner in which power is exercised in the management of a country's economic and social resources for development”]. 136 Os dicionários consultados foram: Houaiss e Villar (2001); Soanes e Stevenson (2003); Brown (1993); Saraiva (2006); Lewis (1996); e Cunha [1982]. Como é possível observar no decorrer do capítulo, a governança da Internet assume um significado que está para além da concepção de governo e governança.

156

autoridade formal, pautada no poder de polícia para garantir a implementação de determinada política, a governança não depende necessariamente do poder da polícia para lidar com resistências à objetivação de seus objetivos. E a governança seria mais ampla, pois pode conter a dimensão governamental. Nas palavras do autor: “[g]overnança, em outras palavras, é um fenômeno mais abrangente do que governo. O termo engloba instituições governamentais, mas também inclui mecanismos informais não governamentais, pelos quais essas pessoas e organizações de seu alcance avançam, satisfazem suas necessidades e seus desejos”137 (Rosenau, [1992]: 4). Para funcionar, a governança dependeria de uma aceitação da maioria, ao passo que o governo pode funcionar mesmo com grande oposição. Nesse sentido, apreende-se que a gI não pode depender de um Estado, não depende da polícia, pautando-se na aceitação da maioria. E a concepção de governança da Internet do Grupo de Trabalho sobre Governança da Internet (GTGI) não contradiz essas considerações. O GTGI foi um grupo de trabalho da ONU constituído após a primeira fase da Cúpula Mundial sobre a Sociedade da Informação – sobre a qual disserto com maiores detalhes no capítulo seguinte –, em 2003, composto por 40 participantes de governos, setor privado e sociedade civil, com o fito de estabelecer um acordo sobre o futuro da gI. Entre esses participantes, a grande maioria eram altos oficiais governamentais envolvidos com política tecnológica internacional. Mas não se pode dizer que o GT era composto pelos principais atores da gI138, pois os Estados Unidos resolveram não participar. O GT alcançou alguns resultados, como a indicação à Cúpula Mundial sobre a Sociedade da Informação e consequente criação do Fórum de Governança da Internet (IGF), e a seguinte e já mencionada acepção para governança da Internet: “A governança da Internet é o desenvolvimento e a aplicação por parte dos governos, do setor privado e da sociedade civil, em seus respectivos papéis, de princípios compartilhados, normas, regras, procedimentos de tomada de decisão e programas que moldam a evolução e o uso da Internet”139 (GTGI, [2005a]: 4). Essa delimitação se consolida após uma intensa discussão entre os membros que representavam o interesse de variados setores da sociedade bem como representantes do governo de inúmeros países, estabelecendo uma definição genérica que está para além de questões técnicas. Nela apreende-se que a governança da Internet transcende a dimensão de governo e território,

137 [“[g]overnance, in other words, is a more encompassing phenomenon than government. It embraces governmental institutions, but it also subsumes informal, non-governmental mechanisms whereby those persons and organizations within its purview move ahead, satisfy their needs, and fulfill their wants”]. 138 Cf. lista de membros participantes disponível em: . Acesso em 25 set. 2017. 139 [“Internet governance is the development and application by Governments, the private sector and civil society, in their respective roles, of shared principles, norms, rules, decision-making procedures, and programmes that shape the evolution and use of the Internet”].

157

abrangendo outros dois setores que compõem a sociedade: setor privado e sociedade civil. Esses são os três principais setores, mas outros estão contidos neles, como o técnico e a comunidade acadêmica que realizam de modo permanente valiosas contribuições ao desenvolvimento da Internet (GTGI, [2005a]). A definição mostra que embora o Estado seja considerado a instância para a elaboração de políticas, outros protagonistas passam a habitar esse espaço de gI, onde há uma relação de interdependência entre eles. Nessa conjuntura, alguns atores podem inclusive possuir um raio de ação maior do que o de Estados por atuarem para além de fronteiras nacionais. Portanto, o Estado está presente na gI, mas não é o único que contribui para a formulação de políticas e estratégias de ação relacionadas a ela em âmbito nacional e internacional. E não há nessa acepção um único líder, de maneira que a governança da Internet se dá com vários atores em seus respectivos papéis, os quais se tornam mais nítidos a partir de uma análise detalhada da gI. Pelo contrário, a governança da Internet se realiza por meio de uma arquitetura policêntrica e minimamente organizada. Por exemplo, na área de infraestrutura, os cabos que conectam as redes são operados em sua grande maioria por companhias privadas (algumas delas de grandes proporções, como a Level 3), as quais estabelecem regras de interconexão mediante acordos – o que influi no custo de conexão internacional e em políticas de acesso à Internet; nos padrões técnicos, instituições privadas (compostas principalmente por indivíduos representando essas instituições) estabelecem a maioria das decisões de gI, o que inclui o design de protocolos; na área de aplicação, plataformas online e redes sociais criam políticas que atingem o cotidiano de seus usuários por meio dos termos de serviços dessas empresas – algo que pode estabelecer uma série de debates acerca de liberdade de expressão, privacidade, entre outros (Maciel, [2014]). Além disso, esse conceito de gI consegue transcender o elemento técnico para agregar à governança da rede de computadores atividades conduzidas através dela (Chappele, [2007]). Em suma, pode-se dizer que os termos que envolvem a definição do GTGI são genéricos, de modo que aceitam diversas formas de gestão para cumprir com o desenvolvimento e aplicação de pontos em comum entre atores que, juntos, definem a governança da Internet. Torna-se evidente também que os mecanismos de governança não se prendem a uma dada localidade ou “globalidade” (podendo se aplicar a ambas), assim como não são orientados a uma forma de governo a ser utilizada para a tomada de decisão nas e entre as partes que constituem a gI, mesmo que o multissetorialismo esteja implícito na constituição da definição – pois foram múltiplos setores que, juntos e considerando seus

158

interesses, estabeleceram esse conceito de gI140. Além disso, é possível observar um duplo movimento de integração entre as partes que lidam com a governança da Internet. Se num primeiro momento existia a concepção de que a Internet estava para além da questão do Estado, este passa a ser ator relevante na gI ao mesmo tempo em que os demais atores influem no desenvolvimento de políticas públicas relacionadas à Internet. A definição de gI do GTGI foi aceita pelos membros da ONU141 que também deram suporte ao modelo multissetorial como o principal para a realização da governança da Internet (Kleinwächter, [2015]). Mesmo países que eram resistentes ao modelo multissetorial na época (como a China e a Índia), hoje adotam esse conceito. Todavia, é necessário ir para além dessa definição da ONU e pensar a gI como um espaço de disputa, estando sempre em negociação – o que inclui a própria definição de gI. E se há disputa é porque há objetos de interesse aos atores envolvidos e objetivos distintos almejados pelos mesmos. Nas palavras de Milton Mueller ([2010]: 18): “A governança da Internet é o rótulo mais simples, direto e inclusivo para o conjunto contínuo de disputas e deliberações sobre a forma como a Internet é coordenada, gerenciada e moldada para refletir as políticas”142. Por isso, não existe um equilíbrio na gI senão ao considerarmos determinado recorte de espaço e tempo. Pois há controle e coerção social, onde alguns atores possuem maiores condições de impor seus interesses em detrimento de outros. E são infinitas as variáveis que afetam essas relações de poder para o exercício do governo, consoante o que foi colocado. Ainda com Mueller ([2002a]: 11): “[r]esumidamente, há vencedores e perdedores em qualquer processo de institucionalização. E há sempre pressão contínua para a modificação das regras de forma a refletir os interesses especiais de várias partes”143. No entanto, a maquinaria da Internet não pode ser reduzida à governança da Internet e às acepções que tentam defini-la. Pelo contrário, esta é uma parte técnica e política daquela que afeta seu governo, embora seja uma parcela notável.

140 Para explicação detalhada do conceito de gI do GTGI, cf. GTGI [2005b]. 141 É importante destacar que além do setor governamental, diversos autores tomam essa definição como referência, entre eles Afonso [2016]. Mas existem outras definições de gI. MacLean [2004], por exemplo, apresenta em Herding Schrödinger’s Cats: Some Conceptual Tools for Thinking about Internet Governance, três visões sobre gI, pautando-se nos interesses dos atores na governança da Internet. Em síntese, o conceito de gI é problematizado em vários trabalhos, como Gonçalves [2005], Kleinwächter [2008], Solum [2009], Mueller [2010], Adachi [2011] e DeNardis [2014]. Um ponto importante a ser considerado é que, de modo geral, os trabalhos sobre gI se restringem a concepções que se ancoram em sociedades capitalistas. Pode ser que com o recente aumento do acesso à Internet em Cuba sejam apresentados outros entendimentos de gI do mesmo modo que a participação da China nas instâncias sobre governança da Internet trouxe questões sobre o modo como a gI é realizada. 142 [“Internet governance is the simplest, most direct, and inclusive label for the ongoing set of disputes and deliberations over how the Internet is coordinated, managed, and shaped to reflect policies”]. 143 [“[i]n short, there are winners and losers in any institutionalization process. And there is always continuing pressure for the modification of the rules in ways that reflect the special interests of various parties”].

159

A lista de temas que percorrem esse vasto campo da governança da Internet é ampla. Por exemplo, Laura DeNardis e Raymond [2013] estabelecem seis áreas de estudo da Internet com suas respectivas incumbências: recursos críticos da Internet; padrões da Internet; coordenação de acesso e interconexão; governança da segurança cibernética; intermediação de informação; imposição de direitos de propriedade intelectual baseada na arquitetura144. Kurbalija e Gelbstein [2005], por sua vez, definem cinco cestas relacionadas à governança da Internet: 1) infraestrutura e padronização/normalização; 2) legal; 3) econômica; 4) desenvolvimento; e 5) sociocultural. E cada uma delas seria composta por uma série de temas. Para além disso, eventos sobre gI trazem também uma infinidade de temas. Dada a amplitude do que seria gI, o Grupo de Trabalho sobre Governança da Internet [2005a] definiu quatro áreas de políticas públicas que contribuem com a demarcação do escopo de gI: a) infraestrutura e administração dos recursos críticos da Internet – o que inclui o sistema de nomes e números da Internet, administração do servidor-raiz, padrões técnicos, infraestrutura de telecomunicações, e interconexão e compartilhamento; b) uso da Internet, incluindo e não se limitando a spams, cibercrime e segurança da rede; c) questões relacionadas à Internet mas que têm impacto para além da Internet e das instituições que realizam sua governança, como a propriedade intelectual ou comércio internacional; e d) questões relacionadas com aspectos do desenvolvimento da gI, especialmente em países em desenvolvimento. E há outros pontos de interesse do GTGI, como comércio digital e nova geração de rede (NGN – Next Generation Networking)145. Tomando isso como referência, é nítido que a preocupação deste trabalho se centra no primeiro item e que a infraestrutura da Internet e o modo como ela se constrói é fulcral para sua governança, pois é nela que em grande medida se assentam escolhas políticas, o uso da Internet e o estabelecimento de limites para os mesmos. O primeiro item é condição de existência para as demais áreas de gI. Como o campo de análise sobre gI é amplo e com fronteiras imprecisas, flexíveis, existem numerosos modelos de analisá-lo. Nos próximos parágrafos exponho algumas dessas abordagens considerando como recorte o item a do GTGI.

144 Cf. Anexo IV. 145 Para aprofundamento sobre o GTGI, cf. Internet Governance goes Global (Hubbard e Bygrave, [2009]), Networks and states (Mueller, [2010]), Uma introdução à governança da Internet (Kurbalija, [2014]) e The Working Group on Internet Governance (Drake, [2015]). Além do relatório, o GTGI também publicou os bastidores do GT que certamente auxiliam na compreensão de seu desenvolvimento: Background Report of the Working Group on Internet Governance [2005b]. Sobre maiores detalhes acerca da definição de governança da Internet, cf. decision making in Internet governance: the impact of the WGIG definition (Kleinwächter, [2015]).

160

4.2 – Abordagens para o estudo da governança da Internet Na obra Governança da Internet, Kurbalija e Gelbstein [2005] defendem que existem duas abordagens da gI: a curta e a longa. A primeira prioriza a infraestrutura da Internet (como o DNS, IP, servidores-raiz), onde a ICANN assume centralidade. A segunda compreende que a gI está para além de assuntos de infraestrutura, abordando também questões jurídicas, econômicas, de desenvolvimento e socioculturais. Um exemplo de abordagem ampla é a do GTGI. Tomando como referência a segunda abordagem, os autores dividem a gI em cinco cestas mencionadas acima, as quais são dinâmicas e estão vinculadas146. Dentro de cada uma dessas cestas há uma série de temáticas a serem abordadas pela gI. A gI estaria pautada em binômios polêmicos que demandariam equilíbrio, como: liberdade x controle; propriedade intelectual x uso justo de materiais; e cibersegurança x privacidade. Essa divisão dicotômica seria questionável ao levarmos em consideração o que foi colocado até o momento sobre gI (embora já saibamos a partir dos capítulos anteriores o que pares de oposição são capazes de construir no meio digital). Quanto a isso, Kurbalija ([2014]: 39) rebate as críticas sobre os pares de oposição na gI do seguinte modo:

[m]uitos criticam estes “pares contrabalanceadores”, considerando-os falsos dilemas. Por exemplo, existem fortes argumentos de que cibersegurança não necessariamente significa menos privacidade. Existem abordagens em busca do aprimoramento tanto da cibersegurança quanto da privacidade. Embora esses pontos de vista sejam defendidos com fortes justificativas, a realidade da política de governança da Internet é de que ela é definida pelas opções de políticas “binárias” anteriormente citadas.

Num primeiro momento, esta passagem pode gerar certo incômodo porque Kurbalija se vale de uma fuga do específico (mostrar a relevância de cada par de oposição) para o geral afirmando que na realidade política da gI funciona assim. Além disso, Kurbalija se assenta no argumento de autoridade por ser relevante no debate sobre gI. De fato, o autor não apresenta argumentos que convençam o leitor. Por outro lado, sabemos que lidar com dilemas a partir de pares de oposição é algo comum tanto em nosso cotidiano (feio x bonito; barato x caro; certo x errado) como nas humanidades (natureza x cultura; indivíduo x sociedade; público x privado). Ora, os pares de oposição para a resolução de um dilema têm um caráter didático e são largamente empregados. Mas certamente esse recurso pode subtrair da discussão fatores

146 Essa dinâmica da gI se evidencia inclusive nas colocações de Kurbalija, pois na última edição do livro An Introduction to Internet Governance (Kurbalija, [2016]), o autor acrescenta outras duas cestas em sua taxonomia da gI: direitos humanos e segurança.

161

que possibilitariam outro norte para a equação de um problema. Tomemos o zero rating para ilustrar esse problema. O zero rating é uma prática realizada por provedores de acesso de não cobrar do plano de dados contratado a utilização de certo aplicativo ou serviços de Internet. Como exemplo de empresas de tecnologia envolvidas com o zero rating, temos a união do Facebook e outras seis empresas (Samsung, Ericsson, Media Tek, Opera Software, Nokia e Qualcomm) para a realização do projeto chamado internet.org, o qual oferece acesso a fragmentos da Internet a países menos desenvolvidos. Esse projeto já conectou mais de 25 milhões de pessoas que não tinham condições de acessar a rede mundial de computadores147. Quanto a operadoras de telefonia, temos no Brasil diversas situações em que as empresas não cobram da franquia de dados contratada pelo cliente o acesso ao aplicativo WhatsApp. Em um debate sobre zero rating realizado no encontro anual do Fórum de Governança da Internet de 2015, em João Pessoa, foi colocado o seguinte par de oposição para lidar com a questão: você prefere acessar a Internet de graça ou pagar por ela? Esse tipo de questão sintetiza a discussão de uma tal maneira que a torna vazia, pois não propõe problematizar o que está por detrás da prática do zero rating e o modelo de negócios sustentado por ela. Longe de resolver esse assunto em uma nota de pé de página, coloco apenas algumas indagações com vistas a incentivar reflexões acerca do que há por detrás dessa dicotomia: como uma empresa sustenta economicamente o zero rating?; quais são os possíveis benefícios que uma empresa pode ter ao aplicar o zero rating?; quais podem ser as consequências, a longo prazo, no condicionamento à utilização de determinados serviços que se valem do zero rating? Para além disso, o zero rating afeta a neutralidade da rede, sobre a qual disserto ainda neste capítulo. É importante retomar a posição de Kurbalija ao indicar que a gI se constitui mediante diversas cestas, sendo que as mesmas estão vinculadas e são dinâmicas. Ou seja, embora defenda que há esses pares de oposição na “realidade política” da gI, tem a ciência de que ela está para além disso. Portanto, é profícuo considerar a presença desses pares de oposição na prática da gI ciente dos limites e norteamentos que elas podem estimular. Milton Mueller trabalha com outra abordagem para o estudo da gI. No capítulo Ideologies and Visions de sua obra Networks and States [2010], por exemplo, indica os seguintes eixos para lidar com os posicionamentos dos atores na governança da Internet.

147 Cf.: . Acesso em 10 nov. 2017.

162

Fig. 4.1 – Os quadrantes de Milton Mueller ([2010]: 256)

Seriam necessárias diversas páginas para esgotar o debate proveniente dessas divisões e mesmo discutir o enquadramento das práticas nesses eixos (o próprio autor se vale de várias páginas para explicar e problematizar tais eixos). Mas é nítido que ele também utiliza pares de oposição para explanar sobre as práticas dos atores na gI, ainda que lide com o entrecruzamento desses pares para classificar posicionamentos. Além disso, Milton Mueller faz várias ressalvas de posições que transcendem as polaridades apresentadas, evidenciando os limites do seu esquema. De todo modo, esses quadrantes colaboram com a composição de uma geografia das posições dos agentes na gI. É certo que a opinião de determinado ator pode ora ser visando uma governamentalidade global e ora um nacionalismo em rede, dependendo do que está em disputa e de seu interesse ao tomar determinada atitude. Não há uma racionalidade que percorra toda a prática do ator, de modo que o contraditório é aceito em sua concepção acerca das práticas na gI. Em um documento feito pela ICANN para o NETmundial – em poucas palavras, encontro multissetorial realizado em São Paulo no ano de 2014, cuja preocupação era estabelecer princípios de gI e a evolução desse ecossistema –, intitulado The three layers of digital governance, é elaborada uma taxonomia que separa a gI em três camadas: 1) infraestrutura; 2) lógica; e 3) social e econômica. O documento enfatiza que nenhum ator governaria toda a infraestrutura digital da Internet. Pelo contrário, sua governança se daria através da colaboração multissetorial em comunidades policêntricas, instituições e plataformas em esferas globais, regionais e nacionais, constituindo um grande ecossistema que faz a Internet funcionar e se desenvolver. A partir disso, a ICANN estabelece as principais funções de cada uma das camadas e os atores centrais em cada uma delas. A

163

ICANN compreende que teríamos uma Internet na medida em que utilizamos identificadores únicos nessa rede de redes – como nomes e números (números de servidores autônomos, IP, e nomes de domínio) –, os quais se estabelecem com sua participação na administração desses identificadores. Embora se saiba que existem outros identificadores únicos nos computadores, como os endereços MAC que não mudam com tanta fluidez quanto os IPs, os endereços MAC não entram no escopo desses identificadores únicos no momento em que se disserta sobre a Internet. O fato de uma instituição ser importante em determinada camada na perspectiva da ICANN não significa que não atue em outras. Por exemplo, a ICANN aparece como fundamental na camada lógica, mas está presente nas discussões que se estabelecem em outras camadas. A ênfase do referido documento está no funcionamento da camada na qual a ICANN é um dos atores centrais, onde esses atores estariam vinculados a uma comunidade multissetorial para o desenvolvimento de políticas e implementações (Anexo III). Laura DeNardis [2014], por sua vez, estabelece quatro parâmetros para o estudo da Internet: 1) o estudo da gI é diferente do estudo de seu uso; 2) questões sobre gI referem-se à arquitetura técnica única da Internet e não de uma esfera maior de design e política de tecnologia da informação e comunicação; 3) a prática da governança da Internet ultrapassa suas instituições; e 4) a governança da Internet inclui a promoção da interoperabilidade da Internet e acesso ao conhecimento, como também técnicas voltadas a restringir a liberdade na Internet. Tendo isso em vista, estabelece o que não seria gI, como as implicações políticas e econômicas de conteúdos gerados por usuários, novos modelos de produção de conhecimento, etc. Assim sendo, ao invés de estudar o uso da Internet no nível do conteúdo, pesquisadores de gI analisariam as implicações econômicas e políticas da administração e design da arquitetura física e lógica da Internet: “[o]s objetos da investigação da governança da Internet são a arquitetura técnica, as entidades públicas e privadas e as regras que controlam essa arquitetura, e as políticas relacionadas a essa arquitetura”148 (DeNardis, [2014]: 21). Esses parâmetros teriam condições de nos colocar em um campo menor de temáticas que se associam com a Internet, como cibersegurança, recursos únicos da Internet (nomes, números, etc.), sistema de roteamento e endereçamento, interconexão entre operadores de rede, desenvolvimento de padrões por meio dos quais a Internet é operada, etc. DeNardis reconhece que esse recorte é mais restrito do que o seguido por outros, como é o caso do IGF que inclui o modo como a Internet é utilizada, direitos humanos, educação

148 [“[t]he objects of Internet governance inquiry are technical architecture, the private and public entities and rules that control this architecture, and policies about this architecture”].

164

digital, entre outros tópicos. Vale salientar que em trabalho anterior, DeNardis e Raymond [2013] apresentam outro tratamento ao dividirem as principais funções da gI em seis áreas: 1) controle dos recursos críticos da Internet; 2) estabelecimento de padrões da Internet; 3) coordenação de acesso e interconexão; 4) governança da cibersegurança; 5) o papel da política dos intermediários de informação; e 6) aplicação de direitos de propriedade intelectual baseada na arquitetura (Anexo IV). Essas são algumas das formas de examinar a gI149. Num estudo em profundidade acerca das abordagens da gI deveria ser levado em consideração a posição desses escritores na própria dinâmica da gI, pois todos os atores aqui mencionados – Kurbalija, Mueller, ICANN e DeNardis – atuam diretamente na “realidade da política de governança da Internet”, influindo em sua construção. Portanto, são atores capazes de influenciar interpretações sobre a governança da Internet, atores com leituras que muitas vezes podem superdimensionar espaços considerados legítimos da gI desconsiderando, de certo modo, as produções que estão para além dessa esfera consagrada, conduzindo inclusive o espectro, o limite a partir do qual se pode discutir o que é ou não governança da Internet, quais são os atores relevantes e o que está em jogo. Portanto, é necessário ficar atento às referências utilizadas para analisar a governança da Internet e o jogo que se estabelece nela pois, como dito, parte expressiva daqueles que dissertam sobre gI também estão jogando esse jogo e possuem interesse envolvido nessa densa trama de âmbito global. Cada uma dessas maneiras de tratar a gI oferece um caminho que induz a determinados questionamentos, impele a certos focos desse caleidoscópio que constitui a gI, o qual é recortado e interpretado de formas diversas orientadas pela posição que o pesquisador ocupa nesse espaço. Dito de outro modo, a Internet não se esgota na temática da governança da Internet, onde mesmo o contorno desse campo de análise está permeado por interesses específicos e constituindo limites, fronteiras analíticas de superfície. Nesse sentido, todas as abordagens oferecem pistas para lidar com a gI, embora não se possa reduzir a mesma a uma delas. Portanto, apesar de a Internet fazer parte do mundo digital, seu estudo deve ter como referência o fator analógico que o constitui, a multiplicidade de relações de poder que configuram os espaços onde humanos e máquinas interagem. Ciente disso que realizo neste capítulo a apresentação de alguns atores que contribuem com a administração dos recursos críticos da Internet e/ou fazem parte da arquitetura da rede que elabora e participa dos principais circuitos de eventos sobre gI. Parte deles foram mencionados nos capítulos

149 Para o estudo de outras perspectivas para análise da gI, cf., entre outros, o trabalho realizado por Lawrence Solum [2009], no qual o autor apresenta cinco modelos de gI que atuam na Internet.

165

anteriores, no movimento de detalhamento técnico da Internet, como governos, membros da sociedade civil, ITU, ISO, IETF, IEEE, ICANN, CGI.br e RIRs. Ao considerar as abordagens colocadas acima, adoto em maior medida a proposta por DeNardis [2014]150 posto que a autora desenvolve um caminho mais sistemático sobre análise de gI e porque essa delimitação se encaixa ao movimento que a tese está seguindo de observar a Internet antes a partir do seu modo de funcionamento do que por meio dos agentes políticos envolvidos na governança dessa rede de redes. Mas antes de tecer uma análise atenta deles, traço alguns elementos que compõem o panorama no qual eles estão inseridos, onde o Estado passa a ser um ator e não mais o ator nas relações internacionais. O primeiro deles diz respeito ao modelo participativo largamente utilizado na gI, o multissetorialismo.

4.3 – Panorama da governança da Internet Conforme colocado, a governança da Internet se dá através de múltiplos atores de variadores setores da sociedade. Diante dessa pluralidade, surgem conflitos de interesses que podem ser sanados de diversas maneiras, entre elas destaca-se o modelo multissetorial. Multistakeholder é uma expressão que possui suas raízes etimológicas no complexo de organizações das Nações Unidas, onde as partes interessadas são chamadas de stakeholders. Multistakeholderism (traduzido aqui como multissetorialismo) seria a abertura à participação de atores que não sejam governos (Mueller, [2010]). A participação multissetorial aparece copiosamente em documentos que contenham princípios de governança da Internet, algo evidente na obra Principles for governing the Internet (Weber, [2015]). Na pesquisa exposta por Weber, dos 52 documentos analisados – sendo 28 documentos de instituições globais, 11 de iniciativas regionais e 13 desenvolvidos por diferentes corpos da sociedade civil –, 39 mencionaram aspectos da participação multissetorial e 19 trataram desses aspectos com maiores detalhes.

150 “A principal tarefa da governança da Internet envolve o design e a administração de tecnologias necessárias para manter a Internet operacional e a promulgação de uma política substantiva em torno dessas tecnologias. Essa arquitetura técnica inclui camada sobre camada de sistemas, incluindo padrões técnicos da Internet; recursos críticos da Internet, como os endereços binários necessários para acessar a Internet; o DNS; sistemas de intermediação de informações, como mecanismos de busca e redes de transações financeiras; e sistemas ao nível de rede, como o acesso à Internet, pontos de troca da Internet e intermediários de segurança da Internet” (DeNardis, [2014]: 6-7). [“The primary task of Internet governance involves the design and administration of the technologies necessary to keep the Internet operational and the enactment of substantive policy around these technologies. This technical architecture includes layer upon layer of systems including Internet technical standards; critical Internet resources such as the binary addresses necessary to access the Internet; the DNS; systems of information intermediation such as search engines and financial transaction networks; and network- level systems such as Internet access, Internet exchange points, and Internet security intermediaries”].

166

A nível internacional, o modelo multissetorial de participação é marcado pela Conferência das Nações Unidas de Meio Ambiente e Desenvolvimento (ECO-92), realizada em 1992 no Rio de Janeiro, na qual a abordagem composta por múltiplas partes interessadas foi implementada por várias iniciativas e cúpulas relacionadas à ONU (Hemmati, [2002]). Já no que concerne à elaboração de políticas da Internet, as conferências da CMSI chancelaram a utilização desse tipo de abordagem de participação. Mas um espaço no qual atores de vários setores podem participar e constituir conselhos não é algo recente. Como pondera Hemmati [2002], antes da ECO-92 e da CMSI, outra organização internacional a reconhecer a relevância do envolvimento entre as partes interessadas foi o International Labour Organization (ILO), estabelecendo em 1919 um modelo tripartite de representação de governos, empregadores e empregados, composto por 28 membros de governos, 14 representando os trabalhadores e outros 14 os empregadores. Com o final de Guerras Mundiais e da Guerra Fria em 1991, o estabelecimento de relações globais e com a participação de múltiplas partes interessadas se tornou mais viável. Além disso, com o advento da Internet e sua utilização para a intensificação da participação no desenvolvimento dessa rede de redes, se estabelece outro patamar interativo que está em sintonia com os novos desenvolvimentos tecnológicos e sua proliferação no globo151. Uma das imagens que tentam representar o multissetorialismo seria a que segue, onde uma série de atores seriam afunilados por meio de intermediários que constituiriam acordos, leis, etc., orgânicos:

Fig. 4.2 – Representação da matriz multissetorial152

Esse modelo consegue estabelecer meios eficientes para a elaboração de políticas públicas e regulações bem como procedimentos para coordenar escolhas políticas e tomadas

151 “A rede global demanda um novo tipo de governança; mas também é a ferramenta que possibilita essa nova governança e a molda à sua própria imagem: em tempo real, participativa e distribuída” (Chapelle, [2007]: 25). [“The global network demands a new type of governance; but it is also the tool that makes this new governance possible and shapes it in its own image: real-time, participatory and distributed”] 152 Imagem disponível em: . Acesso em 10 out. 2017.

167

de decisão considerando múltiplos atores. Outra vantagem dele é criar condições para alcançar objetivos, os quais cada stakeholder não poderia alcançar sozinho. Isso acontece ao convergir atores com interesses distintos que são ou serão afetados pelo assunto em questão. Esse tipo varia em seu modo de constituição, não devendo ser entendido como a única opção aplicável à gI e pode ser utilizado dentro de uma instituição (ICANN) ou apenas em um evento (NETmundial). Ademais, esse modelo não é utilizado apenas na gI, mas em uma infinidade de casos, incluindo outras questões globais complexas, como mudança climática e administração de recursos hídricos (Almeida, Getschko e Afonso, [2015]). Dependendo da situação, o modo de ação dentro de determinada esfera pode exigir uma prática que não esteja em conformidade com esse modelo ou uma variação dele. E de acordo com o modo como é utilizado, o multissetorialismo pode fazer calar determinados grupos ou sequer deixar eles aparecem. Como a Internet é ampla, a gestão de fragmentos da gI tende a variar assim como os interesses dos atores envolvidos em debates com múltiplos graus de amplitude geográfica. Portanto, o multissetorialismo não possui uma positividade ontológica, nem um único modo de utilização153 e sequer é a única opção aplicável. Outro elemento que comumente se relaciona com o multissetorialismo é a estratégia de governança e a elaboração de políticas bottom-up (de baixo para cima) em oposição ao top-down (de cima para baixo). Se no primeiro caso temos o envolvimento de muitos setores e atores que se afunilam até chegar em um número restrito de entidades, no segundo seria um número restrito de agentes governando e elaborando políticas a serem aplicadas aos demais. Como exemplo do primeiro caso, temos o modo de funcionamento da ICANN (sobre o qual dissertarei adiante) e do segundo o que comumente é aplicado pelos Estados. A tônica na gI estaria no primeiro caso em detrimento do segundo. Uma crítica em relação à estratégia bottom-up é que esse processo seria lento, ineficiente. Ora, basta observar o modo como se estabelecem políticas públicas em âmbito nacional para vislumbrarmos que ela também pode ser lenta e mesmo ineficiente. Por outro lado, o estado de exceção declarado pelo governo Bush após os atentados de 11 de setembro mostra a rapidez e “eficiência” para lidar com “terroristas”154. Um ponto que pode ser colocado contra a estratégia top-down é que ela corre o risco de não ser respeitada se não for orgânica. Contudo, isso também pode ser colocado contra uma estratégia bottom-up. O fato é que em nenhum dos dois casos há a

153 Em artigo já mencionado neste capítulo, Laura DeNardis e Mark Raymond [2013] estabelecem uma classificação de governanças multissetoriais a partir de duas dimensões: 1) tipos de atores envolvidos; e 2) a natureza das relações de autoridade entre os atores envolvidos. A fim de tornar visível as classificações realizadas pelos autores, reproduzi a tabela feita por eles no Anexo V. 154 Para um debate interessante sobre estado de exceção e a presença do mesmo no contemporâneo, cf. Estado de exceção, de Giorgio Agamben [2003].

168

quebra de hierarquias. Como coloca Kleinwächter ([2017]: online): “existem hierarquias em redes e redes em hierarquias”155. Uma possibilidade ao multissetorialismo é o multilateralismo, tradicionalmente utilizado em associações envolvendo vários países e que geralmente é veiculado como uma oposição ao multissetorialismo. Um de seus limites é justamente o de lidar apenas com governos e não com uma miríade de setores portadores de interesses distintos. E há variações no multilateralismo, como propõe a Declaração de Bávaro [2003], documento resultante da Conferência Ministerial preparatória da América Latina e Caribe para a CMSI e apoiado por uma série de países em desenvolvimento – ao passo que países como os Estados Unidos defendiam o multissetorialismo. O documento demandava a constituição de uma governança da Internet multilateral, transparente e democrática. Democrática seria participação mais ampla possível das partes interessadas, particularmente os governos; transparente, implicaria em processos de tomada de decisão abertos à participação das partes interessadas e sujeitos ao controle da sociedade; e multilateral, um espaço que permitiria a representação de estados soberanos em igualdade (Maciel, [2014]: 101). Ora, os limites do multilateralismo são patentes se se tem em mente a participação de atores não-estatais, onde o multissetorialismo resolveria em parte o déficit democrático de governos nacionais que tenderiam a defender um interesse político único e dominante ao invés de manifestar uma diversidade de pontos de vista. Todavia, o multissetorialismo também possui problemas que, em grande medida, se centram no como ele é utilizado. Mas em ambas as formas de governo é fundamental a clareza do processo. O multissetorialismo resolve o problema dos atores envolvidos na gI ao reconhecer que eles estão para além dos Estados, defendendo a participação de múltiplos atores. Todavia, isso não garante o estabelecimento de uma relação horizontal entre eles na prática, algo que o multilateralismo também não consegue assegurar. Isso faz com que determinados discursos sejam calados ou sequer tenham condições de aparecer – mesmo porque o fator econômico se apresenta em alguns casos enquanto elemento condicionante para a participação das partes interessadas, especialmente quando esta parte é a sociedade civil. De todo modo, o multissetorialismo tem um raio de ação participativo maior do que o multilateralismo. Mas ainda que tenha condições de ser altamente descentralizado, o multissetorialismo tende a, em algum momento, realizar afunilamentos, principalmente ao seguir a estratégia bottom-up. Outro ponto que o multissetorialismo se esforça para lidar, mas

155 [there are hierarchies in networks and networks in hierarchies].

169

que não alcança uma solução definitiva, é a representatividade – assim como acontece em outras formas de governo. Nesse sentido, esse modelo patenteia que o Estado toma decisões destoantes daquelas que declara representar, pois sociedade civil e setor privado não necessariamente possuem interesses em comum. Na leitura de Mueller [2010], se os processos multissetoriais não forem devidamente institucionalizados, eles podem fazer com que agentes com maior influência na gI dominem ancorados no discurso de representatividade, manipulando assim categorias de representação: “[o] poder de designar formalmente certas pessoas ou organizações como ‘a’ representante de alguma categoria ampla pode ser facilmente usado tanto para privar a população quanto para empoderá-la”156 (Mueller, [2010]: 265). Há ainda algumas questões pertinentes ao multissetorialismo, como: quem são os atores que conseguem chegar nos espaços de tomada de decisão, como eles chegaram ali e em que medida o fator econômico é determinante para isso?; e quem efetivamente consegue influir nesses espaços? (Nesse sentido, vale retomar a provocação feita por DeNardis e Raymond ([2013]: 18): “[e]ntre várias funções de governanças cruciais, a realidade talvez esteja mais próxima da autorregulação da indústria do que do multissetorialismo genuíno”157). Ademais, deve-se lembrar que a defesa do modelo multissetorial tende a dar maior capacidade de influência a grandes empresas da Internet na discussão sobre gI, sendo que essas empresas são, em grande maioria, americanas. Nesse sentido, reafirma-se o que já foi colocado acerca da presença dos Estados Unidos na influência do funcionamento e operação da arquitetura da Internet, de maneira que isso também se desdobra na gI. Em outras palavras, não é possível afirmar que o multissetorialismo seja necessariamente capaz de solucionar problemas presentes em outras formas de governo. Pelo contrário, é necessário realizar uma reflexão crítica sobre sua utilização, principalmente em um contexto no qual “multissetorialismo” tende a aparecer como sinônimo de democracia, liberdade, coesão, bottom-up, governança da Internet e equilíbrio158. As considerações aqui realizadas sobre essas formas de governo são intencionalmente genéricas, pois assim oferecem subsídios para pensarmos sobre as formas de governo na gI, desmistificam o modelo multissetorial e servem de referência para uma

156 [“[t]he power to formally designate certain people or organizations as ‘the’ representative of some broad category can be used to disenfranchise the populace as easily as to empower them”] 157 [“[a]cross a number of crucial governance functions, the reality is perhaps closer to industry self-regulation than to genuine multistakeholderism”]. 158 Caso haja interesse em mais críticas sobre o modelo gI, cf. Belli [2015] e o artigo-manifesto O controle da governança da Internet, de Hindenburgo Pires [2014].

170

análise dos atores que compõem o complexo sistema de governança da Internet bem como para seu aprimoramento159. Como se pode notar, o espaço da governança da Internet possui uma série de conflitos entre as partes interessadas, sendo um deles a supervisão de determinadas funções essenciais para o funcionamento da Internet. Ora, se existem pontos centrais na Internet é porque não há uma autêntica descentralidade na rede. Como coloca DeNardis ([2014]: 34), “[e]ssas preocupações quanto à autoridade centralizada não existiriam se não houvesse pontos de controle centralizado. Pontos de supervisão concentrada existem, apesar da natureza multissetorial e difusa mais geral da supervisão institucional”160. Um exemplo dessa disputa é o embate pelo domínio dos recursos críticos da Internet – identificadores únicos que mantém a Internet operacional, o que inclui número dos sistemas autônomos e nomes de domínios – que é operada por instituição já mencionada no capítulo anterior, a ICANN.

4.4 – Atores, conflitos e contexto Conforme apresentado, a convergência digital faz com que frentes de desenvolvimento tecnológico passem a lidar com o mundo digital, alcançando pontos em comum; um funcionamento que se dá através de conflitos de interesse e certas aquiescências. Uma área que entra nesse espaço de disputa é a telecomunicação, a qual em vários momentos tenta colocar a Internet sob seu guarda-chuva. Nesse sentido, a própria definição de gI auxilia

159 Almeida, Getschko e Afonso ([2015]: 78) colocam questões relevantes que podem servir de norte ao aprimoramento do modelo multissetorial: : “* Como identificamos o conjunto mais adequado de partes interessadas para trabalhar em um determinado assunto?; * Como definimos os mecanismos e os critérios de seleção de representantes de grupos diferentes?; * Como evitamos permitir que ONGs influentes e poder corporativo capturem o processo multissetorial?; * Como as técnicas de crowdsourcing podem ser utilizadas para fornecer dados para os diálogos de questões difíceis?; * Quais tecnologias poderiam ajudar os representantes das partes interessadas a ‘sentirem o pulso’ de seu eleitorado?; * Quais tecnologias poderiam permitir que órgãos governamentais multissetoriais monitorem os resultados de seus acordos?; * Que tipo de estrutura tecnológica facilitará o diálogo em um órgão multissetorial de modo que um consenso mínimo possa ser alcançado?; * Que tipo de tecnologia poderia ser desenvolvida para acelerar o processo de decisão em organizações multissetoriais?; * Que tipo de modelo teórico apoiará a construção de consenso e a tomada de decisão em ambientes multissetoriais?”. [“* How do we identify the most adequate set of stakeholders to work on a particular issue?; * How do we define the mechanisms and criteria for selecting representatives from different groups?; * How do we avoid letting influential NGOs and corporate power capture the multistakeholder process?; * How can crowdsourcing techniques be used to provide input into the dialogues of difficult issues?; * What technologies could help stakeholder representatives ‘feel the pulse’ of their constituencies?; * What technologies could allow multistakeholder governance bodies to monitor the results of their agreements?; * What kind of technological framework will facilitate dialogue in a multistakeholder body so that a minimum consensus can be achieved?; * What type of technology could be developed to accelerate the decision process in multistakeholder organizations?; * What kind of theoretical model will support consensus building and decision making in multistakeholder environments?”]. 160 [“[t]hese concerns about centralized authority would not exist if there were not points of centralized control. Points of concentrated oversight do exist, despite the more general multistakeholder and diffuse nature of institutional oversight”].

171

no embate, criando uma esfera relativamente autônoma da área de telecomunicação, onde esse setor apresenta-se como um dentre os que compõem a gI. Mas é relevante, pois a forma como as telecomunicações são geridas impacta diretamente na governança da Internet. E sua regulação se dá tanto nacional quanto internacionalmente por uma série de instituições, tanto públicas quanto privadas. Duas das principais organizações das telecomunicações são a União Internacional de Telecomunicações (UIT), a qual desenvolveu e desenvolve regras de coordenação entre sistemas de telecomunicação nacional, alocação do espectro de rádio e a gestão do posicionamento de satélite; e a OMC (Organização Mundial do Comércio), a qual teve papel relevante na liberalização do mercado de telecomunicações em todo o mundo. As empresas de telecomunicação são ativas no setor de padronização, essencial para o funcionamento de qualquer meio de comunicação. Empresas de telecomunicação também são fundamentais, como se sabe, para o fluxo de dados, pois a maior parte do tráfego se dá por meio da infraestrutura de telecomunicações de grandes companhias, como Verizon, AT&T, Comcast, Sprint, Tata, T-mobile, British Telecom e Korea Telecom (provedoras de serviço de Internet (ISP)). Além disso, elas dão suporte ao setor de multimídia e suporte ao setor multimídia, na medida em que são donas e operam partes medulares dessa rede de redes. É preciso salientar que alguns tópicos da gI passaram a fazer parte das discussões sobre questões políticas em órgãos internacionais das telecomunicações – como a UIT. Um exemplo disso são discussões sobre segurança na Internet estarem com frequência na agenda da UIT. Esse tipo de prática faz com que a linha demarcadora da fronteira entre gI e telecomunicações se torne ainda mais tênue. Por outro lado, a dinâmica da gI também influi nas instituições envolvidas com a mesma, de maneira que a própria UIT precisa rever sua configuração original que não segue o modelo multissetorial (Nwakanma, [2014]). Assim sendo, atores que atuam globalmente na área de telecomunicações tendem a participar de reuniões, eventos e grupos de trabalho que lidam com a gI para influenciá-la, como a CMSI, GTGI, IGF e encontros da ICANN. Dentre os pontos de conflito entre as teles e a gI está a questão da neutralidade da rede. Como já colocado, a neutralidade da rede diz respeito ao tratamento isonômico por parte de empresas de telecomunicação dos pacotes de dados que trafegam em suas redes, salvo por questões técnicas ou a priorização de serviços de emergência. Para as empresas de telecomunicação, a quebra da neutralidade poderia significar um modelo de negócios capaz de gerar maiores lucros. Suponhamos que sou dono de uma empresa de telecomunicação em uma pequena cidade, fornecendo o serviço de Internet de banda larga e telefonia para toda a população a partir de vários planos, incluindo planos combo com Internet e telefone. Ao

172

analisar os metadados dos pacotes trafegados na minha rede, identifico clientes conversando por VoIP ao invés de contratarem um plano de telefonia para falar à vontade. Diante disso, resolvo dificultar a utilização do VoIP, deixando a chamada mais lenta com a finalidade de estimular meus clientes a fazerem uso de algo mais estável – como meu sistema de telefonia. E para evitar que meus clientes contratem o serviço de outras empresas, deixo o acesso ao site e aos serviços dos concorrentes lento, inutilizável. Partindo de um mesmo referencial, posso ainda criar planos que restrinjam o modo como meus clientes usam a Internet a partir de certos pedágios no acesso e utilização dessa rede de redes. Se quiserem utilizar a Internet para acessar jornais, e-mail e sites, cobro um valor mínimo. Mas se quiserem utilizar streaming de vídeos e músicas bem como jogar online, terão que pagar pelo plano premium de Internet. Por outro lado, posso conversar com os provedores de conteúdo (como Netflix e Facebook) e fazer um pregão para dar prioridade no tráfego de dados dentro da minha rede à empresa que pagar mais, colocando os demais provedores de conteúdo em desvantagem. Esse tipo de prática descrita no parágrafo anterior tornaria a Internet próxima do modelo de negócios presente na TV a cabo ou via satélite, onde provedores de acesso oferecem diferentes “pacotes” que dão acesso a conteúdo distinto em conformidade com o valor que o cliente pode pagar. Hoje, temos uma lei nacional que inibe essas ações (Lei 12965/2014, mais popularmente chamada de Marco Civil da Internet (Brasil, [2014]), embora seja difícil aferir tal tipo de prática. Há uma série de outros casos que poderiam entrar nesse debate, como o zero rating e o estabelecimento do limite de consumo na banda larga fixa. A este respeito, basta frisar que há conflitos de interesse na gI e que as empresas de telecomunicação são relevantes na gI161. Nota-se que a apresentação dessa perspectiva de neutralidade da rede e o posicionamento das teles diz respeito a uma visão em amplitude, de modo que ela não pode ser tomada como a posição de toda e qualquer empresa de telecomunicação. É a partir desse mesmo movimento abrangente e tipificado que apresento os objetos de disputa de setores que compõem a gI: setor comercial; comunidade técnica; sociedade civil; comunidades internacionais; e alguns países. Uma das principais preocupações do setor comercial antes do surgimento da ICANN, em 1998, era a proteção de marcas registradas. Como não existia uma política para resolução de litígios sobre nomes de domínios, uma pessoa poderia comprar um domínio com o nome de uma empresa e depois cobrar um alto valor para a revenda do mesmo a essa entidade. Considerando que a Google foi fundada em 1998, na Califórnia, uma pessoa atenta

161 Para aprofundamento do estudo sobre neutralidade da rede, cf. Wu [2003] e também o trabalho de Vinícius Santos [2016]: Neutralidade da rede e o Marco Civil da Internet no Brasil: atores, políticas e controvérsias.

173

às notícias e ao desenvolvimento das corporações poderia comprar o domínio google.com.br e depois revender o mesmo para a Google por um valor milionário. Isso gerava uma especulação e uso das marcas registradas que provocava gastos às empresas. Somente no ano de 1999 que esse tipo de problema foi resolvido por meio da criação da Política para Resolução Uniforme de Litígios sobre Nomes de Domínios (Uniform Domain-Name Dispute- Resolution Policy – UDRP)162. Isso certamente favoreceu as empresas possuidoras de marcas registradas e os agentes de registros responsáveis por vender nomes de domínio da Internet. Dois dos principais agentes são VeriSign (a qual administra gTLDs, como .com e .net) e Afilias (administradora de gTLDs, como .info, .pet e .lgbt). Além dos servidores de acesso sobre os quais dissertei parágrafos acima, há corporações servidoras de conteúdo que também colocam suas demandas na discussão sobre gI, como Netflix, Facebook, Disney e Google – embora geralmente empresas relacionadas à Internet diversifiquem seu capital desenvolvendo distintas áreas da cadeia dessa rede, como é o caso da Google investir no provimento de acesso a ela por meio do Google Fiber, entre outras áreas. De modo geral, provedores de conteúdo estão preocupados com o alcance global de seus produtos e a proteção dos direitos autorais dos mesmos a nível global, tendo que lidar com propriedade intelectual, privacidade, neutralidade da rede, cibersegurança, etc. O setor privado também tem interesse em padrões, sendo o principal setor no desenvolvimento de padrões técnicos – conforme colocado anteriormente –, posto que precisam recorrer a parâmetros para comercializar seus produtos. Isto representa uma forma de controle sobre o desenvolvimento de instrumentos que condicionam a criação de novas tecnologias. Nesse sentido, empresas colocam seus funcionários para participar de eventos, fóruns, grupos de trabalho, entre outros, que discutam ou desenvolvam padrões relacionados a seus produtos, como nos GTs do IETF. Dada a extensão da ala privada, a governança tende antes a ser exercida por redes cooperativas do que por decretos: “[e]nquanto os tentáculos do controle do governo estão cada vez mais visíveis, os órgãos do setor privado têm sido geralmente permitidos – e, de fato, frequentemente encorajados – a desempenharem um protagonismo no design e na gestão da Internet. (...) Em grande medida, então, a governança tem sido exercida por redes

162 Cf. a cronologia dessa política disponível em: . Acesso em 2 set. 2017. Existe uma série de transtornos que podem surgir a partir disso, mesmo excetuando atores que tenham a intenção de comprar determinado nome de domínio para, em seguida, revendê-lo. Uma situação que envolve a empresa Amazon e países que possuem parte da região da Amazônia, mas especialmente o Brasil, é o debate sobre o domínio .amazon. Esse é um dos diversos imbróglios com os quais a UDRP precisa lidar. Para análise sobre a UDRP, cf. Mueller [2000] e Geist [2002].

174

cooperativas, em vez de por decreto”163 (Bygrave e Michaelsen, [2009]: 92). Portanto, as grandes empresas Google, Amazon, Facebook e Apple (também chamadas de GAFAs), Intel e Microsoft atuam na gI, compondo por meio de seus empregados também a comunidade técnica. Ela pode ser considerada a base epistêmica da Internet. Seus membros estiveram ligados historicamente às universidades dos Estados Unidos, pautando-se no princípio de compartilhamento de recursos, acesso e certa resistência de participação do governo na regulamentação da Internet; protegem o conceito inicial da Internet contra sua intensa comercialização e influência governamental irrestrita; e trabalham para desenvolver normas técnicas e funcionalidades da Internet (Kurbalija, [2014]). Mas com a acentuada comercialização da Internet a partir da década de 1990, outras partes interessadas nessa rede de computadores trouxeram demandas, culturas profissionais e mesmo entendimentos da Internet que não convergiam com a comunidade técnica – algo que aumentou a tensão na gI. Hoje o setor privado domina inclusive espaços considerados mais técnicos da Internet, como o IETF. Tal domínio se justifica porque é um setor que possui recursos o suficiente para enviar pessoas para todas as reuniões, dedicar tempo necessário para efetivamente participar do que se constrói nesses espaços. Por outro lado, a sociedade civil apresenta dificuldades para organizar e realizar o mesmo movimento. Isso faz com que a linha entre comunidade técnica e setor privado seja paulatinamente dissolvida na realização de atividades que antes se vinculavam basicamente a essa comunidade. Como a UIT é uma agência da ONU que lida com a telecomunicação, ela segue o movimento de convergência para a Internet tentando atuar na mesma, mas perde parte de sua força de influência, de modo que seu potencial regulatório se tornou ainda mais debilitado. Embora não seja um ator de peso na governança da Internet, ela continua atuando e tentando ampliar ainda mais seu raio de ação, publicando resoluções, comparecendo em fóruns e permanecendo com as atividades do seu setor responsável por padronização, o ITU-T. Vale salientar que a UIT participou inclusive da CMSI, embora não tenha saído dali como um ator central na gI. A ONU também atua na gI, inclusive estendendo os Direitos Humanos para o mundo online, de forma que sua Declaração Universal dos Direitos Humanos abrange a Internet. Existe ainda outras instâncias internacionais não mencionadas que querem influir na gI, como a ACTA (Acordo Comercial Anticontrafação) e a OCDE (Organização para a Cooperação e Desenvolvimento Econômico).

163 [“[w]hile tentacles of government control are increasingly visible, private sector bodies have usually been permitted – and, indeed, often encouraged – to play the lead role in design and management of the Internet (...) To a large extent, then, governance has been exercised by cooperative networks rather than decree”].

175

A sociedade civil é um setor praticamente impossível de se criar uma concepção genérica, pois seu interesse varia significativamente, podendo se dividir num mesmo debate em posições divergentes. Como assevera Kurbalija [2014], a sociedade civil, embora em número significativo, possui possibilidades limitadas de influência. Todavia, enquanto alguns atores se envolvem com as discussões formais de gI, outros elaboram inclusive textos alternativos, como a Declaração da Sociedade Civil, em oposição à declaração da CMSI (Kurbalija, [2014]). E embora tenha capacidade restrita de ação, a sociedade civil organizada foi fundamental para a aprovação do Marco Civil da Internet, documento que tende a equilibrar a relação entre usuários, setor privado e governo. Para além disso, a sociedade civil está presente nos mais diversos eventos e GTs sobre governança da Internet, os quais variam desde o desenvolvimento da infraestrutura da Internet até a luta por liberdade de expressão na rede mundial de computadores, assumindo um posicionamento de defesa do interesse público. Mas, como dito, há uma série de contradições em suas práticas, visto que mesmo o interesse público pode se diferenciar dependendo do contexto que é levado em consideração. Como coloca Kurbalija ([2014]: 215):

[r]ecentemente, houve uma divisão entre organizações da sociedade civil em matéria de proteção do interesse público global. Alguns membros da sociedade civil, mais especificamente dos países em desenvolvimento, entendem que uma atuação governamental mais forte é a maneira de contrabalançar o enorme poder da indústria da Internet. A sociedade civil dos países desenvolvidos, por outro lado, muitas vezes se alia à indústria da Internet e à comunidade técnica, principalmente com relação à questão da livre circulação de dados.

E nessa mesma atmosfera ainda há o posicionamento dos Estados, os quais em sua grande maioria precisaram adentrar num espaço que já existia e era dominado por instituições como ISOC, IETF e ICANN. É curioso esse tipo de movimento que os Estados precisam fazer, pois o aparelho de Estado geralmente é visto como o “dentro”, uma interioridade que geralmente tomamos como modelo ou segundo o qual nos habituamos a pensar (Deleuze e Guattari, [1980b]), e a governança da Internet relativiza isso de maneira contundente. Contudo, o Estado não deixa de ter sua relevância.

O Estado não é o ponto de partida necessário, o foco absoluto que estaria na origem de todo tipo de poder social e do qual também se deveria partir para explicar a constituição dos saberes nas sociedades capitalistas. Foi muitas vezes fora dele que se instituíram as relações de poder, essenciais para situar a genealogia dos saberes modernos, que, com tecnologias próprias e relativamente autônomas, foram investidas, anexadas, utilizadas, transformadas por formas mais gerais de dominação concentradas no aparelho de Estado (Machado, [1979]: XIV).

176

Entretanto, não se pode negar que há, por parte do Estado, a tentativa de estatizar as relações de poder (Silveiras, [2014]). Se a partir de uma perspectiva hobbesiana a liberdade do súdito está onde o poder do soberano não pode chegar (Hobbes, [1651]), o movimento do Estado tende a explorar esse limite. Conforme Foucault:

É certo que o Estado nas sociedades contemporâneas não é simplesmente uma das formas ou um dos lugares – ainda que seja o mais importante – de exercício do poder, mas que, de certo modo, todos os outros tipos de relação de poder a ele se referem. Porém, não porque cada um dele derive. Mas, antes, porque se produziu uma estatização contínua das relações de poder (apesar de não ter tomado a mesma forma na ordem pedagógica, judiciária, econômica, familiar). Ao nos referirmos ao sentido restrito da palavra “governo”, poderíamos dizer que as relações de poder foram progressivamente governamentalizadas, ou seja, elaboradas, racionalizadas e centralizadas na forma ou sob a caução das instituições do Estado (Foucault, [1982]: 247).

Abaixo chamo a atenção para o posicionamento de alguns países apenas para ajudar a constituir esse quadro de atores que integram a gI. A Índia é um país interessante por mostrar a complexidade de alcançar – ainda que de modo aproximado – uma visão geral sobre o posicionamento de dado país. Pois enquanto sua diplomacia tende a uma abordagem intergovernamental na gI, seu setor empresarial se aproxima de uma posição não governamental (Kurbalija, [2014]). Além disso, ela demorou muito para reconhecer a legitimidade da ICANN – algo que aconteceu há poucos anos. Por outro lado, o Brasil tem se mostrado adepto ao multissetorialismo, algo defendido por parte do governo. Pois na realidade existe uma série de embates dentro do governo brasileiro quanto a adoção do multissetorialismo. De todo modo, o Brasil ocupa uma posição de relevância em âmbito internacional no que diz respeito ao modelo multissetorial, sendo o Comitê Gestor da Internet no Brasil (CGI.br) um exemplo de instituição multissetorial para a gI. Entretanto, ainda que na teoria o CGI.br tenha legitimidade para orientar as diretrizes de entidades como a Anatel (Brasil, [2016]), na prática as coisas não acontecem desse modo, de maneira que ainda há um longo caminho para o Estado brasileiro assimilar a ideia do multissetorialismo. A China consegue estabelecer em seu país alto grau de soberania digital, restringindo ou mesmo proibindo empresas estrangeiras de participarem do mercado chinês (como Google, Facebook, WhatsApp e Twitter). Ademais, há a proibição do governo chinês

177

ao acesso de seus cidadãos a sites, entre eles websites do The New York Times, Google e Instagram164. Essas medidas de restrição de acesso a determinados sites fazem parte do Projeto Escudo Dourado, também chamado de Grande Firewall da China, iniciado em 1998 e que entrou em operação a partir de 2003. Basicamente, trata-se de um projeto de vigilância realizado pelo Ministério da Segurança Pública chinês. Ao mesmo tempo em que há restrições a China desenvolve empresas e aplicações concorrentes, entregando serviços parecidos, como o Baidu (buscador), Renren (similar ao Facebook), WeChat (similar ao WhatsApp) e o Sina Weibo (similar ao Twitter). Para além disso, o fato de haver restrições de acesso inibe, mas não impede que os serviços acima referidos sejam acessados do território chinês através de proxy (servidor que serve de intermediário) instalado fora do país, a partir de projetos como o aplicativo Colorfull Ballons. Por meio dele os chineses podem acessar, por exemplo, o Facebook (Mozur, [2017]). Numerosos são os meios de escapar do Grande Firewall da China. Outro ponto relevante que a China traz à baila na discussão sobre gI a partir de suas práticas diz respeito a questionar quais são os termos utilizados na gI e seus respectivos significados. Quando se diz que a China não é um país livre por regular o acesso de seus usuários à Internet, o que se toma como referência de liberdade, os Estados Unidos, uma concepção Ocidental? Como se dá o estabelecimento do significado de liberdade na gI? Nesse sentido, deve-se ter em mente que o estabelecimento do significado das palavras acontece por um processo de disputas que tende a beneficiar aquele que tem maiores condições de atribuir significado às palavras. Isso fica evidente ao observar os bastidores da definição de governança da Internet realizado pelo GTGI165. Com um posicionamento discreto na política internacional, inicialmente a China adotou um posicionamento de gestão da Internet a partir do modelo intergovernamental e multilateral. Todavia, nos últimos anos ela tem feito concessões ao modelo multissetorial, considerando atores não-governamentais na gI. E a China tem participado de eventos sobre a governança da Internet166.

164 Caso tenha interesse em consultar algum site que o governo chinês restringe o acesso em seu território, basta conectar-se ao seguinte site: . Neste website, um sistema de servidores dentro da China consulta se os mesmos poderão ou não acessar determinado site, como se a pessoa que consulta o website estivesse dentro da China. Para saber mais sobre o site, consultar: . Links acessados em 31 out. 2017. 165 Sobre a relevância da construção de significados para palavras-chave, cf. Fernandes [1981]. 166 No que se refere à participação da China em eventos de gI, tive a oportunidade de presenciar uma situação curiosa no encontro ICANN57, realizado entre os dias 3 e 9 de novembro de 2016, na cidade de Hyderabad, Índia. Em uma das mesas coordenadas pelo professor Milton Mueller, ele comentou que seria interessante maior participação de chineses nos eventos multissetoriais, mesmo que a China tivesse certas restrições ao modelo. Após a fala do professor, uma professora chinesa pediu a palavra. Ela comentou que conhecia os textos do

178

O caráter autoritário do governo chinês é um ponto comum em colocações acerca da gI, uma espécie de oposição ao modelo multissetorial e da dita “liberdade” defendida, por exemplo, pelos Estados Unidos. Entretanto, não se pode esquecer que embora o discurso do governo norte-americano seja o da liberdade e do multissetorialismo, foi esse mesmo governo que desenvolveu o programa de vigilância PRISM. Ele serve inclusive para evidenciar a relação entre empresas norte-americanas e o governo dos Estados Unidos e as vantagens que esse governo teria ao ter em seu país empresas de relevância como Facebook, Google, Microsoft e Yahoo!. Em uma publicação no The Guardian, Evgeny Morozov ([2015]: online) relativiza essa relação binária de “bem” e “mal” para adjetivar EUA e China nos lembrando que a vigilância dos Estados Unidos está para além de seu território:

[e]m suma, o governo dos EUA insiste que deveria ter acesso aos dados, independentemente de onde estejam armazenados, desde que sejam controlados por empresas dos EUA. Apenas imagine o clamor que haveria caso o governo chinês exigisse o acesso de qualquer dado que passasse por dispositivos manufaturados por empresas chinesas – Xiaomi, por exemplo, ou Lenovo – independentemente de seus usuários estarem em Londres, Nova York ou Tóquio. Observe a diferença crucial: a Rússia e a China querem poder acessar dados gerados por seus cidadãos em seus territórios, enquanto os EUA querem ter acesso aos dados gerados por qualquer pessoa em qualquer lugar, desde que as empresas estadunidenses lidem com isso167.

Além disso, é preciso lembrar que dado o fato dos EUA ser um país fundamental para a Internet, suas sanções podem afetar diretamente a utilização da mesma em um país168. Sunil

professor Milton Mueller, mencionando alguns deles e inclusive disse que passava os mesmos para seus alunos. A professora mencionou ainda outros professores na sala e afirmou que também passava textos deles aos seus alunos. Em seguida, disse que a delegação dos chineses estava presente, com mais professores e alunos, mas que não se manifestavam com frequência por preferirem primeiro aprender um pouco mais sobre o assunto. Após isso, um professor da China fez uma fala reafirmando as colocações da anterior e na retaguarda vieram alguns estudantes universitários da China para endossar a fala dos dois professores. Esses estudantes participaram comigo da 1ª Escola da Índia sobre Governança da Internet (inSIG), realizada também em Hyderabad entre os dias 31 de outubro e 2 de novembro de 2016, dias antes da 57ª reunião da ICANN. Foi uma situação singular, pois havia chineses ali, naquela sala, mais como ouvintes do que como aqueles que reivindicam espaço de fala ou mesmo centralidade na realização de discursos, ao menos naquele momento. 167 [“[i]n short, the US government insists that it should have access to data regardless of where it is stored as long as it is handled by US companies. Just imagine the outcry if the Chinese government were to demand access to any data that passes through devices manufactured by Chinese companies – Xiaomi, say, or Lenovo – regardless of whether their users are in London or New York or Tokyo. Note the crucial difference: Russia and China want to be able to access data generated by their citizens on their own soil, whereas the US wants to access data generated by anybody anywhere as long as American companies handle it”]. 168 Um acontecimento recente capaz de evidenciar esse poderio norte-americano foi a sanção econômica contra a região da Crimeia no ano de 2014 após a Rússia anexá-la, conforme colocado na notícia Crimeia e Cuba: dois atos sobre o futuro da internet, do Observatório Digital (online). Com a sanção econômica, uma série de empresas norte-americanas pararam de funcionar na Crimeia, entre elas McDonald’s, Apple, Google, Amazon e uma empresa de nomes de domínios, a GoDaddy. O comunicado da empresa dizia que dada a sanção dos Estados Unidos à Crimeia, os contratos dela com clientes da região seriam expirados no dia 31 de janeiro (cf. notícia em , acessada em 4 out. 2017), de modo que os clientes deveriam procurar alternativas ao registro de seus nomes de domínio. Isso afeta o funcionamento e

179

Abraham ([2014]: 42) endossa a crítica acerca dessa perspectiva de polarização de “bem” e “mal” ao lembrar da postura de Hillary Clinton enquanto membro do governo:

‘Liberdade na Internet’ foi uma doutrina do Departamento de Estado sob a liderança de Hillary Clinton. De acordo com a sua retórica – havia estados bons, estados ruins e estados oscilantes. Os EUA, o Reino Unido e alguns países escandinavos eram os defensores da liberdade. A China, a Rússia e a Arábia Saudita eram exemplos de estados autoritários que estavam balcanizando a Internet. E a Índia, o Brasil e a Indonésia eram exemplos de países oscilantes – isto é, poderiam se manifestar de ambas as formas – juntar-se ao lado do bem ou ao lado sombrio169.

“Balcanização” é outra controvérsia que circunda as discussões sobre gI. Embora o termo tenha vários significados170, o emprego aqui se dá como sinônimo de fragmentação da Internet. Assim sendo, no sentido utilizado neste trabalho trata-se de práticas de determinados atores que tenderiam à fragmentação da Internet, estabelecendo fronteiras mais precisas e menos permeáveis na rede mundial de computadores – como no caso de um país conter o contato de sua rede de computadores com o restante dessa rede de redes ou mesmo de uma empresa criar uma intranet que restrinja o acesso de seus usuários à Internet. Na leitura de Fadi Chehadé – então CEO da ICANN –, a partir de sua fala na 1ª Escola de Governança da Internet, realizada pelo CGI.br em 2014, o que permite a Internet ser o que é são nomes de domínio, IP e diversos protocolos em comum – isso representaria o gargalo de uma ampulheta. No momento em que não tivermos essa gestão centralizada em uma instituição – ICANN –, a Internet enquanto algo do mundo seria coisa do passado, seria algo extremamente fragmentado. Em entrevista concedida por Harmut Glaser [2015] – atualmente secretário executivo do CGI.br–, os países possuem condições de fragmentar a Internet, algo que quase aconteceu com a China pelo fato de discordar da centralização das funções administradas pela ICANN, então vinculada ao Departamento de Comércio do governo norte- americano (DoC), e sua potência de desligar a Internet do país. Isto se vincula ao domínio de parte dos recursos críticos da Internet por uma única instituição que possuía relação direta com o governo dos EUA. A ideia da China seria, na época, a de criar uma Internet própria, o que certamente fragmentaria a rede. acesso às partes da rede mundial de computadores. Portanto, embora a Internet não seja efetivamente dos EUA, é sempre importante considerar que este país possui condições de influir no funcionamento da Internet em territórios distantes, inclusive por meio de uma sanção econômica. 169 [“‘Internet freedom’ was State Department doctrine under the leadership of Hillary Clinton. As per her rhetoric – there were good states, bad states and swing states. The US, UK and some Scandinavian countries were the defenders of freedom. China, Russia and Saudi Arabia were examples of authoritarian states that were balkanizing the Internet. And India, Brazil and Indonesia were examples of swing states – in other words, they could go either way – join the good side or the dark side”]. 170 Cf. Júnior [2015].

180

Ora, sabemos a partir dos capítulos anteriores que para existir uma única rede mundial de computadores deve haver uma linguagem em comum entre os dispositivos envolvidos, de modo que a Internet só é global considerando fatores locais, regionais e nacionais. Nesse sentido, os contextos nacionais devem ser levados em consideração bem com a ciência dessa possibilidade de fragmentação da Internet por países, regiões, etc. Mas se por um lado esse tema evidencia a potência dos países para criar uma rede capaz tanto de se separar como de ter acesso restrito à rede mundial de computadores171, a fragmentação da Internet também pode acontecer na discriminação da rede por meio da quebra de neutralidade, onde agentes envolvidos com a infraestrutura da Internet conduzam os usuários para determinadas redes de computadores, diminuindo a amplitude de informação a ser acessada pelos clientes. Essa visão sintética e tipificada dos atores que atuam na gI mostra que o leque de influências é amplo, o que torna as disputas acirradas, especialmente ao considerar que a convergência digital aglutinou inúmeros atores com pautas diversas. A gI é inclusive tema da agenda diplomática internacional e Estados passaram a ter uma atuação mais abrangente na governança dessa rede172. Faço uma tipificação dos atores e seus interesses me aproximando dos tipos que Max Weber [1922] constitui para a análise da realidade com a finalidade de dissertar sobre as ações sociais, onde os fatores que influem numa determinada ação social são decompostos a fim de evidenciar apenas uma dessas influências. Nesse sentido, o recurso aqui empregado não tem a intenção de afirmar que determinada categoria de atores age movida única e exclusivamente a partir de um dado objetivo – mesmo porque dependendo do tema abordado alguns atores podem inclusive não possuir interesse em participar173. Pelo contrário, em estudo anterior tive a possibilidade de observar em detalhes como opera a

171 Um exemplo recente disso é a informação de que o governo russo planeja “desligar” o país da rede mundial de computadores durante algum tempo para realizar testes de segurança. Conforme colocado em reportagem da BBC ([2019]: online), “[o] projeto de lei, chamado Programa Nacional da Economia Digital, requer que os provedores russos adquiram capacidade para operar no caso de potências estrangeiras tomarem medidas para isolar o país do mundo online (...) As medidas descritas na lei incluem uma versão própria da Rússia do sistema de endereços da rede, conhecido como DNS, para que possa operar caso as conexões com servidores internacionais sejam cortadas”. É certo que com isso o governo poderá fazer testes de vigilância em massa também e não apenas se preocupar com a segurança de seus cidadãos frente a vigilâncias que podem acontecer por outros países. 172 Kurbalija ([2014]: 203-4) faz um comentário arguto sobre isso observando que com o tempo os Estados passaram a mobilizar mais do que ministérios de telecomunicação para lidar com a gI: “[g]radualmente, à medida que eles [governos] perceberam que a governança da Internet consistia em mais do que ‘fios e cabos’, os governos começaram a incluir funcionários de outros ministérios, como os funcionários das áreas de relações exteriores, cultura, meios de comunicação e justiça”. 173 Por exemplo, na área de padrões tecnológicos é comum vermos fabricantes de equipamentos, operadores de rede e acadêmicos participando dos debates. Na distribuição de endereços, são ISPs e outros usuários de endereços IPs que se mobilizam. Já se o assunto é gestão de domínios, governos, comunidades e registradores de domínios têm interesse na discussão (NIC.br, [2014a]).

181

maquinaria do Estado brasileiro para realizar determinada ação envolvida por uma série de influências que muitas vezes eram contraditórias (Silveiras, [2014]). Por outro lado, essa tipificação serve como referência para uma visão geral do que compõe esse quadro multifacetado da gI e para análises aprofundadas sobre um ator específico, o qual reage aos acontecimentos que afetam sua área de atuação. No que se refere a acontecimentos que marcaram a gI nos últimos anos, encaro as denúncias de Snowden como as de maior magnitude, uma espécie de gatilho que desencadeou uma série de práticas no trato e concepções acerca da Internet174. Esse tipo de prática vigilantista deixou claro que os países exploram as vulnerabilidades da Internet para atingir fins próprios – o que também é evidente na obra Cypherpunks, de Assange (et al. [2012]), publicada antes mesmo das denúncias de Snowden –, acessando dispositivos técnicos e empresas capazes de contribuir com seus objetivos. A ação vigilantista realizada pelo governo dos Estados Unidos por sistemas de espionagem foram reveladas pelo analista de sistemas Edward Snowden através dos jornais The Guardian e The Washington Post, e disponibilizados também no site da The Courage Foundation (organização internacional sediada no Reino Unido cujo objetivo é apoiar aqueles que se arriscam com contribuições relevantes para o registro histórico), onde inclusive é possível pesquisar os documentos disponibilizados por Snowden175. Entre eles, têm arquivos sobre vigilância de agentes do governo brasileiro – incluindo a então presidente Dilma Rousseff – e o acesso da inteligência norte-americana aos servidores de empresas como Apple, Google, Skype e Facebook. As revelações de Snowden afetaram a confiança pública na Internet. Como colocado em capítulo anterior, as divulgações de Edward Snowden informando que o governo brasileiro era alvo de espionagem da NSA alavancou o lançamento do primeiro satélite geoestacionário controlado pelo Estado brasileiro, capaz de fornecer uma comunicação segura para as forças armadas e auxiliar na implementação do Plano Nacional de Banda Larga. Essas mesmas revelações estimularam ainda a aprovação do Marco Civil da Internet e a realização do NETmundial – sobre o qual escrevo afrente. E não foi apenas o Brasil que reagiu a isso. Países da União Europeia e dos BRICS começaram a utilizar táticas para evitar a vigilância norte-americana, inclusive exigindo que as empresas americanas armazenassem os dados de seus cidadãos no território de determinado país. A Rússia e a China realizaram um

174 Para aprofundamento sobre o caso Snowden, cf. o livro Sem lugar para se esconder, do jornalista Glenn Greenwald [2014]. Glenn Greenwald foi a pessoa com quem Snowden manteve contato e fez suas revelações. Além disso, cf. o documentário Citizenfour, dirigido por Laura Poitras [2014]. 175 Cf. . Acesso em 4 out. 2017.

182

movimento de produzir acessórios que estão presentes nas redes de computadores de seus países, defendendo um comércio bilateral em telecomunicações e alta tecnologia – o que afeta o mercado norte-americano (RT, [2014]). Diante disso, abordagens bilaterais para administrar componentes vulneráveis da infraestrutura da Internet poderiam deixar os Estados Unidos e suas empresas de fora ao menos nos níveis nacional e regional da arquitetura da Internet. Além das manifestações de países, houve posicionamentos da sociedade civil e de algumas organizações. A EFF juntamente com outros atores (incluindo Cisco, fundação , Akamai e Mozilla) fez a campanha Let’s encrypt176, visto que a criptografia dificulta o vigilantismo. E a comunidade do IETF também mobilizou seus pares a utilizarem criptografia. Por outro lado, o Brasil teve resultados positivos com o caso Snowden em âmbito internacional. Como coloca Glaser [2015], o Brasil ganhou protagonismo num espaço que adquire relevância no contemporâneo: a formulação de um sistema de governança internacional da Internet. Após as revelações de Snowden, a então presidente Dilma utilizou a cerimônia de abertura da Assembleia da ONU de 2013 para criticar o acontecido e convidar a comunidade internacional a reestruturar a governança da Internet. Esse discurso, realizado no dia 24 de setembro de 2013, apresenta uma série de pontos que dialogam com as ideias do CGI.br – as quais serão apresentadas no próximo capítulo. Vale salientar que antes do discurso de Dilma, no dia 16 de setembro, ela teve uma reunião com o Conselho do CGI.br. O Brasil formulou e implementou uma abordagem particular sobre a governança da Internet graças a uma associação entre comunidade acadêmica e organismos da sociedade civil durante a década de 1990 (Afonso, [2016]). E um dos eventos que auxiliou nisso e no desenvolvimento da Internet no país foi, como dito, a ECO-92. Pois a escolha da Internet como conexão utilizada para participação remota no evento, os atores envolvidos nesse processo bem como o estímulo ao modelo multissetorial proposto pelo próprio evento desembocaram num processo que levou à edificação do CGI.br em 1995 a partir da Portaria Interministerial n° 147 (Motta, [1995]), publicada no final de maio. No dia 3 de julho é tornada pública outra Portaria Interministerial que nomeou os primeiros representantes do CGI.br (Motta e Vargas, [1995]). Na mesma data em que o CGI foi criado, houve a publicação da Norma 4 – assinada pelo então ministro das Telecomunicações, Sérgio Motta – , estabelecendo a separação regulatória entre telecomunicações e os serviços de valor agregado que se utilizam das redes de telecomunicações, como a Internet. A Norma 4 precede

176 Cf. . Acesso em 4 out. 2017.

183

em dois anos a agência nacional de regulação do setor de telecomunicações no Brasil (Anatel). Nesse sentido, a Norma estabelece uma distinção que restringiu a Telebrás de fazer o mesmo processo de privatização com a Internet. Ademais, Knight [2014] afirma que a Norma 4 estimulou o surgimento de milhares de pequenos e médios provedores que atendiam regiões nas quais as grandes empresas de telecomunicações não tinham interesse, pois impediu o monopólio do acesso à Internet pela Embratel. O CGI.br foi o resultado de um movimento organizado pela academia e alguns setores do governo cientes do crescimento da Internet e da possibilidade de seu monopólio por administradores de telecomunicações. Como essa resistência ao monopólio surgia mesmo dentro do governo – onde a Embratel era um braço desse processo de monopolização –, foi criado um comitê multissetorial amparando essa ideia antimonopolista incluindo o Estado (NIC.br, [2014b]). A junção das redes de computadores desenvolvidas na época, em destaque a Rede Nacional de Pesquisa (RNP), foi o que estabeleceu o alargamento da rede mundial de computadores no Brasil. Sabemos que o objeto de investigação desse trabalho é amplo e multifacetado. Portanto, são muitos estímulos e muitas respostas, diversos acontecimentos e variadas reações a eles, muitos inputs e outputs dessa caixa-preta maquínica e tecnopolítica que produz e é produzida conjuntamente com o humano em cortes e fluxos que não cessam. Ciente disso, existem vários outros acontecimentos que influem na governança da Internet, de modo que nessas circunstâncias sempre haverá limites na descrição de um contexto e mesmo dos atores que agem num espectro abordado que tem abrangência internacional. Considerando isso, prossigo dissertando sobre a governança da Internet, detalhando alguns de seus atores centrais. Começo pela ICANN. A abordagem acerca dessa organização se dá com maior fôlego dada sua relevância no debate sobre gI. Após isso, escrevo um pouco mais sobre o Comitê Gestor da Internet no Brasil, dada sua presença medular na gI no país, e a respeito das organizações relacionadas aos padrões da Internet: IETF; ISOC; IAB; W3C; IEEE; e ITU-T. Elenco assim atores basilares na gI. Embora haja outros corpos que lidam com a governança da Internet – como a OMPI (Organização Mundial da Propriedade Intelectual), a OMC (Organização Mundial do Comércio) e a UNESCO –, concentro meus esforços nos atores acima mencionados justamente pela posição que ocupam, o que me permite cumprir com o objetivo de expor elementos relevantes desse complexo de relações.

184

Capítulo 5 – Governança da Internet – II

Em certa ocasião em que o padre Nicanor levou até a castanheira um tabuleiro e uma caixa de pedras para convidá-lo a jogar damas, José Arcádio Buendía não aceitou, segundo disse, porque jamais conseguiu entender o sentido de contenda entre dois adversários que estavam de acordo nos princípios. O padre Nicanor, que jamais havia encarado dessa maneira o jogo de damas, nunca mais conseguiu jogar. Gabriel García Márquez ([1967]: 125)

5.1 – ICANN A Corporação da Internet para Atribuição de Nomes e Números, ou simplesmente ICANN (Internet Corporation for Assigned Names and Numbers), é uma das principais instituições da gI, sendo considerada a entidade dessa área – algo que não corremos o risco de fazer ao vislumbrarmos diversas organizações que compõem a arquitetura da rede e que contribuem com a sua gestão. Isso se justifica porque essa entidade sem fins lucrativos realiza funções críticas para o funcionamento da rede, sendo responsável, entre outros, por coordenar identificadores únicos da Internet a nível global. Para explicar de modo genérico a função da ICANN na arquitetura da rede (ou melhor, de parte dela), recorro ao sistema postal mais uma vez. Dessa vez, me ancoro na analogia de Paul-Twomy, ex-Diretor-Presidente da ICANN (Kurbalija, [2014]). Nome de domínio e endereço IP garantem que os endereços colocados no envelope irão funcionar. Isso não tem a ver com o conteúdo do envelope, quem o envia, quem irá recebê-lo, quem pode ou não ler o conteúdo, a morosidade da entrega da carta no seu destino e o valor gasto para o envio da correspondência. Portanto, não há por parte dessa instituição o controle do conteúdo da Internet assim como ela não é autoridade direta na cibersegurança, em políticas de conteúdo, proteção da privacidade, redução da exclusão digital ou proteção dos direitos autorais. A ICANN garante que a Internet interopere globalmente mediante identificadores únicos na rede mundial de computadores. É certo que isso não impede a criação de intranets, como visto anteriormente. Essa instituição busca garantir segurança e estabilidade desses sistemas, além de articular um modelo de participação fundeado no multissetorialismo, onde recorre a uma comunidade mundial para o desenvolvimento de suas políticas. A ICANN apoia e financia tal agrupamento de colaboradores. Assim sendo, ela faz uma coordenação técnica cujas políticas de seu funcionamento são estabelecidas por meio de uma comunidade a partir do modelo multissetorial e bottom-up, onde a ICANN trabalharia para equilibrar os mais distintos

185

interesses. Nesse sentido, ela mostra esforço para ser uma organização responsável e transparente, adotando mecanismos de responsabilidade e transparência nos variados níveis de sua estrutura, o que é importante para a legitimidade do seu trabalho. O modelo de representação da ICANN variou com o tempo, pois ela testou diversas abordagens para envolver os usuários nas tomadas de decisão. Uma primeira tentativa foi através de eleições diretas de seus representantes para a diretoria da ICANN. Houve baixa representação bem como uso indevido do processo. Algumas mudanças foram realizadas para corrigir o procedimento decisório. Em 2002, essa organização fez uma reforma que incluiu maior força ao Comitê Consultivo Governamental (GAC), o qual é composto por representantes de governos (Kurbalija, [2014]). Como base de apoio ao desenvolvimento desse modelo que aciona a comunidade para seu funcionamento, há uma série de funcionários que oferecem suporte e recursos para esse corpo social mundial. Mueller [2010] defende que essa organização foi proeminente para mostrar como a Internet estava transformando a relação entre pessoas e seus governos. Ademais, ela estimula o desenvolvimento dessa forma de governo pautado em múltiplas partes interessadas. A comunidade da ICANN é formada por representantes do segmento comercial, não comercial, governamental e pessoas comuns. Apenas à guisa de exemplo quanto à complexidade no alcance do equilíbrio de interesses nesse modelo, no setor governamental a ICANN possui (2019) 178 entidades membros do Comitê Consultivo Governamental e 37 observadores. Embora se paute na dimensão técnica da Internet, coordenando componentes críticos da arquitetura dessa rede de redes, hoje ela reconhece que sua atividade não é exclusivamente técnica, mesmo porque sabemos da parcialidade de uma escolha técnica. Em 1998 a ICANN é instituída. Ela foi concebida no momento em que a Internet começava a crescer vertiginosamente de proporções para operar o que se chama função IANA (Autoridade para Atribuição de Números da Internet), a qual é dividida em três grandes planos: 1) gerenciamento dos parâmetros de protocolos, área vinculada à manutenção de vários códigos e números utilizados em protocolos de Internet, sendo essa atividade realizada em conjunto com o IETF; 2) gestão de recursos de números da Internet, envolvendo coordenação global dos sistemas de endereçamento IP, e alocação de blocos IP e de números de sistemas autônomos para os registros regionais (RIRs); e 3) a gestão da zona raiz, mantendo o banco de dados dessa zona – o qual contém o registro de todos os TLDs –, atribuindo domínios de primeiro nível, incluindo e modificando esse banco de dados, e realizando a manutenção de seus elementos técnico-administrativos – atividades essenciais para o funcionamento do DNS. Está incluída nessa atividade processar atualizações de rotina

186

para operadores TLD e adicionar novos TLDs à raiz do Sistema de Nomes de Domínios. É na zona raiz que está o registro oficial de todos os domínios de primeiro nível, a qual é mantida pelos 13 servidores raiz apresentados anteriormente que operam em países do hemisfério norte. Além disso, a ICANN cuida dos domínios .int – utilizado por organizações estabelecidas por tratados internacionais ou bancos de dados internacionais (Postel, [1994]), como a ONU () ou a Organização Internacional da Saúde Animal () – e .arpa – utilizado exclusivamente para fins da infraestrutura da Internet de importância operacional (Huston, [2001]) e gerido com auxílio do IAB (Conselho de Arquitetura da Internet). Nota-se, a partir disso, a importância dessa instituição e justifica-se a atenção que ela recebe. As funções IANA eram exercidas pela ICANN até 2015 sob contrato com o Departamento de Comércio dos Estados Unidos (DoC), mais especificamente uma de suas agências, a NTIA (Administração Nacional de Telecomunicações e Informação). Dada a função que a ICANN realiza, ela chamou a atenção do setor de políticas globais durante a CMSI, passando a ser objeto de disputa e mesmo a receber críticas pelo fato de uma função tão importante estar vinculada ao governo dos Estados Unidos. Diante da relevância dessas funções, dedico alguns parágrafos para detalhá-las. Mas antes disso, escrevo sobre a realização da função IANA antes de ela ser incorporada pela ICANN. Enquanto a administração de identificadores do sistema de telefonia era altamente regulamentada com a participação dos Estados (tendo a UIT como referência internacional elementar), os identificadores da Internet eram administrados desde os primórdios dos anos 1970 sem a intervenção estatal direta. Isso acontecia com Jon Postel enquanto pós-graduando na UCLA (Universidade da Califórnia em Los Angeles). Como a Internet continuou crescendo, em 1988 o governo estadunidense estimulou Postel a institucionalizar as funções que ele estava realizando na administração de recursos críticos da Internet. Assim, a atividade realizada por ele passou a ser executada pelo ISI/USC (Information Science Institute/University of Southern California) através de contrato com o DoC. Nesse caso, foi estabelecido um acordo entre ISI/USC e a DARPA (Defense Advance Research Project Agency), sendo esta do DoC. Jon Postel era o dirigente do instituto, de maneira que a administração dos identificadores bem como de um dos servidores-raiz ficava sob sua responsabilidade. Somente no ano de 1990 que a expressão “IANA” foi utilizada num RFC177, o RFC 1060 (Reynolds e Postel, [1990]).

177 Relembrando em poucas palavras, os RFCs (Request for Comments) são documentos técnicos para a Internet desenvolvidos e mantidos pelo IETF (disserto sobre os RFCs ainda neste capítulo).

187

A relação entre ISI e DoC durou até o ano de 1998, quando a ICANN foi estabelecida. No que diz respeito ao financiamento dessa atividade, Kleinwätcher ([2007]: 47) afirma que: "[q]uando o Departamento de Defesa dos EUA parou o financiamento via ARPANET em 1990, o governo dos EUA continuou a fornecer apoio financeiro por meio da Fundação Nacional da Ciência (FNC) e transferiu a responsabilidade legal para a National Telecommunication and Information Administration (NTIA) do Departamento de Comércio dos EUA (DoC)”178. A transição da função IANA para a ICANN sucedeu a partir de uma sequência de conflitos entre o governo estadunidense e Postel. Um dos exemplos disso é que Postel tinha uma iniciativa de aumentar a quantidade de gTLDs. Esse tipo de movimentação não era vantajoso para empresas que administrassem domínios de topo, pois isso faria com que aumentasse a concorrência de domínios genéricos. Assim, o modelo de negócios de empresas como a Network Solutions Inc. (NSI) poderia ser prejudicado. Em 1992, a NSI – comprada pela VeriSign em 2000179 – conseguiu um contrato com o DoC para ser a única a comercializar os domínios genéricos .com, .net e .org, além de operar o servidor-raiz A. Essa empresa se opôs ao projeto de Postel de abrir outros 150 gTLDs, realizando lobby tanto no Congresso dos Estados Unidos quanto no DoC. O Departamento de Comércio dos Estados Unidos fez a intervenção nos planos de Postel que, além de criar os novos gTLDs, passaria a administração do DNS para a ISOC (Kleinwätcher, [2007]). Postel fez outra tentativa, levando adiante um projeto de relação público-privado para a governança da Internet ainda durante a década de 1990, onde se encontrava a UIT entre as instituições participantes dessa investida. Mais uma vez o governo norte-americano se opôs a seu projeto. Postel tentava constituir uma gestão da função IANA a partir de uma instituição internacional, ao passo que o governo estadunidense não queria que isso acontecesse. No ano de 1998 Postel fez um “experimento” questionando a autoridade final sobre os servidores-raiz. A partir de um “teste”, Postel solicitou aos operadores dos servidores-raiz que tratassem o servidor-raiz B – o qual estava sob sua responsabilidade – como servidor autoritativo do DNS. Dos 13 servidores, apenas os que estavam sob operação do governo norte-americano e o da NSI não obedeceram ao pedido de Postel. Isso fez com que a Internet se dividisse a partir da raiz em dois blocos. Esse caso estimulou a objetivação

178 [“[w]hen the US Department of Defense stopped funding via ARPANET in 1990, the US Government continued to provide financial support through the National Science Foundation (NSF) and shifted legal responsibility to the National Telecommunication and Information Administration (NTIA) of the US Department of Commerce (DoC)”]. 179 Cf. notícia do trâmite disponível em: . Acesso em 9 out. 2017.

188

da ICANN, a qual se estabeleceu sob a tutela dos Estados Unidos – embora a base da proposta institucional da ICANN tenha se constituído com o apoio de Postel. Como coloca Magaziner [2015] – o qual na época de criação da ICANN era conselheiro do então presidente Clinton e considerado um dos principais articuladores no governo para a constituição da ICANN –, a UIT também tinha interesse na gestão dos recursos críticos da Internet, de modo que não havia apenas um conflito entre Postel e governo dos Estados Unidos. O fato é que o exemplo de Postel marca uma tendência da Internet no passar dos anos: deixa de ter nomes de personalidades individuais gestando a rede para se tornar uma rede organizada por instituições. E é certo que esse processo de transição gera tensões internas ao movimento, algo que Bourdieu [1994] consegue deslindar com facilidade a partir da sua teoria dos campos, especificamente tendo em vista a relação entre ortodoxia e heterodoxia. Segundo ele, dentro de um campo destacam-se atores que assumem posição de liderança e que têm maiores condições de realizar transformações no mesmo. Contudo, tendem a não realizar grandes modificações no campo, pois a estruturação do mesmo no modo como se encontra tende a privilegiar aqueles que já estão na posição dominante do campo, de modo que são considerados ortodoxos. Do outro lado, estão aqueles que se encontram numa região mais periférica do campo, aqueles que contestam as regras estabelecidas e a distribuição de posições, lutando assim pela transformação do campo. Todavia, com o tempo essa heterodoxia vai incorporando as regras do jogo e, no momento em que assume posição privilegiada para objetivar essas grandes transformações, tende a assumir um caráter mais conservador, realizando apenas alterações modestas que a privilegie. Assim, a epígrafe deste capítulo pode ser associada com uma situação como essa, na qual por mais que ortodoxia e heterodoxia se oponham, permanecem jogando um mesmo jogo e respeitando seus princípios para continuarem nele. Com isso, defendo que por mais que haja essas mudanças de personalidades para instituições na gestão da Internet, algumas regras do jogo podem mudar, mas o jogo em si continua existindo. Segundo Magaziner, a preocupação de deixar a função IANA num corpo intergovernamental como a ONU era que tal estrutura representaria as vontades dos governos, mas não a do setor comercial ou mesmo de outros atores. E geralmente a ONU se movia vagarosamente se comparado à velocidade que a Internet requeria. Nesse sentido, Magaziner pensava em uma organização não-governamental composta pelas múltiplas partes interessadas reconhecidas pelos governos, mas não governada por eles. É certo que a visão de Magaziner é

189

mais uma dentre as inúmeras sobre o processo de constituição da ICANN180, um ponto de vista que não problematiza uma série de questões – como o fato dessa organização não- governamental funcionar a partir de um contrato com o DoC e também sob a jurisdição norte- americana. De todo modo, havia uma questão intrincada quanto a gestão da função IANA cuja resposta do governo norte-americano foi a constituição de uma organização não- governamental sediada nos Estados Unidos e, por isso, respeitando suas leis. Em 1997, o então presidente Clinton autorizou a transição da função IANA para o setor privado e em 1998 o Departamento de Comércio dos Estados Unidos reconheceu formalmente a ICANN como a nova organização responsável por administrar a função IANA. Em 2000 a NTIA fez um contrato com a ICANN delimitando suas responsabilidades acerca da função IANA. Assim, caberia à ICANN estabelecer a política de alocação dos números IP aos RIRs; fiscalizar a operação da zona raiz; supervisionar a política para a adição de TLDs na zona raiz; e coordenar os parâmetros técnicos da Internet para que a mesma continuasse operando (DeNardis, [2014]). E todas essas atividades se dariam pautadas na participação internacional. Após estabelecer a ICANN para operar a função IANA, essa função demorou cerca de 18 anos para se emancipar do governo dos Estados Unidos. Portanto, embora a ICANN tenha sido criada justamente para essa emancipação (ICANN, [2015c], esse processo demorou para acontecer. Foi no dia 14 de março de 2014 que a NTIA anunciou o desejo de dar continuidade a tornar a função IANA não-governamental ainda que com forte interesse público, onde a ICANN deveria formar um grupo global de partes interessadas para estabelecer uma proposta de transição dessa função181. Note que embora a ICANN tenha a aparência de ser um dispositivo fechado em si com uma regulamentação específica e lugar próprio, além de se constituir por meio de um sistema complexo com múltiplos aparelhos e instituições, seu processo de institucionalização acontece ancorado nas orientações do governo norte-americano, ganhando independência do mesmo somente em 2016. Após essa breve apresentação de acontecimentos que desencadearam na ICANN, retorno às especificações de suas três principais funções: parâmetros de protocolos; recursos de números; e raiz182. Como os protocolos de Internet são utilizados mundialmente, deve haver um registro público da resposta sobre o valor a ser empregado numa situação específica dos

180 Como exemplo de um ponto de vista contrário, cf. Hindenburgo, [2014]. 181 Anúncio disponível em: . Acesso em 10 out. 2017. 182 Existe uma série de materiais que desenvolvem a história da ICANN. Entre esses trabalhos, destaco SSAC- ICANN [2014], Kleinwätcher [2007], ICANN [2015c], Roberts [2001], Mueller [2010], DeNardis [2014], Knight [2014] e Canabarro [2014].

190

protocolos operados pela Internet. Por exemplo: qual número de porta usar para transmissão da web? A porta 80. As portas 20 e 21 são para transferência de arquivo FTP, etc. A ICANN mantém o repositório das respostas possíveis, os parâmetros de protocolo, usados na maioria dos protocolos de Internet que estão nos RFCs. Isso acontece a partir de acordo com o IETF, onde a comunidade do IETF determina as políticas presentes nos parâmetros de protocolo que a ICANN mantém, sendo que os registros desses parâmetros são publicados em RFCs183. E em cada um desses RFCs está definida a política para o procedimento de registro que a ICANN implementa. No final do processo de criação de RFCs, quando necessário, especialistas da IANA participam da revisão do documento identificando em que parte as atribuições de protocolos devem estar nos registros mantidos pela ICANN. Caso seja necessário, a IANA inclui uma seção no documento chamada “Considerações da IANA” por meio do qual se implementa ações, como a criação de novos registros, criação de registros existentes para adicionar ou modificar parâmetros de protocolo. Cada registro de parâmetros de protocolo tem um arquivo descrevendo seus parâmetros e valores que foram registrados e devem ser mundialmente únicos. Alguns arquivos possuem dois valores, ao passo que outros possuem milhares184. Um exemplo de arquivo mantido pela IANA é o referente ao RFC 6335 (Cotton et al., [2011]), destinado ao número das portas na camada de transporte185. Nesse arquivo estão as portas oficiais, de maneira que outras podem ser criadas paralelamente186 – como é o caso da porta 6999, utilizada pelo BitTorrent para compartilhamento de arquivo. Outro exemplo são os códigos de status HTTP, presentes no RFC 7231 (Fielding e Reschke, [2014])187. Dessa lista de respostas possíveis para o status HTTP, talvez a mais comum seja o código 404, o qual aparece quando uma página requisitada não é encontrada.

183 Cf. MoU (Memorandum of Understanding) sobre a relação entre ICANN e IETF no RFC 2860 (Carpenter, Baker, Roberts, [2000]). 184 Cf. lista com mais de 2800 registros e sub-registros de parâmetros de protocolos mantidos pela ICANN em: . Acesso em 6 out. 2017. 185 Cf. arquivo disponível em: . Acesso em 6 out. 2017. 186 A Wikipédia possui uma lista com as mais diversas portas, classificando-as em oficial, não-oficial (aquelas que não estão na lista da IANA), conflito (quando a porta é utilizada usualmente por dois ou mais serviços) e EPI (porta utilizada como padrão interno). A lista está disponível em: . Acesso em 6 out. 2017. 187 O arquivo está no seguinte link: . Acesso em 6 out. 2017.

191

Fig. 5.1 – Imagens de status HTTP 404

Mesmo os nomes de domínios e os recursos de números da Internet são tipos especializados de parâmetros de protocolos (ICANN, [2015a]). Conforme colocado em documento da ICANN ([2015a]: 07): “[t]odos os protocolos da internet possuem valores ou parâmetros que devem ser mundialmente únicos”. No concernente aos protocolos da Internet, deve-se ter em mente que embora o IETF crie os parâmetros de protocolo da Internet, há também registros criados fora dele. Os recursos de números têm sua política global desenvolvida pelas comunidades dos 5 registros regionais da Internet (RIRs), os quais devem ter consenso em uma proposta de política global enviada à ICANN para ser ratificada e implementada pela mesma. Os RIRs são os seguintes: AfriNIC, APNIC, ARIN, LACNIC e RIPE NCC, representando, respectivamente, África; Ásia e Pacífico; Canadá, Estados Unidos, ilhas caribenhas e ilhas do

192

norte do Atlântico; América Latina e parte do Caribe; e Europa, Oriente Médio e partes da Ásia Central. Os RIRs seguem um modelo parecido com o utilizado pela ICANN para o desenvolvimento de suas políticas, de maneira que há a presença de diversos setores e seus interesses envolvendo o desenvolvimento dessas políticas. A distribuição dos recursos de números alocados para cada RIR segue políticas definidas pela comunidade regional. Os RIRs formam o grupo chamado Organização de suporte a endereços (ASO) e trabalham em conjunto com a Organização de Recursos Numéricos da ICANN (NRO) para monitorar e revisar o desempenho das funções da ICANN no que se refere aos recursos de número da Internet. A ICANN mantém os registros de recurso de número da função IANA, realiza a alocação de endereços IP (tanto a versão 4 quanto a 6) e dos números de sistemas autônomos (ASN). Essa atividade com os recursos de número é implementada seguindo as políticas globais desenvolvidas pelos RIRs. Os RIRs, por sua vez, distribuem os blocos de IPs e ASNs para as suas regiões. Já o Comitê de Endereço da Organização de Apoio a Endereços da ICANN revisa e executa a política global. Sobre os IPs é necessário fazer uma desmistificação. Com o desenvolvimento do IPv6 chegamos, como visto, a um número praticamente infinito de IPs. Assim sendo, cada dispositivo teria condições de se conectar à rede mundial de computadores sem alcançar uma escassez de números nas próximas décadas. Com isso, vem a ideia de que cada dispositivo poderia ser vigiado ininterruptamente na medida em que estivesse conectado à Internet com apenas um único IP relacionado àquele dispositivo, como se fosse um endereço MAC. Todavia, a distribuição dos IPs se dá por regiões, de modo que os IPs variam em conformidade com o espaço no qual o computador se encontra. Portanto, se acesso a Internet pelo meu computador na Índia, certamente terei outro número IP ao me valer do mesmo dispositivo para acessar essa rede mundial de computadores nos Estados Unidos, e outro ao me conectar pelo Brasil. Para a organização, manutenção e modificação da zona raiz, a Organização de Apoio a Nomes com Códigos de Países (CCNSO) trabalha em conjunto com a Organização de Apoio a Nomes Genéricos da ICANN (GNSO) desenvolvendo políticas relacionadas à grande maioria dos domínios de primeiro nível. Além de implementar as políticas desenvolvidas pelo GNSO e ccNSO, a ICANN processa as solicitações de alterações no arquivo da zona raiz bem como na base de dados da zona raiz, e avalia, coordena e reporta as alterações solicitadas. Outra atividade realizada pela ICANN na zona raiz é o gerenciamento da chave de assinatura principal (KSK) da raiz DNSSEC – padrão internacional que estende e oferece maior segurança na tecnologia DNS, garantindo autenticidade e integridade do DNS.

193

Como a Internet foi construída num pilar de confiança mútua entre os atores envolvidos com a gestão da rede, não era necessária uma certificação de autenticidade dos pares envolvidos afirmando que um ator X era realmente quem dizia ser. Com o crescimento da rede, ficou complicado lidar com essa autenticidade e o DNSSEC se tornou uma chave capaz de gerir isso. Outra organização envolvida na gestão da zona raiz é a VeriSign, a qual é responsável por manter e distribuir o arquivo de zona raiz, e gerenciar a chave de assinatura principal da raiz DNSSEC. Assim sendo, quando acontece a alteração na zona raiz, a VeriSign se incumbe de enviar essa informação para os demais servidores-raiz que compõem essa arquitetura de servidores. Mais precisamente, a modificação da zona raiz envolveu até 2016 cinco atores: 1) a entidade que requisita a alteração na raiz (geralmente administrador de TLD); 2) ICANN na condição de operadora da função IANA; 3) NTIA, agência do governo estadunidense administradora da zona raiz; 4) VeriSign, como mantenedora da zona raiz; e 5) operadores dos servidores-raiz.

Fig. 5.2 – Processo de alteração na zona raiz (SSAC-ICANN, [2014])

No documento do SSAC (Comitê Consultivo de Segurança e Estabilidade da ICANN) [2014], a alteração na zona raiz pode ser pensada a partir dos seguintes passos: 1) um administrador de TLD requisita a alteração na raiz através da ICANN; 2) após validar e aceitar o pedido de transição, a ICANN envia para a NTIA o pedido de recomendação para implementação na zona raiz com uma cópia para a VeriSign; 3) A NTIA verifica se a ICANN seguiu os procedimentos para a alteração na raiz e, caso positivo, a NTIA autoriza a VeriSign a alterar o arquivo e autoriza a ICANN a alterar a base de dados da zona raiz; 4) com a

194

aprovação do NTIA, o arquivo é colocado no servidor-raiz A (a.root-servers.net), servidor mestre que é operado pela VeriSign, e em seguida esse arquivo é automaticamente duplicado nos demais servidores-raiz; 5) A VeriSign avisa a ICANN e a NTIA que a alteração foi implementada; por fim, 6) a ICANN informa a entidade que requisitou a alteração sobre a efetivação da mesma. Em parte, esse sistema é automatizado, mas há algumas exceções que demandam a intervenção humana. Como colocado por documento elaborado pelo SSAC-ICANN [2014], o envolvimento do governo dos Estados Unidos na administração da zona raiz era controverso, especialmente no que concerne à autorização para mudanças em domínios de topo de países (ccTLDs). Isso fragilizaria, em certo sentido, a noção de soberania defendida por alguns países, dado que com o tempo o ccTLD passou a ser encarado como recurso nacional, principalmente pelo setor governamental. Mas não se deve entender que os ccTLDs estão diretamente ligados ao governo, de modo que não há soberania legal dos países sobre os ccTLDs. Em cada país os ccTLDs se desenvolveram de forma distinta. No Brasil, por exemplo, Jon Postel entregou o .br ao grupo que operava redes da FAPESP. Após isso, a gestão do .br se deu através do NIC.br. Nos gTLDs, a presença do DoC era vista como possibilidade de interferência em questões comerciais, mesmo que a função do governo dos EUA fosse basicamente a de verificar se a ICANN estava seguindo as políticas e procedimentos em conformidade com o que fosse especificado. Até 2016, a NTIA fornecia a administração geral da função da ICANN no gerenciamento da zona raiz, verificava se a ICANN tinha seguido o processo para solicitar modificações na zona raiz e autorizava a VeriSign a implementar as alterações propostas. Isso possibilitava o governo dos Estados Unidos de, por exemplo, alterar unilateralmente o arquivo DNS. Essa estrutura recebia diversas críticas por conta dessa potencialidade, de modo que parte significativa da comunidade da gI defendia a dissolução dessa relação entre funções IANA e governo estadunidense. Hoje é a comunidade global que se responsabiliza por isso. O processo por meio do qual a função IANA deixou de ser vinculada ao governo dos Estados Unidos – geralmente chamado de transição IANA – se deu entre os anos 2014 e 2016 com participação dessa comunidade global. Havia uma série de atores que pressionaram esse processo de transição e as revelações de Snowden influenciaram nisso188.

188 Em entrevista dada ao jornal Folha de S. Paulo em 2014, o então CEO da ICANN, Fadi Chehadé, afirma o seguinte sobre a relação entre Snowden e a transição da função IANA: “Fávero: Não foram as denúncias de Edward Snowden sobre a espionagem americana que alavancaram essas mudanças? Chehadé: Não, nós

195

Há um conselho para o gerenciamento técnico e configuração da zona. Entre os grupos envolvidos temos o RSSAC (Comitê Consultivo do Sistema de Servidor-Raiz da ICANN) e o SSAC. No que diz respeito ao desenvolvimento das políticas, há o Comitê Consultivo At-Large (ALAC, no qual são representados os usuários da Internet) e o Comitê Consultivo Governamental (GAC). Portanto, a gestão da zona raiz também segue uma estrutura multissetorial, compondo uma comunidade a partir de comunidades diferentes. É evidente que a zona raiz é restrita e controlada, de maneira que existe todo um processo para acrescentar novos domínios. Além de novos gTLDs, em 2010 os nomes de domínio internacionalizados (IDNs) passaram a ser utilizados na zona raiz e, com isso, scripts que não são em latim também podem ser utilizados tanto para ccTLDs – como é o caso do .рф representando o domínio de nível superior da Rússia – quanto para gTLDs – sendo католик utilizado para “católico”. Atualmente há um crescimento significativo de gTLDs, entre eles .example, .bar, .earth, .organic, .rent, .bom, .final, .rio, e .手机. Ainda na esfera do DNS, algumas organizações são responsáveis por manter os registros de cada domínio de topo (a base de dados que contém os domínios), atualizar esses registros e as informações administrativas de cada TLD. Por exemplo, no caso do domínio de país .br, o NIC.br (Núcleo de Informação e Coordenação do Ponto BR, braço executivo do Comitê Gestor da Internet no Brasil (CGI.br)) é o encarregado por isso. Entre os responsáveis por um domínio de país, encontram-se instituições acadêmicas, associações técnicas, ONGs e mesmo indivíduos privados. Já no caso de domínios de topo genéricos, como .com, a ICANN confia essa atividade a uma companhia. Essas organizações são chamadas de registry ou NIC (Network Information Center)189. A relação entre um registry e a ICANN se dá por meio de acordos190. Atualmente (2019), temos 1240 gTLDs e 312 ccTLDs – o que inclui os domínios internacionalizados. Com essa grande expansão de TLDs, estabelece-se um mercado onde empresas estão se arriscando com a invenção e compra de novos TLDs. A Amazon atualmente é a empresa que possui a maior quantidade de gTLDs, com 52, incluindo .safe, .smile, .song, .author, .book, .buy, .fast, e .free. começamos a trabalhar nessas mudanças quando Snowden ainda estava no colegial [risos]. Mas as revelações trouxeram a discussão sobre governança da internet para o centro da agenda geopolítica, precisamos ser intelectualmente honestos com isso. O assunto passou a ser discutido por líderes mundiais e executivos. Na verdade, a discussão sempre esteve aí, mas subiu no ranking de prioridades. Mas isso também é por causa do valor econômico, social e político que a internet tem” (Cheháde apud Fávero, [2014]: online). 189 Cf. lista de registries disponível em: . Acesso em 9 out. 2017. 190 Cf. acordos ccTLDs: . E para os acordos gTLDs, acessar: . Já para ter acesso a todos os TLDs, tipo e organização responsável: . Links acessados em 10 out. 2017.

196

Além de controlar as políticas de alocação de nomes, uma organização registry também pode acumular a função de DNS registrar – função que está vinculada à comercialização de determinado domínio – ou transferi-la a outras organizações. O registrar é uma organização comercial responsável por gerenciar as reservas de nomes de domínios utilizados na Internet. Para realizar tal atividade, é necessário que um registrar seja credenciado pelo DNS registry de um gTLD ou ccTLD do qual queira comercializar determinado domínio. Por exemplo, se um registrar quiser comercializar domínios de dado ccTLD, ele precisa ter um cadastro com o responsável por esses domínios. E se quiser fazer o mesmo com domínios .com terá que lidar com a VeriSign. Esse serviço de vendas de nomes de domínio gera capital econômico para o registry. E uma porcentagem desse valor financia a atuação da ICANN. Há alguns mitos que envolvem a função IANA e que precisam ser dirimidos, especialmente no concernente à zona raiz. 1) Embora seja possível verificar a importância da zona raiz para o funcionamento da Internet, pois a ela são feitas requisições para encontrar o endereço IP do servidor que hospeda determinado serviço que queremos acessar – conforme explicado em capítulo precedente –, não passa pelos servidores-raiz todos os dados que trafegam na Internet. Caso saiba o endereço IP do computador com o qual quero me conectar, não precisarei fazer a requisição ao servidor-raiz. O que às vezes acontece é o IP desse computador mudar. Nesse caso, precisarei consultar o DNS. Assim, o tráfego de dados não passa pelos servidores-raiz, mas apenas as requisições para localizar determinado serviço/conteúdo com o qual o hospedeiro quer se conectar. Em realidade, os dados passam por um complexo de roteadores que conectam emissor e receptor, onde o DNS pode ou não fazer parte do processo. 2) A ICANN não opera os servidores-raiz por meio da função IANA, apenas administra a zona raiz. São diversas as entidades que operam os servidores-raiz, sendo que a ICANN maneja apenas o servidor-raiz L (AS20144). Os servidores-raiz podem ser utilizados para acessar informações de requisições ao DNS como também suspensão de serviços. Mas como são 13 servidores operados por 12 organizações diferentes, se um ou mais servidores bloqueassem determinado país de acessar o DNS, ele poderia continuar funcionando a partir dos outros servidores. Nesse sentido, mesmo se o governo norte- americano tentar bloquear um país por meio dos servidores-raiz que estão nos Estados Unidos, ele poderia utilizar o sistema caso outra organização responsável por outro servidor- raiz continuasse dando acesso a esse país. 3) A função IANA não determina qual é sua política – seguindo o que a comunidade constituída pela ICANN decide; 4) não decide quais são os códigos de duas letras – os quais são definidos pela ISO 3166-1; e 5) não decide quem

197

será o registry de um ccTLD, pois é a comunidade de certo país que decide isso. Por outro lado, deve-se reafirmar a possibilidade de controle que os operadores de TLDs possuem assim como a potência de controle/confusão que o DNS possui, principalmente no seu topo, em sua raiz. No que diz respeito à organização da ICANN, pode-se dizer que sua comunidade é labiríntica, dividida em comunidades menores a partir de certas áreas que podem trabalhar separadas ou em conjunto, dependendo da temática em questão. Esse complexo de comunidades formadas pelos mais variados atores com seus interesses específicos tem sua representação máxima no Conselho Administrativo, onde não são todos os membros que possuem direito a voto. Segue abaixo uma imagem do Conselho Administrativo da ICANN.

Fig. 5.3 – Conselho Administrativo da ICANN (ICANN, [2013a])

Parte significativa dessas comunidades foram mencionadas no decorrer dessa parte do trabalho, de modo que não me parece conveniente realizar aqui um detalhamento em exaustão de cada uma delas, as quais seguem (de modo geral) a perspectiva multissetorial. A ICANN é uma poliarquia heterogênea, possuindo como votantes um diretor executivo; três organizações de suporte, GNSO (Organização de Apoio a Nomes Genéricos) –

198

responsável por desenvolver políticas e fazer recomendações relacionadas aos gTLDs –, ASO (Organização de Apoio a Endereços) – lidando com problemas de política global de alocação, gerenciamento e operação dos endereços IP – e ccNSO – organização que se preocupa com políticas globais referentes a domínios de primeiro nível de código de países; o comitê de indicação, uma equipe voluntária que seleciona oito membros para o Conselho Administrativo da ICANN; e a Membresia Geral, formada pelo Comitê Consultivo para a Membresia Geral juntamente com as RALOs (formação parecida com as RIRs por serem divididas em cinco regiões do mundo (África, Ásia-Pacífico, Europa, América Latina e Ilhas do Caribe, e América do Norte), mas no caso direcionada à Membresia Geral) (ALAC). Na parte dos não- votantes há o SSAC; o RSSAC; o Grupo de Contato Técnico da ICANN (TLG), formado pelo ETSI (Instituto Europeu de Padrões de Telecomunicações), IAB (Conselho de Arquitetura da Internet), W3C (Consórcio World Wide Web) e UIT (especificamente o setor de padronização da União Internacional das Telecomunicações, chamado de ITU-T); um membro indicado pelo IETF; e outro representando o setor governamental (GAC). O Ombudsman é uma pessoa considerada neutra contratada pela ICANN com a finalidade de lidar com “os problemas e reclamações referentes a decisões e ações tomadas ou não tomadas pela corporação ou pelo Conselho Administrativo, ou referentes a tratamento injusto dado a um membro da comunidade por um integrante da equipe, pelo Conselho ou pelo grupo constituinte da ICANN” (ICANN, [2013a]: 2). Portanto, a ICANN possui um conselho com 16 membros com direito a voto e 5 representantes de contato sem direito a voto, além do Ombudsman. Embora o GAC não tenha poder de voto, emite uma recomendação formal para a diretoria da ICANN. Esta recomendação precisa ser adotada ou a diretoria deve justificar formalmente a recusa em acatar a mesma. Portanto, o GAC tem certa autoridade frente às operações realizadas pela ICANN. Visando responsabilidade e transparência, a ICANN possui um estatuto que atinge os múltiplos níveis de sua organização191. Um dos pontos que chama atenção é o ALAC, subconjunto da comunidade de Membresia Geral, ter apenas um voto na diretoria da ICANN, um voto que representaria os usuários individuais da Internet, aqueles que não se identificam com as demais partes interessadas representadas na diretoria da ICANN. O ALAC é a ponta de uma cadeia ampla de ramificações com aproximadamente 150 estruturas de Membresia Geral, chamadas de ALSes (At-Large Structures), as quais são organizações locais. Essas ALSes estão dispostas mediante cinco organizações regionais chamadas de RALOs, sendo estas os principais fóruns

191 Cf. novo estatuto da ICANN disponível em: . Acesso em 10 out. 2017.

199

de participação. Portanto, de mais de 150 ALSes chega-se a 5 RALOs. As RALOs confluem no ALAC que indica uma pessoa para sentar na mesa de administração da ICANN.

Fig. 5.4 – Organograma da Membresia Geral da ICANN (ICANN, [2013a]: 10)

Os 15 membros que compõem o ALAC são formados por dois membros eleitos por cada uma das cinco organizações regionais de Membresia Geral (RALOs) e outros 5 membros são indicados pelo comitê de indicação, sendo necessário incluir um cidadão de cada país de uma das cinco regiões. A RALO precisa ser composta por ao menos três ALSes de dois países distintos e ela é autônoma, sendo governada por meio de documentos próprios (ICANN, [2013a]). A ICANN disponibiliza documentos que indicam como um usuário da Internet pode participar de sua comunidade por meio da Membresia Geral – um deles é o Guia do Iniciante para a Participação na Membresia Geral (ICANN, [2013b]) – ou de outras partes de sua comunidade – como o Guia do Iniciante para participação na ICANN (ICANN, [2013a]). E é a partir dessa comunidade de comunidades que a ICANN estabelece suas políticas, apoiando e financiando a participação de numerosos atores no desenvolvimento dela, onde diversas entidades ocupam até mesmo cadeiras em seu Conselho Administrativo. A ICANN realiza atualmente três encontros por ano. Seu primeiro foi no ano de 1999, em Singapura. Esses encontros foram crescendo no número de participantes, reuniões e dias de evento. Se no primeiro houve 100 pessoas presentes com 10 reuniões em 2 dias, o encontro ICANN53, realizado no ano de 2015, em Buenos Aires, teve 1800 participantes, 310 reuniões e 6 dias de duração. Diante disso, a pessoa precisa selecionar quais são as reuniões de maior interesse e fazer escolhas em participar de reuniões que muitas vezes possuem conflitos de horário. No caso de entidades, é importante levar funcionários para cobrir as reuniões de interesse da instituição. As três reuniões anuais da ICANN estão divididas do seguinte modo, formando uma espécie de ciclo anual: a) fórum da comunidade, com 6 dias; b)

200

fórum de políticas, composto por 4 dias, sem reuniões para inserir novos membros à comunidade da ICANN, sem tópicos de alto interesse, fórum público, reunião pública do conselho administrativo ou área de exposição dos patrocinadores da reunião; e c) o encontro geral anual em 7 dias, focado em mostrar o trabalho da ICANN a uma audiência global e mais ampla192. Como se pode imaginar, um dos temas que tomaram grande espaço dos encontros anuais da ICANN nos últimos anos foi a transição da função IANA, tornando a ICANN efetivamente privatizada. A NTIA estabeleceu alguns critérios para a transição, entre eles o de que a nova estrutura que ocuparia o lugar da NTIA deveria apoiar e melhorar o modelo multissetorial. Ela delegou à ICANN o papel de coletar e compilar propostas para finalizar a relação entre a função IANA e o governo dos Estados Unidos. Além disso e de ter um amplo apoio da comunidade, a proposta deveria manter a segurança, estabilidade e resiliência do DNS; se atentar às necessidades e expectativas dos clientes globais e parceiros dos serviços IANA; e manter a abertura da Internet. Outro ponto enfatizado pela NTIA foi o de que não aceitaria uma proposta na qual seu papel fosse realizado por um estado ou organização intergovernamental, o que excluiria, por exemplo, a UIT (NTIA, [2014]). Além dessa função administrativa perante a IANA, o governo dos Estados Unidos também servia como entidade para a qual a ICANN tinha que prestar contas, de modo que o grupo formado para lidar com a transição da função IANA também teria que resolver isso. Esses movimentos de lidar com os dois papéis desempenhados pelo governo norte-americano foram realizados pela comunidade da ICANN de modo interdependente e em sincronia. O ICG (Grupo de Coordenação da Transição da Supervisão da IANA) ficou responsável por receber e coordenar as propostas vindas das comunidades operacionais da função IANA. Este grupo foi formado por 30 pessoas representando 13 comunidades, sendo que 3 desses membros eram brasileiros (Demi Getschko, Hartmut Glaser e Jandyr Ferreira dos Santos). Ele recebeu as propostas e organizou as mesmas em uma única. De outro lado, o CCWG-Accountability (Grupo de trabalho entre comunidades sobre o aprimoramento da responsabilidade da ICANN) se preocupou em formular uma proposta de aprimoramento da prestação de contas da ICANN193. A diretoria da ICANN encaminhou as duas propostas que foram analisadas e aprovadas pela NTIA em conjunto. O ICG propôs a criação da PTI (Identificadores Técnicos Públicos), uma empresa subsidiária da ICANN que opera a função

192 Cf. no seguinte link maiores informações dos encontros da ICANN: . Acesso em 11 out. 2017. 193 Sobre maiores detalhes dos grupos formados para o desenvolvimento da transição, cf. ICANN [2015c].

201

IANA também em conformidade com as leis da Califórnia, uma espécie de braço operativo das políticas definidas pela ICANN194. Já o CCWG-Accountability fez a proposta de aprimoramento desse segundo papel então desempenhado pelo governo dos Estados Unidos. Todo o processo final de transição da função IANA se iniciou com a declaração da NTIA desejando dar continuidade à torná-la não-governamental no dia 14 de março de 2014 e se concluiu no dia 1° de outubro de 2016 com o término do contrato entre a ICANN e a NTIA195. Com a internacionalização da função IANA, os EUA perdem sua potência de ação na rede mundial de computadores? Certamente não. Como colocado, ao observar cabos de fibras ópticas bem como as empresas relacionadas à Internet que são dos Estados Unidos evidencia-se a presença do governo norte-americano na influência da gestão da Internet, o que não necessariamente tem a ver com a ICANN. Nesse sentido, a transição da função IANA pode ser encarada em grande medida como uma redução de danos ao considerar o processo de espionagem realizado pelo governo dos Estados Unidos através da Internet, uma forma de compensar a diplomacia internacional e, segundo Karl Auerbach [2014], com essa transição a ICANN poderia distribuir direitos comerciais e privilégios196. A hegemonia norte-americana continua existindo. Purkayastha e Baley [2014] ainda nos lembra que embora o DoC não administre mais a função IANA, a ICANN continua operando sob o sistema judicial dos Estados Unidos. E como aconteceu no caso da Crimeia, o governo consegue forçar o bloqueio de determinados domínios na Internet197. Contudo, a ICANN se tornou mais suscetível às influências externas, como as pressões que hoje a comunidade europeia consegue fazer. Dito

194 Para maiores detalhes sobre a PTI, cf.: . Acesso em 16 out. 2017. 195 Para texto com maiores detalhes do processo de transição da função IANA, cf. Canabarro e Rodrigues [2016]. 196 “‘Estabilidade técnica’ parece um assunto que, dificilmente, geraria muitos conflitos. No entanto, a ICANN é um caldeirão fervente com um debate acalorado. A ICANN recebeu cerca de US$ 400.000.000 em receita no ano de 2013. Essa é uma quantia surpreendentemente alta para uma ‘estabilidade técnica’. Há algo a mais que induziria as pessoas a pagar grandes quantias para a ICANN? A resposta é que a ICANN faz infimamente pouco no que diz respeito à estabilidade técnica da Internet e, em vez disso, usa, de fato, sua posição de monopólio para fazer um negócio lucrativo vendendo direitos a territórios na Internet. A ICANN não ‘garante a estabilidade técnica da Internet’. Pelo contrário, ICANN dispensa direitos e privilégios comerciais” (Auerbach, [2014]: 01). [“‘Technical stability’ seems like a subject unlikely to engender much conflict. Yet ICANN is a cauldron boiling with heated debate. ICANN received roughly $400,000,000 in revenue in the year 2013. That is a surprisingly large amount of money for ‘technical stability’. Is there something else that might induce people to pay large amounts of money to ICANN? The answer is that ICANN does vanishingly little with regard to the technical stability of the internet and, instead, uses its de facto monopoly position to do a land office business selling rights to internet territory. ICANN does not ‘assure the technical stability of the internet’. Rather, ICANN dispenses commercial rights and privileges”]. Karl Auerbach já foi membro do conselho administrativo da ICANN, eleito por voto público em 2000. No mesmo ano, ele requisitou acesso aos registros financeiros da ICANN, algo que ela recusou. Auerbach apresentou então ação contra a ICANN na corte de Los Angeles e em 2002 teve acesso aos registros. Isso mostra as restrições de acesso que a ICANN poderia colocar inclusive a seus diretores (Auerbach, [2014]). 197 Purkayastha e Baly [2014] colocam outros exemplos de intervenção do governo dos Estados Unidos. Sobre isso, cf. nota 28 do artigo mencionado.

202

isto sobre a transição da função IANA, retorno à ICANN, especificamente aos meios de participação nessa organização. De modo geral, a ICANN constitui espaços abertos para a participação dos atores, de forma que ela possui uma superfície porosa aberta também ao lobby. A ICANN possui uma série de programas que estimulam as pessoas a participarem de seus encontros, defendendo que ela deve se preocupar com a formação de novas gerações de membros da comunidade. Dois desses programas são o ICANN Meeting Fellowships e o NextGen@ICANN198, os quais colaboram com a formação de pessoas para a participação nos encontros da ICANN e oferecem reuniões aos membros desses programas durante o próprio encontro. A ICANN paga viagem, hospedagem e um auxílio manutenção do bolsista. Além disso, possuem uma plataforma de aprendizagem online199, website para recém-chegados à gI, possibilidade de participação remota nos encontros da ICANN, bolsas para participação presencial aos encontros, financiamento para projetos que querem dar voz aos jovens na gI, etc. Enfim, a ICANN consegue estabelecer uma base de formação para novos participantes dessa complexa comunidade que parece indecifrável num primeiro momento. Os documentos feitos pela ICANN são colocados para comentários públicos em variados momentos do processo. Os pareceres podem ser operacionais, técnicos ou orientados à política. Eles são considerados e, quando necessário, incorporados ao documento. Isso é realizado não pensando na praticidade, mas na legitimidade e qualidade, onde a praticidade aparece no processo, mas com caráter secundário200. Embora a língua mais falada na ICANN seja o inglês – idioma dos grupos de trabalho –, ela se compromete a oferecer interpretação disponível às reuniões em que tenham três ou mais pedidos de tradução para um idioma específico (ICANN, [2013a]). Nas palavras de Fadi Chehadé, então CEO da ICANN: “A ICANN não pode tornar-se uma fortaleza. A ICANN precisa se tornar um oásis, um local onde as pessoas veem e visitam porque funciona, porque faz sentido, porque é eficiente”201 (Chehadé, [2012]: online). Nos seus encontros, há um espaço chamado Fórum Público. Nele, qualquer pessoa pode fazer comentários e perguntas sobre os principais tópicos relacionados

198 Cf. sobre o programa ICANN Meeting Fellowships neste link: . E sobre o NextGen@ICANN a partir deste: . Acessados em 11 out. 2017. 199 Para cf. plataforma de aprendizagem online da ICANN, acessar: . Acesso em 11 out. 2017. 200 Cf. a plataforma de comentários públicos em: . Acesso em 11 out. 2017. 201 [“ICANN cannot become a fortress. ICANN must become an oasis, a place that people see and come to because it works, because it makes sense, because it’s efficient”].

203

ao que foi debatido no encontro diretamente ao Conselho Administrativo da ICANN. Para além disso, essa instituição se dispõe a melhorar os espaços de participação na comunidade. Talvez um dos primeiros pontos a ponderar sobre discursos e práticas de estímulo à participação na ICANN seria questionar quais são os atores que efetivamente têm acesso a esses espaços, quem seleciona, como são selecionados e, caso seja de interesse, como um ator deve se portar para continuar participando dessa esfera e mesmo ascender na mesma. Isso nos faria incorrer a uma série de outras questões e investigações de mesma ordem. Contudo, num trabalho de escrita abrangente como o proposto aqui, é fundamental manter o foco e não se aprofundar nas ramificações que se apresentam no decorrer da investigação. Diante disso, basta dizer que os discursos e práticas de estímulo à participação dessa comunidade funciona ao menos para um número significativo de pessoas, de modo que se estabelece como efeito a legitimidade preterida e mesmo o desejo de participação nesse espaço. Tive a oportunidade de participar de dois encontros da ICANN, em 2015 e 2016: ICANN53, Buenos Aires, Argentina, em 2015; e ICANN57, Hyderabad, Índia, em 2016. Em Buenos Aires participei por meio do programa NextGen@. No momento de me cadastrar no encontro, recebi uma etiqueta verde limão para colocar no crachá. Nela estava escrito “Newcomer”. A pessoa portadora dessa etiqueta possuía uma espécie de “licença poética” no campo da gI, de modo que poderia fazer as mais diversas perguntas – mesmo que soassem descabidas – no evento. No que se refere à participação, os participantes com os quais tive a oportunidade de conversar se mostraram solícitos, receptivos. Os “newcomers” tinham acesso a guias, palestras destinadas a eles, espaço para fala e, de modo geral, suporte da comunidade. Essa experiência deixou claro que a ICANN se preocupa com a inserção de novos membros em sua comunidade. Os funcionários da ICANN responsáveis pelo NextGen@ realizaram uma série de palestras com os contemplados pelo programa trazendo especialistas de diversas áreas da gI para conversar informalmente com esses bolsistas. Além disso, incentivaram o estabelecimento de redes de relações com os atores que os membros do programa NextGen@ tivessem interesse, comprometendo-se a realizar essa conexão. Para além disso, os responsáveis pelo NextGen@ sustentaram que bastava entrar em contato com eles mesmo depois do evento para empreenderem essa conexão. Eles também reforçavam a todo instante que a ICANN era um espaço aberto no qual qualquer um poderia participar, se envolver, e fazer sua contribuição. É certo que esse tipo de prática tem condições de condicionar os novos participantes a entender esse espaço como um lugar importante de estar, de modo que a partir disso a ICANN vai tecendo sua teia de legitimidade, uma legitimidade que, entre outros, seleciona, condiciona e estabelece um princípio de reciprocidade entre elas e seus

204

selecionados, de forma que tende a parecer desconcertante criticar uma entidade que “acolheu” novos membros se esquecermos que ela depende disso para se garantir enquanto instituição legítima a exercer as funções que exerce. É certo que com esse tipo de atuação perante os ingressantes no campo da gI, corrobora-se com a solidificação da legitimidade da ICANN. Mas tal legitimidade vai além disso pautando os trabalhos voluntários para a composição da comunidade ICANN, possibilitando mediante subsídio financeiro a participação de pessoas que não fazem necessariamente parte de uma organização capaz de destinar recursos suficientes para eles participarem de seus encontros e reuniões. Esse trabalho voluntário contribui com a composição de uma comunidade que legitima o trabalho da ICANN estimulando a participação dos atores e coordenando o espaço a partir de uma estrutura significativamente aberta que os incentiva a jogar o seu jogo e a modificá-lo, mesmo possuindo debates específicos e muitas vezes herméticos dada sua complexidade e desenvolvimento; e graças ao seu raio de abrangência global, a ICANN e esse mecanismo faz com que, para criticá-la, geralmente seja necessário participar do seu espaço, de modo que um observador interno tende a ser incorporado como parte de seu ecossistema, tendendo a transformar uma potência de oposição estrutural em uma objeção domesticada, lembrando que deixar falar a contraposição é essencial para um espaço que se quer democrático. Por outro lado, questionamentos mais estruturais podem desvanecer diante desse complexo sistema que, por sua vez, já possui seu próprio espaço de contestações moderadas e se opõe aos demais que possuem, os quais são taxados por ela de ter a potência (ou são encarados como possuidores) de “fragmentar” a rede mundial de computadores – conforme o próprio slogan da ICANN: “Um Mundo, Uma Internet”202. Ademais, deve-se somar a isso a crítica previamente estabelecida sobre o modelo multissetorial e também sua complexidade constitutiva que tende a ofuscar o modo de funcionamento da ICANN e consequentes críticas sobre ela. Tal complexidade também dificulta sua substituição por outro organismo. Basta considerar os processos interinstitutionais realizados na alteração da zona raiz para vislumbrar o mecanismo denso desse empreendimento. Assim, a ICANN estabelece um espaço que se faz legítimo, significativamente estável e resistente a críticas estruturais porque essa organização consegue construir uma espécie de campo complexo de interações sociais no qual se estabelece um conjunto de regras para o funcionamento de um jogo que “precisa” ser jogado ao mesmo tempo em que consegue

202 [“One World, One Internet”].

205

trazer agentes para participarem do mesmo, os quais acabam por chancelar a legitimidade do jogo pautado em uma distribuição desigual de um quantum social que determina qual é a posição de certo agente nesse espaço (Bourdieu, [1983] e Ortiz, [1983]). E esse jogo inclui não apenas sociedade civil, governos e instituições, mas também lobistas, etc., que comumente entram em conflitos de interesses. Dito de outro modo, as manifestações e ações de estimular a participação funcionam e fazem funcionar a legitimidade da existência da ICANN e da posição alcançada pelos atores que compõem essa organização, na medida em que ela é interessante para um número significativo de atores que veem sentido nesse espaço de interação e de conquista de posições e das diretrizes da ICANN. E essa instituição tem conseguido administrar relativamente bem a diversidade de interesses que pressionam seus passos. Ainda que seja uma possibilidade lidar com a gI para além da ICANN, esta prática não tem sido comum, de forma que esta instituição é, em certa medida, uma passagem obrigatória dos debates acerca da governança da Internet a nível internacional. É possível pensar em outras possibilidades e mesmo em outras organizações para assumir a função IANA. Mas é difícil criar um quadro organizacional internacional da Internet em condições de substituir essa instituição que já está estabelecida. Para além disso, seria árduo o trabalho de criar um sistema que realizasse tarefas semelhantes ao DNS e convencer a arquitetura dessa rede de redes a operar considerando esse sistema. Como nos lembra Milton Mueller ([2002a]: 04): “[n]ão havia uma estrutura legal ou organizacional adequada em vigor. Várias organizações – a Internet Society, a União Internacional de Telecomunicações (UIT), as ‘confederações de servidores-raiz’ alternativas – tentaram e falharam na criação de uma203”.

5.2 – CGI.br No Brasil, a entidade de governança da Internet com maior destaque é o Comitê Gestor da Internet no Brasil, o qual se constitui por meio de um esforço coletivo das lideranças governamentais, acadêmicas e da sociedade civil que reforçaram a resistência ao monopólio da Internet por parte da Embratel, como colocado no capítulo anterior. Desde então, a principal função do CGI.br tem sido coordenar e realizar a governança da infraestrutura lógica da Internet no Brasil, o que inclui a administração do ccTLD .br, e

203 [“[t]here was no suitable legal or organizational framework in place. Various organizations – the Internet Society, the International Telecommunication Union (ITU) [UIT], alternative ‘root Server confederations’ – had tried and failed to create one”].

206

distribuir número IP e de sistema autônomo no país. Na Portaria Interministerial que estabelece o CGI.br são auferidas as seguintes atribuições ao Comitê:

I – Acompanhar a disponibilização de serviços Internet no país; II – Estabelecer recomendações relativas a: estratégia de implantação e interconexão de redes, análise e seleção de opções tecnológicas, e papéis funcionais de empresas, instituições de educação, pesquisa e desenvolvimento (IEPD); III – Emitir parecer sobre a aplicabilidade de tarifa especial de telecomunicações nos circuitos por linha dedicada, solicitados por IEPDs qualificados; IV – Recomendar padrões, procedimentos técnicos e operacionais e código de ética de uso, para todos os serviços Internet no Brasil; V – Coordenar a atribuição de endereços IP (Internet Protocol) e o registro de nomes de domínios; VI – Recomendar procedimentos operacionais de gerência de redes; VII – Coletar, organizar e disseminar informações sobre o serviço Internet no Brasil; e VIII – Deliberar sobre quaisquer questões a ele encaminhadas (Motta, [2005]: online).

Essa portaria foi alterada em 2003, modificando o arranjo do Comitê e o período de vigência de seus membros (Portaria Interministerial n° 739, 2003). Desde a composição do primeiro quadro de membros do Comitê em 3 de julho de 1995, pode-se observar que ele era composto por múltiplas partes interessadas, embora houvesse a primazia do setor governamental. Sua composição era formada por um representante de cada um dos seguintes atores: Ministério da Ciência e Tecnologia; Ministério das Comunicações; Sistema Telebrás; Conselho Nacional de Desenvolvimento Científico e Tecnológico – CNPq; Rede Nacional de Pesquisa (RNP); Comunidade Científica; provedores de serviços; comunidade empresarial; e comunidade de usuários de serviço Internet (Motta e Vargas, [1995]). O ministro das Comunicações e o ministro da Ciência e Tecnologia que, em conjunto, nomearam os membros do Comitê. Em 2003 houve uma alteração no modelo de governança da Internet no Brasil por meio do Decreto n° 4829 (Brasil, [2003]) e somente em 2004 temos a conclusão do primeiro processo eleitoral dos membros do CGI.br. Esse mesmo decreto modificou a composição do Comitê, dando maior equilíbrio entre as partes interessadas na gI no Brasil, com 9 membros do governo e 12 não representantes do governo. Além disso, cada setor passou a eleger seu conselheiro por colégio eleitoral próprio com um mandato de 3 anos. A partir disso, chegamos à seguinte configuração do CGI.br:

207

Fig. 5.5 – Composição do CGI.br ()

Como se pode observar, há a manutenção do decreto de 2003, sendo que a ala não- governamental é dividida em 4 categorias, ocupando 12 cadeiras, enquanto o setor governamental ocupa 9. Os membros do setor governamental representam as seguintes entidades do governo: Ministério da Ciência, Tecnologia e Inovação; Casa Civil da Presidência da República; Ministério das Comunicações; Ministério da Defesa; Ministério do Desenvolvimento, Indústria e Comércio Exterior; Ministério do Planejamento, Orçamento e Gestão; Agência Nacional de Telecomunicações (Anatel); Conselho Nacional de Desenvolvimento Científico e Tecnológico; e Conselho Nacional de Secretários para Assuntos da Ciência, Tecnologia e Inovação. Entre os representantes do setor empresarial, temos: Provedores de acesso e conteúdo da Internet; Provedores de infraestrutura de telecomunicações; Indústria de bens de informática, de bens de telecomunicações e de software; e Setor empresarial usuário. O terceiro setor e a comunidade científica e tecnológica não possuem uma gradação interna para a composição do Comitê. O último membro do Comitê é o representante do Notório Saber em Assunto da Internet. Cada membro eleito pelo colégio eleitoral de seu setor – excetuando o setor governamental e o representante de notório saber, o qual é indicado pelo Ministério da Ciência e Tecnologia – tem um mandato de 3 anos e pode ser reeleito204. Embora todos os membros do CGI.br tenham direito a voto, preferem alcançar consensos e acordos.

204 Sabe-se que o Ministério da Ciência e Tecnologia foi extinguido nos últimos tempos num processo de reformulação dos ministérios realizado por Temer. Diante disso, ancoro as ponderações quanto ao Comitê e a referência dos ministérios no site do CGI.br (cf. ) bem como no Decreto n° 4829 (Brasil, [2003]) por ele estabelecer a arquitetura seguida pelo CGI.br até o presente momento. Atualmente, o CGI.br está no Ministério das Comunicações, juntamente com a Anatel.

208

O modelo multissetorial adotado pelo CGI.br é utilizado em discussões internacionais sobre governança da Internet como um exemplo de sucesso de implementação (Afonso, [2016] e Knight, [2014]). Com o tempo, o Brasil estendeu seu modelo a outras áreas de gI, como é o caso do Fórum de Governança da Internet (IGF), realizado no país em 2007 (Kurbalija, [2014]). O CGI.br influi não apenas na governança da Internet no país como também no desenvolvimento de leis, etc. Por exemplo, o Decálogo – Princípios para a governança da Internet no Brasil –, documento elaborado pelo CGI.br [2009], foi tomado como referência para a construção do Marco Civil da Internet. O Decálogo é um documento de evidência internacional no que concerne aos princípios de governança da Internet. Em decorrência da sua generalidade, serviu como princípio norteador da regulamentação da Internet no Brasil, defendendo: liberdade, privacidade e direitos humanos; governança democrática e colaborativa; universalidade; diversidade; inovação; neutralidade da rede; inimputabilidade da rede; funcionalidade, segurança e estabilidade; padronização e interoperabilidade; e ambiente legal e regulatório205. Foram cerca de 2 anos de diálogo interno para os membros do CGI.br aprovarem por consenso os 10 princípios para a governança e uso da Internet presentes no referido documento (Afonso, [2016]). Com o Marco Civil da Internet e sua regulamentação por meio do Decreto n° 8771 (Brasil, [2016]), o CGI.br passa a ter, como colocado, legitimidade para nortear instituições como a Anatel, como está posto no segundo parágrafo do artigo 5° do Decreto: “A Agência Nacional de Telecomunicações – Anatel atuará na fiscalização e na apuração de infrações quanto aos requisitos técnicos elencados neste artigo, consideradas as diretrizes estabelecidas pelo Comitê Gestor da Internet – CGI.br” (Brasil, [2016]: online). Mas na prática o CGI tem dificuldades para a objetivação disso, enfrentando então reveses para exercer sua função mesmo entre entidades do governo. A política de gestão do domínio .br assume o caráter de um bem da comunidade e identidade do Brasil na Internet (Afonso, [2016]), sendo restrito a pessoas físicas e jurídicas brasileiras ou que residam permanentemente no Brasil. Assim, para registrar um domínio .br, a pessoa deve ter nacionalidade brasileira ou comprovante de status legal no país. Isso se distingue de alguns países que se valem de seu domínio para fins comerciais sem que os mesmos se relacionem diretamente com o país – como é o caso de Tuvalu com seu domínio .tv e Tokelau com o domínio .tk. Com a criação do CGI.br, a FAPESP ficou oficialmente como operadora dos serviços de registro e controle do .br (Afonso, [2002]). Com o intuito de se tornar

205 Cf. Decálogo disponível em: . Acesso em 23 out. 2017.

209

autossustentável, o CGI decidiu na época cobrar pelo registro de nome de domínios – algo que já acontecia nos Estados Unidos (Oliveira, [2014]). A partir disso, o CGI passou a ter recursos para desenvolver suas atividades no país. Foi após cerca de 8 anos com esse projeto que o CGI.br se desvinculou da FAPESP, em 2003, com a criação do NIC.br. Mas apenas em 2005 que o NIC.br passou a ser a instituição responsável por administrar o .br e receber outras atribuições, sendo a personalidade jurídica do CGI.br que permitia implementar as decisões assim como os projetos do Comitê. O Núcleo de Informação e Coordenação do Ponto BR é então uma organização sem fins lucrativos que dá suporte à realização dos objetivos do CGI.br. Como visto em capítulo anterior, as atividades do CGI.br e seu braço operacional e administrativo (NIC.br) são amplas, incluindo a constituição de pontos de troca de tráfego (IXs) no país e mesmo o fomento de iniciativas relacionadas ao desenvolvimento da Internet no Brasil. A atividade principal do NIC.br é gerir os nomes de domínios e números – incluindo alocar IPs e número de servidores autônomos – no Brasil. Dentre as atividades realizadas pelo CGI.br hoje, destacam-se:

[o] estabelecimento de diretrizes estratégicas relacionadas ao uso e desenvolvimento da Internet no Brasil; o estabelecimento de diretrizes para a administração do registro de Nomes de Domínio usando <.br> e de alocação de endereços Internet (IPs); a promoção de estudos e padrões técnicos para a segurança das redes e serviços de Internet; a recomendação de procedimentos, normas e padrões técnicos operacionais para a Internet no Brasil; a promoção de programas de pesquisa e desenvolvimento relacionados à Internet, incluindo indicadores e estatísticas, estimulando sua disseminação em todo território nacional (CGI.br, [s.d.]: online).

Essas atividades são realizadas por meio do NIC.br a partir das seguintes ramificações:

– Registro.br, departamento que faz o registro e a manutenção dos nomes de domínio .br, distribui endereços IP e números de sistemas autônomos no Brasil. Ele é reputado internacionalmente por ser bem administrado e tecnicamente sofisticado (Afonso, [2016]); – Cert.br, órgão preocupado com o tratamento e a resposta a incidentes de segurança em qualquer rede brasileira conectada à Internet; – Cetic.br, centro do NIC.br que tem como missão monitorar a adoção de TICs (especialmente acesso e uso de computador, Internet e também dispositivos móveis), conduzindo e realizando pesquisas sobre o assunto e mesmo produzindo indicadores, estatísticas e informações acerca do desenvolvimento da Internet no país; – Ceptro.br, centra-se em serviços e projetos sobre infraestrutura da Internet no Brasil bem como ao seu desenvolvimento. Para isso, desenvolve softwares e hardwares com a finalidade de alcançar soluções em infraestrutura de redes; – Ceweb.br, centro que toma a responsabilidade de inovar a Web, estimular sua melhor utilização, mostrar seu potencial e contribuir com seu desenvolvimento. Seus resultados objetivam-se em cursos, estudos, recomendações, etc. nas seguintes

210

temáticas: Internet das coisas, padrões abertos, acessibilidade na Web, uso de dados abertos e estímulo à Open Web; – IX.br (Brasil Internet Exchange), projeto apresentado em capítulo anterior cuja preocupação se concentra na interconexão das redes que compõem a Internet no Brasil voltando-se para as regiões metropolitanas que tenham interesse em troca de tráfego.

O NIC.br também abriga o escritório da W3C no Brasil e apoia financeira e operacionalmente o escritório brasileiro da ISOC. E o NIC.br não restringe seu trabalho a isso. Por exemplo, com a abertura de novos gTLDs, ele registrou o .bom e o .final, atuando como registry de gTLDs. Para melhor compreender essas divisões do NIC.br na realização de suas atividades, coloco abaixo seu organograma.

Fig. 5.6 – Organograma do NIC.br206

Na base desse organograma estão os seis centros mencionados acima com suas respectivas atividades. Além desses centros, há ainda o escritório brasileiro do W3C. No nível acima do organograma, temos a Diretoria Executiva, a administração executiva do NIC.br, a qual ancora suas práticas na legislação devida, no Estatuto, Regimento Interno e nas decisões do Conselho de Administração. Como mostra o organograma, são cinco os membros da Diretoria Executiva. O Conselho Fiscal é formado por 3 membros eleitos e realizam a

206 Quadro disponível em: . Acesso em 26 fev. 2019.

211

fiscalização contábil e financeira do NIC.br pelo período de 2 anos. Já o Conselho de Administração é a peça que controla a administração do NIC.br. São 7 membros que compõem essa diretoria, os quais são eleitos pela Assembleia Geral. Esses membros e seus respectivos suplentes fazem parte do CGI.br, sendo que 3 são representantes do governo federal e 4 da sociedade civil com mandato de 2 anos. A Assembleia Geral do NIC.br é o órgão superior que tem poder último de deliberar sobre os assuntos de interesse do NIC.br, sendo composta por conselheiros e ex-conselheiros do CGI.br – embora apenas aqueles possam votar. Torna-se evidente a conexão entre CGI.br e NIC.br. Para além disso, há a repetição de alguns nomes que compõem esses quadros. Por exemplo, além da Assembleia Geral e do Conselho Administrativo, o professor Demi Getschko exerce a função de Notório Saber no CGI.br e é Diretor Presidente do NIC.br. E o professor Glaser é o Secretário Executivo do Comitê e Diretor de Assessoria às Atividades do CGI.br, compondo assim a Diretoria Executiva do NIC.br. Um ponto notável quanto ao trabalho desenvolvido pelo CGI.br diz respeito à sua postura didática quanto às práticas de uso e compreensão do modo de funcionamento da Internet, o que se objetiva, dentre outros, por meio de cartilhas de segurança (a primeira lançada em outubro de 2000), orientações para o uso da Internet a pessoas com idade avançada e para crianças, e vídeos educativos sobre o funcionamento da Internet207. Além de fomentar o debate relacionado à gI a nível nacional, o CGI.br se destaca em sua atuação internacional, participando dos principais eventos sobre governança da Internet, como as reuniões da ICANN, do IETF e do IGF208. O CGI.br auxilia também na organização de eventos, como o IGF 2007, no Rio de Janeiro; o IGF 2015, em João Pessoa; e o NETmundial realizado em São Paulo, em 2014. No que se refere à formação ou atualização de pessoas para a atuação na governança da Internet, desde 2014 passou a realizar anualmente um curso intensivo sobre Governança da Internet e a oferecer também o curso jurídico por meio da Escola de Governança da Internet no Brasil209. Esses são apenas dois dos cursos oferecidos pelo NIC.br. Para além disso, o NIC.br oferece bolsas para a participação em eventos sobre gI, apoia eventos, organiza eventos, suporta espelhos dos servidores-raiz F, I e L, entre outros. Enfim, a lista de atividades realizadas pelo NIC.br é ampla e diversa, as quais tomam como eixo central a Internet210. Em poucas palavras, pode-se dizer que as ações do CGI.br

207 Cf.: . Acesso em 23 out. 2017. 208 Entre o diversos exemplo da atuação do CGI.br, destaco sua participação no GTGI, organizado pela ONU. Em um grupo de 40 pessoas, 2 eram do CGI.br. 209 Cf.: . Acesso em 23 out. 2017. 210 Para cf. as atividades realizadas pelo NIC.br, acessar: . Acesso em 23 out. 2017.

212

contribuem com o desenvolvimento da Internet no país em múltiplos níveis e na articulação entre órgãos que se relacionam com a Internet, tanto a nível nacional quanto global. Hoje a relevância do país é reconhecida internacionalmente, principalmente ao considerar o CGI.br e o Marco Civil da Internet (Kurbalija, [2014]; Knight, [2014]). O Brasil soube se aproveitar de um acontecimento específico para se alavancar na discussão sobre gI. Depois das revelações de Snowden em 2013, tivemos a fala de Dilma na Assembleia Geral da ONU no mesmo ano (após conversa com o CGI.br). No ano seguinte, foi realizado o NETmundial em São Paulo, o qual abriu com a aprovação do Marco Civil da Internet. E no mesmo ano, o CGI.br iniciou a Escola de Governança da Internet com seu curso intensivo. Em 2015, o CGI.br iniciou o curso jurídico e foi central para o IGF 2015. Nesse processo, houve uma série de publicações sobre o CGI.br, especialmente pelos conselheiros do Comitê, e inclusive aconteceu o lançamento do Observatório da Internet, um projeto do CGI.br que tem um vínculo orgânico com o mesmo e cuja preocupação se centra na “observação, análise e documentação de políticas públicas, legislações, técnicas, práticas e eventos a respeito da Internet no Brasil e no mundo, tendo como referência para o seu funcionamento questões correlatas aos Princípios para a Governança e Uso da Internet no Brasil” (Observatório da Internet, [s.d.]: online). Observamos nos parágrafos precedentes as diversas atividades relacionadas a esse Comitê. Pode-se dizer que o CGI cumpre com a sua missão, ainda que seja autocrítico em relação a seu modo de funcionamento e mesmo no alcance de seus resultados. Um dos problemas que ele apresenta é justamente o de querer dar respaldo em grande medida às iniciativas relacionadas à governança da Internet no país. E nessa perspectiva, o CGI.br, dada sua presença no desenvolvimento da rede mundial de computadores no Brasil, tem a potência de fazer ou não surgir novas propostas e possibilidades com o trato da governança desta. A atuação do CGI.br me remete ao eucalipto, uma planta arbórea que constitui “desertos verdes”. Isto porque o eucalipto acaba por restringir a diversidade da fauna e flora aonde é plantado. Nesse sentido, o CGI.br tem a potência para lidar com o dito e o não-dito de maneira privilegiada, a ponto de poder afetar a diversidade de atores que compõem a gI no Brasil ou de iniciativas que querem contribuir com a mesma. Nesse sentido, tanto a ICANN quanto o CGI.br conseguem fomentar um jogo, uma base de interações sociopolíticas que mostra aos atores o sentido de ele ser jogado, possuindo uma hierarquia de posições sociais e um grupo de agentes dispostos a ocupar essas posições privilegiadas. Além disso, ambos possuem seus próprios espaços de formação para as novas gerações.

213

São muitas as questões que esses atores fazem surgir – dependendo da perspectiva adotada para observá-los –, de modo que essas questões são temas de vários trabalhos que desaguam em títulos acadêmicos – como é o caso da tese de Tomi Adachi [2011] sobre o CGI.b, a tese de Vinícius dos Santos [2016] sobre a neutralidade da rede e o Marco Civil da Internet, e a dissertação de Everton Rodrigues [2016] acerca da transição IANA. Mas devemos continuar com a apresentação de atores relevantes na gI, delimitando o escopo de nossa navegação, dissecando as diversidades e possibilidades. Assim sendo, apresento a seguir atores da parte de protocolos, iniciando pelo IETF.

5.3 – IETF O IETF é uma instituição central nos padrões da Internet, se estabelecendo para além da relação firmada com a ICANN acerca dos parâmetros de protocolo, da cadeira que ocupa no conselho administrativo da ICANN e do auxílio que dá a ela por meio da competência e seu conhecimento técnico. Como sabemos, numa comunicação é necessário a instauração de especificações, regras, convenções, para que os atores envolvidos possam se comunicar. Na Internet, o Grupo de Trabalho de Engenharia da Internet (IETF) é a principal comunidade responsável por isso, um grupo internacional auto-organizado e informal preocupado com o desenvolvimento e funcionamento da Internet. Ao contrário da ICANN, o IETF é antes um conjunto de grupos e eventos, e não uma corporação com um conselho administrativo, membros, etc. São realizados três eventos por ano, onde qualquer pessoa pode se inscrever para um encontro presencial e participar, sendo que o mais próximo de se tornar “membro” do IETF é participando das listas de discussão dos grupos de trabalho (Hoffman, [2014]). Essa comunidade não possui membros formais, regras de votação, assim como não dispõe de representações explícitas; constitui-se por participantes individuais que teoricamente representam eles próprios. Na teoria, qualquer pessoa pode participar dessa força-tarefa composta por GTs menores, contanto que tenha competência técnica para isso e condições de se comunicar nas listas em inglês. Em geral, os atores interessados pelo que acontece no IETF são: produtores de hardware e software de rede, os quais precisam seguir certos protocolos para se comunicar com os demais equipamentos e softwares; operadores de rede e provedores de acesso à Internet, visto que precisam se atualizar quanto aos novos protocolos bem como adaptar os novos equipamentos a serem adicionados à rede de redes; setor acadêmico, fundamental para se atualizar quanto aos protocolos e mesmo auxiliar no desenvolvimento de novos para lidar

214

com novas adversidades que surgem na Internet. Vale salientar que esse espaço é importante inclusive para a imprensa especializada, a qual colabora com a divulgação do que é produzido e discutido pelo IETF. Entre todos os setores envolvidos com o IETF, aquele que dispõe de maior presença é o setor privado. Isso é compreensível porque os negócios do setor privado podem depender em grande medida do desenvolvimento de protocolos da Internet. “[M]uitas empresas têm esforços de coordenação interna e estratégias de padronização. Se uma empresa depende da Internet para realizar alguns ou todos seus negócios, a estratégia deve provavelmente cobrir o IETF” (Hoffman, [2004]: 39). O IETF segue certa descentralidade tanto do ponto de vista técnico quanto na sua organização e coordenação (Getschko, [2014]) e seu firmamento se encontra nos participantes, os quais fazem parte de ao menos um dos mais de 100 grupos de trabalho que funcionam fundamentalmente por listas de discussão211. Essa descentralidade é relativa porque há posições de coordenação que influem na composição de uma arquitetura com traços de verticalidade. Cada GT possui ao menos um Coordenador de Grupo que deve assegurar a conformidade do trabalho realizado e, dentre outras responsabilidades, garantir o cumprimento das metas relacionadas à produção do documento que o grupo se incumbiu de realizar. Acima dele há o Diretor de Área (AD), encarregado de orientar o grupo de trabalho e finalizá-lo. Além disso, os ADs são responsáveis por organizar e acompanhar as avaliações de qualidade bem como pela aprovação final de um dado documento. Continuando nessa hierarquia, existem as 7 áreas temáticas (Application and Real-Time Area, General Area, Internet Area, Operations and Management Area, Routing Area, Security Area e Transport Area) que usualmente são compostas por vários grupos de trabalho e coordenadas por 1, 2 ou 3 ADs, com exceção da General Area. Acima disso, há o IESG (Grupo Diretor de Engenharia da Internet) que em poucas palavras “ratifica ou direciona os resultados dos grupos de trabalho do IETF, define a criação e extinção de WGs [grupos de trabalho] e garante que os documentos produzidos fora dos WGs destinado a tornarem-se RFCs estão corretos” (Hoffman, [2004]: 23), atuando como uma espécie de corpo executivo do IETF. Esse grupo realiza suas atividades observando as dos grupos de trabalho a fim de que não haja inconsistência entre os protocolos do IETF. O AD da General Area é tanto presidente do IETF quanto do IESG, o qual é composto pela união dos demais ADs, o presidente executivo do IETF, o RFC Editor, um membro da IANA212, o presidente do IAB (Conselho de Arquitetura da Internet) e mais um membro do IAB. Para o momento, basta saber que o IAB

211 Para acessar os grupos de trabalho do IETF, cf.: . Acesso em 18 out. 2017. 212 Portanto, além da IANA armazenar os parâmetros de protocolos, ela possui uma cadeira no IESG.

215

está preocupado com o planejamento e a coordenação de questões que afetam a Internet a longo prazo, assume algumas supervisões e também possui uma visão global e abrangente da Internet. Acima do IETF está a organização sem fins lucrativos ISOC (Internet Society) e seu conselho. Ele estabelece as regras e procedimentos que o IESG deve seguir na gestão técnica das atividades do IETF. Ademais, a ISOC apoia e patrocina o IETF. Como se pode observar, a arquitetura que compõe o IETF se dá mediante uma hierarquia que em sua ponta se conecta com outras organizações, algo também presente na ICANN. E não se pode esquecer que na maioria das vezes os indivíduos que ocupam determinada posição nessa arquitetura são membros de empresas que podem influenciar na tomada de decisão do IETF213. Do ponto de vista administrativo do IETF, o responsável é o Comitê de Supervisão Administrativa do IETF (IAOC). Ele é composto por voluntários escolhidos direta ou indiretamente pela comunidade IETF e também por membros ex-ofício da direção do IETF e da ISOC. Um grupo de trabalho que é vinculado ao IETF, mas formalmente separado do mesmo é o IRTF (Internet Research Task Force). A fim de estabelecer uma comparação, pode-se dizer que o IETF se atém às questões relacionadas a padrões num curto prazo ao passo que o IRTF às de longo prazo. O IRTF se constitui através de vários grupos de pesquisa (RGs) sendo atualmente 10, como o CFRG (Crypto Forum Research Group) e o ICCRG (Internet Congestion Control Research Group). Essa força-tarefa é administrada pelo IRSG (Internet Research Steering Group), o qual se constitui pelo presidente do IETF, coordenadores dos grupos de pesquisa e membros ad hoc214. O IAB também supervisiona o IRTF. O Conselho da Arquitetura da Internet (IAB) é um comitê que tem uma preocupação global com a Internet no que concerne à sua arquitetura e protocolos. Entre suas atividades, destacam-se: “[f]ornecer supervisão arquitetônica de protocolos e procedimentos da Internet; estabelecer contatos com outras organizações em nome da Internet Engineering Task Force (IETF); Revisar recursos do processo de padrões da Internet; Gerenciar documentos de padrões da Internet (a série RFC) e atribuição de valor de parâmetro de protocolo; Confirmar o Presidente da IETF e os Diretores de Área do IETF; Selecionar o Presidente da Internet Research Task Force (IRTF); Atuar como fonte de recomendação e

213 Um exemplo disso pode ser verificado na composição atual do IESG através do seguinte link: . Acesso em 17 out. 2017. 214 Cf. membros do IRSG no seguinte link: . Acesso em 17 out. 2017.

216

orientação para a Internet Society”215 (IAB, [s.d.]: online). Além disso, o IAB foi incumbido de designar as tarefas relacionadas aos parâmetros de protocolos à IANA (Hoffman, [2004]). Ele também administra o TLD .arpa juntamente com a ICANN. Portanto, é um comitê essencial para a gI, atuando em comitês216. A ISOC tanto mantém quanto auxilia financeiramente o IAB. Ainda que esteja ancorado na ISOC, o IAB precede a existência daquela organização, pois foi criado em 1979 com outro nome: ICCB (Painel de Controle de Configuração da Internet). Esse comitê, formado pela DARPA quando a ARPANET foi estabelecida, tinha como meta supervisionar a ARPANET através de uma plataforma colaborativa. Os 10 membros que compunham o ICCB eram líderes de forças-tarefa de certa importância. Eles se reuniam algumas vezes por ano, tanto para discutir seus resultados quanto para dar retorno ao Departamento de Defesa norte- americano (DoD) e à NSF (National Science Foundation), pois eles financiavam as atividades do grupo. Quando um padrão era necessário, eles anunciavam as alterações para alunos de pós-graduação que eram responsáveis por parte significativa da arquitetura dessa rede. Essas comunicações se davam por meio dos RFCs. Em 1989, seu nome é modificado para IAB (Internet Activities Board) juntamente com suas atribuições que passavam a ser um pouco mais amplas, pois tornou-se responsável por manter pesquisadores envolvidos com a ARPANET (Tanenbaum e Wetherall, [1981]). E se até 1989 supervisionava várias reuniões de forças-tarefa, a partir desse ano se concentrou em duas: IETF e IRTF. Apenas em 1992 (ano em que a ISOC foi criada) o IAB fez a proposta de ter suas atividades supervisionadas pela ISOC (Hoffman, [2004]). Nesse processo, mudou seu nome para Internet Architecture Board. Hoje, os membros do IAB são eleitos pelo NomCom (Comitê de Nomeação) do IETF e aprovados pelo conselho administrativo da ISOC. O NomCom também é responsável pela eleição de membros do IESG217. Atualmente, o IAB é composto por 12 membros eleitos pelo NomCom, o presidente do IETF (também escolhido pelo NomCom), por alguns membros ex-ofício e membros de ligação com outras organizações (como membro do IESG e

215 [“[p]roviding architectural oversight of Internet protocols and procedures; Liaising with other organizations on behalf of the Internet Engineering Task Force (IETF); Reviewing appeals of the Internet standards process; Managing Internet standards documents (the RFC series) and protocol parameter value assignment; Confirming the Chair of the IETF and the IETF Area Directors; Selecting the Internet Research Task Force (IRTF) Chair; Acting as source of advice and guidance to the Internet Society”]. 216 Para cf. a lista de comitês nos quais o IAB atua, acessar: . Acesso em 18 out. 2017. 217 Sobre esse processo, cf. o RFC 7437 (Kucherawy, [2015]): IAB, IESG, and IAOC Selection, Confirmation, and Recall Process.

217

do RFC Editor)218. Laura DeNardis [2014] nos lembra que mesmo as bases do IETF se estabelecem a partir do ICCB, formado por pioneiros como Vinton Cerf e David Clark, colocando o IETF como uma instituição subsidiária em 1986. Além dessa ponta conectada com outras organizações, onde o IAB ocupa um local de proeminência, o IETF estabelece contato com outros atores que produzem padrões, como o IEEE (Instituto de Engenheiros Eletricistas e Eletrônicos), alguns subcomitês da ISO (Organização Internacional de Normalização), IUT (União Internacional de Telecomunicações), W3C (World Wide Web Consortium) e grupos menores, como OASIS (responsáveis pelo formato aberto de documentos .odf) e o CableLabs (especificações para modems a cabo) (Alvestrand e Lie, [2009]). Esse grande número de organizações se confundem num primeiro momento, dificultando a compreensão da interconexão entre eles. Diante disso, apresento o seguinte esboço com vistas a facilitar a conexão entre parte dos atores mencionados para compreendermos o IETF.

Fig. 5.7 – Organização do IETF (Bygrave e Michaelsen, [2009]: 100)

Os padrões tecnológicos do IETF ficam registrados nos RFCs desde 1969 e são adotados voluntariamente por sua qualidade técnica. Trata-se de recomendações que se tornam padrões por meio de sua implementação. Outro ponto importante para a difusão de um dado padrão é ele ser aberto. E o IETF preza pelos padrões abertos. Os padrões fechados acabam trabalhando no sentido oposto, pois inibem sua implementação. Destaco aqui alguns padrões mencionados na parte de arquitetura da rede e que são do IETF: IP, UDP, TCP,

218 Para informações aprofundadas sobre o IAB, cf. Hovey e Bradner [1996], Carpenter [2000] e IAB (online).

218

SMTP, HTTP, FTP e BGP. Como se pode observar, essa força-tarefa é responsável por protocolos que compõem a arquitetura básica da Internet. Segundo consta no RFC 3935 (Alvestrand, [2004]: online), a missão do IETF é: “[p]roduzir documentos técnicos e de engenharia relevantes e de alta qualidade que influenciam a forma como as pessoas projetam, usam e gerenciam a Internet, de maneira a fazer a Internet melhorar seu funcionamento. Esses documentos incluem padrões de protocolo, melhores práticas atuais e documentos informativos de vários tipos”219. Todos esses tipos de documentos fazem parte dos RFCs, os quais geralmente identificam problemas técnicos e operacionais na Internet e propõem soluções. No que se refere às tomadas de decisão no IETF, elas passam por um processo longo e amparado por consensos aproximados, incluindo as partes interessadas de igual para igual – embora se saiba que essa igualdade é relativa. Todavia, todos têm o direito de se expressar, fazer comentários e propostas que devem ser consideradas antes de alcançar uma resolução (Hoffman, [2004]). Caso haja algum conflito nessa tomada de decisão que segue o modelo bottom-up, os arbitrários finais são o IAB ou o conselho de curadores da ISOC (ISOC Board of Trustees). Segundo o TAO do IETF (Hoffman, [2004]: 21), algumas sentenças fundamentariam as “crenças” dos participantes do IETF, como “Nós rejeitamos reis, presidentes e votação. Nós acreditamos em um consenso aproximado e em código que funciona”, de David Clark; e outra de Jon Postel: “Seja conservador no que você envia e liberal no que você aceita”. Jon Postel foi um dos principais nomes dos RFCs, pois editou mais de 2500 desde 1969. Steve Crocker foi o inventor dos RFCs e administrou eles de 1969 a 1971 – inclusive publicou o primeiro RFC (Crocker, [1969]). Em 1971, ele deixou a UCLA para trabalhar na ARPA e pediu para Jon Postel – então pós-graduando – assumir o controle dos RFCs (SSAC, [2014]), tornando-se assim o RFC Editor. A ideia inicial dos RFCs era acompanhar o desenvolvimento da ARPANET220. Os RFCs eram utilizados para documentar os inúmeros parâmetros operacionais que caracterizam os protocolos de interconexão por um grupo de engenheiros de rede e designers de protocolos que se chamavam Network Working Group (NWG) (SSAC, [2014]). Com o tempo, os RFCs tomaram maiores proporções. Quando Jon Postel morre em 1998, Joyce Reynolds assume essa responsabilidade e depois expande para um grupo de pessoas fundando a Internet Society (ISOC) – sobre a qual disserto no próximo

219 [“[t]o produce high quality, relevant technical and engineering documents that influence the way people design, use, and manage the Internet in such a way as to make the Internet work better. These documents include protocol standards, best current practices, and informational documents of various kinds”]. 220 Cf. RFC 1 (Crocker, [1969]).

219

item. Esses documentos continuaram a ser divulgados seguindo uma ordem numérica de publicação que hoje ultrapassa o número de 8mil221. Os RFCs precedem em décadas o IETF, o qual iniciou suas atividades em janeiro de 1986 com 21 pesquisadores financiados pelo governo dos Estados Unidos sentados envolta de uma mesa na cidade de San Diego. Isso aconteceu no 4° encontro do grupo de trabalho GADS (Algoritmos de Borda e Estruturas de Dados), da DARPA222. Naquele tempo, a IBM dominava a conexão entre computadores com a família de produtos SNA (Arquitetura de Rede do Sistema) – um protocolo de rede da IBM criado em 1974 e que ainda hoje é utilizado por sistemas financeiros, bancos e inclusive governos. Dada a primazia da IBM, não havia interesse dessa empresa em fazer seu sistema de interconexão de computadores dialogar com computadores de outras marcas. No mesmo período, governos liderados pelos Estados Unidos queriam acabar com esse domínio, propondo algo aberto e com equivalente funcionalidade. Os pesquisadores responsáveis pelo desenvolvimento desse projeto foram os primeiros participantes do IETF (Alvestrand e Lie, [2009]). A partir do 4° encontro do IETF também em 1986, entidades não-governamentais foram convidadas a participar das suas conferências. Na reunião seguinte, estabeleceram o conceito de grupos de trabalho (GTs) e no 7° encontro tinham mais de 100 participantes (Hoffman, [2004]). São vários os tipos de RFCs, sendo que nem todos são padrões: padrões propostos; padrões da Internet; documentos de melhores práticas atuais (BCPs); documentos informativos; documentos experimentais; e documentos históricos. Portanto, apenas os dois primeiros tipos de RFCs são padrões. Um exemplo de RFC que não se configura como padrão é o RFC 1855 (Hambridge, [1995]), publicado em 1995 e que propõe práticas para o uso da Internet num momento em que ela começava a se alastrar223. Há ainda RFCs mais informais, como os publicados no dia 1° de abril. À guisa de exemplo, temos o RFC 1149 (Waitzman, [1990]), publicado no dia 1° de abril de 1990, que ensina como realizar a tramissão de datagramas via pombo correio numa rede metropolitana224. Portanto, um RFC não necessariamente é um padrão IETF225.

221 Para index com todos os RFCs, acessar: . Acesso em 17 out. 2017. 222 Para acessar o relatório original desse encontro, cf. Gross [1986]. 223 Esse documento é uma referência para entender fragmentos de uma espécie de arqueologia da conformação de “boas práticas” dentro da rede mundial de computadores, como é possível observar a partir do sumário do documento: “Introduction; One-to-One Communication; One-to-Many Communication; Information Services; Selected Bibliography; Security Considerations; Author's Address” (Hambridge, [1995]: online). 224 Há ainda mais um exemplo, o RFC 1607, de Vinton Cerf [1994], no qual declara ter recebido em 1993 uma carta vinda por uma capsula do tempo do ano de 2023. No link a seguir existe uma série de outros RFCs do dia

220

Um dos requisitos essenciais para a elaboração de uma especificação nos RFCs é sua clareza. Caso duas pessoas com conhecimento de área discordem quanto a interpretação de um documento, o mesmo teria um erro de especificação e demandaria sua revisão (Alvestrand e Lie, [2009]). Ademais, uma especificação deve ser aberta para que as pessoas possam utilizá-la, útil e deve funcionar. Para manter a qualidade de um documento RFC, ele passa por um procedimento rigoroso. E aquele que tenha a intenção de publicar um RFC deve ter em mente que é um longo processo tanto por via individual quanto coletiva, como coloca Hoffman ([2004]: 53):

1. Publicar o documento como Internet-Draft (Rascunho) 2. Receber comentários sobre o rascunho 3. Editar o I-D baseado nos comentários 4. Repetir, tanto quanto necessário, os passos de 1 a 3 5. Solicitar a um Diretor de Área que encaminhe seu projeto ao IESG (se for uma apresentação individual). Se o projeto é um produto oficial de um Grupo de Trabalho, o presidente do GT pedirá ao AD que o encaminhe ao IESG 6. Se o AD aceita o documento, eles farão a sua própria análise inicial e, talvez, perguntar-lhe se há atualizações antes de encaminhá-lo à próxima etapa 7. Obter revisões de participantes do IETF. Em particular, algumas das Áreas do IETF formaram equipes de revisão com o objetivo de examinar projetos que estejam prontos para serem encaminhados ao IESG. Duas das equipes de avaliação são mais ativas: a Direção de Segurança (“SecDir”) e o Equipe de Revisão da Área Geral (“Gen-Art”). Lembre-se que os comentários vindos das revisões certamente irão contribuir, em muito, na melhora da qualidade do eventual RFC 8. Discutir as suas preocupações com os membros do IESG. Suas preocupações podem ser resolvidas com uma resposta simples, ou podem precisar de alterações no documento 9. Espere que o RFC Editor publique seu documento226.

Esse processo pode acontecer a distância, mas é certo que conversas pessoais realizadas nos eventos corroboram para o desenvolvimento de um RFC. Como colocado, os encontros do IETF acontecem três vezes por ano. Neles, participantes dos diferentes GTs conseguem se encontrar, se relacionar. O mesmo acontece com voluntários de dado GT, o que fortalece a manutenção do grupo. Esses encontros duram uma semana, possuindo uma plenária técnica e outra administrativa. A primeira é organizada pelo IAB e a segunda pelo presidente do IETF. Uma característica das reuniões do IETF é que as pessoas não utilizam roupas formais, ao contrário do que geralmente acontece em encontros de gI – como nas reuniões da ICANN, IGF e eventos do CGI.br. Mas assim como em outros eventos, os encontros do IETF possuem

1° de abril: . Acesso em 17 out. 2017. 225 Sobre o fato de nem todos os RFCs serem padrões, cf. RFC 1596 (Huitema, Postel e Crocker, [1995]). 226 Caso seja de interesse, no capítulo de livro de título Development of Core Internet Standards, publicado por Alvestrand e Lie [2009], especificamente entre as páginas 130 e 131, há uma apresentação mais detalhada de como publicar um RFC.

221

reuniões para recém-chegados. Caso haja necessidade de votação, o IETF tende a se valer nos seus encontros do zumbido, de maneira que as pessoas não precisam levantar a mão e se identificar. Assim, é possível votar em prol do melhor para o desenvolvimento da Internet e não da empresa que determinada pessoa representa. No concernente aos valores, a taxa para participar fisicamente de todo o evento IETF 100 (realizado em novembro de 2017) era de U$700 ou U$150 para estudantes, ao passo que os eventos da ICANN, do CGI, o IGF, entre outros, são gratuitos. Assim como outros eventos, existe a possibilidade de participar dos encontros do IETF remota e gratuitamente. Geralmente esses valores são pagos pela empresa que financia a viagem de seu funcionário ou por organizações que estimulam a participação de interessados nos encontros presenciais oferecendo bolsas de auxílio – no Brasil, o NIC.br fomenta a participação brasileira nas atividades do IETF através desse tipo de suporte. O evento também é uma das etapas de participação do IETF, pois nos encontros físicos na gI é comum o networking, a troca de cartões de visita, etc., mas no trabalho realizado pelo IETF, esses encontros físicos tendem a ser secundários se comparado às listas de discussão, onde basta se cadastrar para participar, sem a necessidade de pagar taxas. Hoffman [2004] afirma que vários participantes sequer vão aos encontros presenciais. As listas de discussão são públicas, de modo que qualquer pessoa pode enviar mensagens para elas. Mas em algumas listas as mensagens de usuários não registrados são moderadas. Um participante pode ser banido da lista caso faça postagens que não estejam em conformidade com ela, como o envio de propagandas, solicitações, etc. Excetuando esses casos, não há moderação nas mensagens enviadas, pois as mensagens não precisam ser previamente aprovadas pelo coordenador ou coordenadores do grupo antes de serem encaminhadas a todos os participantes da lista. A partir dessa breve descrição e considerando o que foi colocado nos capítulos anteriores, é nítido que o IETF não domina a Internet, mas cria padrões que, embora adotados voluntariamente, compõem a métrica das interações de humanos e máquinas na rede mundial de computadores. Sua organização é aberta e possibilita o arranjo de um número substancial de voluntários e GTs sem que isso impacte na gestão dessa instituição. Ainda que se sustente em seus voluntários, o IETF se ancora em uma série de conexões com outras organizações de tamanho e relevância distintos que possuem em comum a preocupação com padrões e Internet, conexões essas que podem se estabelecer formalmente ou por meio dos participantes de seus GTs. E para a manutenção da vivacidade dessa instituição não bastam grupos de trabalho e organizações que a ela se vinculam: há uma estratégia política de sobrevivência técnica ao visar um escapismo de questões políticas, pois o IETF tenta não se envolver com

222

disputas no tocante a questões legais sobre padrões e patentes (Alvestrand e Lie, [2009])227, embora seja evidente que as escolhas do IETF possuem implicações políticas. O IETF é aberto e estimula a participação de novos atores, oferecendo manuais online para a compreensão de seu funcionamento – como é o caso do TAO do IETF228–, bolsas para participação de suas reuniões, entre outros. Contudo, essa abertura não impede a formação de barreiras à associação participativa com o IETF, através de impedimento econômico, burocrático, linguístico e técnico. O empecilho econômico se vincula à participação presencial das reuniões do IETF, as quais acontecem em diversas partes do mundo (como Singapura, Praga e Chicago) e demandam gastos variados que incluem a inscrição do evento – caso o participante não consiga nenhum tipo de financiamento. Como o processo de constituição de um RFC preza pela qualidade e um número significativo de atores capazes de fazer intervenções, esse procedimento pode ser cansativo e demorado a ponto de inibir o estabelecimento de um padrão, podendo se tornar em alguns casos uma jaula de ferro para o desenvolvimento de novos padrões229. É um preço que o IETF parece disposto a pagar para o desenvolvimento de seus padrões. No que concerne à barreira linguística, há o inglês. E o conhecimento técnico é necessário para compreender o que se discute nos espaços do IETF. Assim sendo, o IETF se apresenta como um espaço aberto que possui diversas condicionantes para ser permeado, possuindo seu próprio sistema de diferenciação. E dentro desse espaço, constituem-se elementos para a Internet funcionar logicamente, realizando uma sinergia entre o físico e o lógico dessa arquitetura, uma espécie de enlace da rede mundial de computadores230. E como dito, a ISOC aparece acima do IETF, fomentando e financiando seu funcionamento.

5.4 – ISOC e W3C A ISOC (Internet Society) é uma organização sem fins lucrativos que tem como meta o desenvolvimento aberto, a evolução e uso da Internet fomentando o incremento de

227 “Much of the IETF's procedure, where it touches on legal issues, has been focused on not making the IETF a party to any dispute. So far, this has worked very well. The IETF has been subpoenaed for material in multiple court cases involving standards and patents, but has never been named as a defendant in a court case” (Alvestrand e Lie, [2009]: 135). 228 A versão atual do TAO em língua portuguesa e espanhola faz parte de um livro lançado recentemente no Brasil com apoio do CGI.br, O livro do IETF (Braga [et al.], [2014]), disponível em: . Acesso em 18 out. 2017. 229 Tim Berners-Lee [2000] oferece um exemplo desse processo em sua obra Weaving the Web ao descrever sua trajetória na tentativa de tornar o padrão URI um RFC. 230 Para aprofundamento do conhecimento acerca do IETF, recomendo Hovey e Bradner [1996], Hoffman [2004], e Alvestrand e Lie [2009].

223

padrões, iniciativas educacionais e políticas públicas relacionadas à Internet (ISOC.org.br). Nesse sentido, sua atenção abrange questões sociais, políticas e técnicas sobre a Internet, propiciando a interação entre governos, empresas e diversas entidades para que a Internet seja acessível a todos. Uma das maneiras que encontra para alcançar seu objetivo acerca dos padrões é através do suporte financeiro, administrativo e jurídico a uma série de organizações, como o IETF. Nesse sentido, protege os desenvolvedores do IETF contra danos potenciais decorrentes do desenvolvimento de padrões. Em realidade, a ISOC serve como uma proteção do IETF, IESG e IAB. Ela foi fundada em 1992 sob os auspícios da corporação norte americana CNRI (Corporação para Iniciativas Nacionais de Pesquisa), tendo como presidente-fundador Vinton Cerf. Uma das primeiras motivações para a constituição dessa sociedade era servir como uma espécie de guarda-chuva para o desenvolvimento de padrões da Internet, o que foi e continua sendo fundamental para proteger desenvolvedores de padrões contra ações judiciais. A ISOC também é responsável por ratificar esse processo de padronização. Ela financia o cargo de RFC Editor e possui os direitos autorais dos RFCs publicados. Ela trabalha inclusive como um canal de relações públicas quando um dos grupos para os quais oferece suporte tem algo a declarar à imprensa (Hoffman, [2004]). Por outro lado, Alvestrand e Lie ([2009]: 135) afirmam que sua atividade é tímida na área de desenvolvimento de padrões, pois: “[a] Internet Society não desempenha papel algum no processamento de normas; seu envolvimento na seleção da liderança somente se dá na ‘aprovação’ das propostas da NomCom para membros do IAB; e seu único envolvimento na elaboração de regras operadas pelo IETF se dá por meio de uma declaração cuidadosamente redigida em que o Conselho de Diretores da ISOC observa que o IETF muda suas regras sempre que isso acontece”231. A ISOC é composta por membros que podem ser tanto individuais quanto organizacionais, votantes ou não votantes. Entre os membros organizacionais, temos: ICANN, Cisco, Ericsson, Nokia, Symantec, AT&T, Microsoft, Google, Mozilla, Verizon, Facebook, CERN, CableLabs e Amazon. Ela é administrada por um comitê eleito pelos seus membros e por indicações do IETF. Essa sociedade se organiza através de capítulos regionais espalhados pelo mundo e, em alguns casos, existe mais de um capítulo por país. São mais de 100 capítulos espalhados pelo mundo. E cada capítulo tem seu estatuto fundamentado nas

231 [“[t]he Internet Society plays no role at all in the processing of standards; its only involvement in the selection of the leadership is the ‘approval’ of the NomCom's proposals for IAB members; and its only involvement in the making of the rules by which the IETF operates is a carefully worded statement that the ISOC Board of Directors observes that the IETF has changed its rules whenever that happens”].

224

diretrizes da ISOC ao mesmo tempo que cada estatuto reflete as preocupações da região na qual o capítulo se encontra. No Brasil, o NIC.br apoia tanto financeira quanto operacionalmente o capítulo da ISOC. O capítulo brasileiro existe desde 1998 e corrobora com o desenvolvimento da Internet no país. Hoje, ele possui mais de 1300 membros – incluindo votantes e não votantes. Um exemplo da presença do CGI.br/NIC.br na ISOC Brasil é que parte de sua diretoria executiva é do CGI.br ou trabalha no NIC.br. O site da ISOC Brasil é hospedado pelo Instituto NUPEF (Núcleo de Pesquisas, Estudos e Formação), cujo atual diretor executivo é presidente da ISOC Brasil e foi durante vários mandatos da diretoria do CGI.br. Outra entidade que o NIC.br também auxilia é o W3C, a partir de um escritório brasileiro dessa instituição, levando a frente alguns projetos da W3C global. A W3C é uma instituição de envergadura para o desenvolvimento da web e sobre a qual disserto nos próximos parágrafos. O Consórcio World Wide Web (mais conhecido como W3C) é uma união de empresas e outras entidades que trabalham com protocolos da web. Conforme colocado em capítulo anterior, a web vincula-se à camada de aplicação e, para funcionar, precisa articular protocolos que dependem de camadas anteriores. Entre várias outras atividades, o W3C tenta garantir que os protocolos utilizados na web executem suas funções devidamente para a web em si funcionar. Para isso, o consórcio oferece orientações e especificações técnicas que facilitam o aprimoramento e desenvolvimento da web a longo prazo (W3C.org). E assim como o IETF, o W3C faz recomendações quanto aos protocolos, podendo ser ou não implementadas por seus usuários. As recomendações do W3C cobrem as seguintes temáticas: web design e aplicações – padrões para o desenvolvimento de páginas web, incluindo o HTML; arquitetura web – princípios e tecnologias web, como URI e HTTP; Web semântica – desenvolvimento de pesquisa em bancos de dados por meio da web, espécie de extensão da WWW que permite humanos e máquinas trabalharem em cooperação, conseguindo atribuir significado de palavras de modo que elas passam a ser inteligíveis por humanos e máquinas; tecnologia XML (eXtensible Markup Language) – responsável por estabelecer infraestrutura comum para diversas linguagens, espécie de ponto de junção; web services – projeto de comunicação entre aplicações na web que se baseiam em tecnologias como HTTP e XML; Dispositivos web – acesso à web por dispositivos móveis; e navegadores e ferramentas de autoria – navegadores, mecanismos de busca e ferramentas proprietárias (W3C.org). Como no IETF, o W3C trabalha suas recomendações a partir do consenso, dando espaços para as vozes que queiram se posicionar sobre dada recomendação. Vale lembrar que tanto o HTML (HyperText

225

Markup Language) quanto o XML (eXtensible Markup Language) são “markup languages”, ou seja, fornecem especificações comuns que podem interpretar os dados e exibi-los no navegador web. Isso é fundamental para tornar a web acessível aos softwares, hardwares, línguas e infraestruturas de rede (W3C.org). Esse consórcio foi estabelecido por Tim Berners-Lee em 1994, no MIT, através do acordo entre MIT e CERN (Organização Europeia para Pesquisa Nuclear, na qual Berners- Lee realizou os primeiros passos com a web)232, um ano depois da web se tornar de domínio público233. Conforme o tempo, várias organizações passaram a compor o quadro de membros do W3C, o que facilitou a divulgação e certa hegemonia de suas recomendações para a web. Atualmente, o W3C possui cerca de 500 membros que pagam uma taxa anual proporcional, a qual considera a receita anual de cada organização, seu tipo e localização da sua sede. Nesse sentido, enquanto uma companhia pequena na Índia poderia pagar 2000 dólares, uma empresa grande na França teria uma taxa anual de 60000 euros (W3C.org). O estabelecimento de um consórcio com a finalidade de lidar com a web foi um passo importante no sentido de atingir o objetivo inicial com a web: “um meio universal para compartilhamento de informação” (Berners-Lee, [1999]: 84). Pois ao criar um consórcio, o W3C pode assumir uma perspectiva de neutralidade diante de embates comerciais ao mesmo tempo em que tem condições de influenciar nas direções técnicas da web (Berners-Lee, [1999]: 84). Assim como o IETF, o W3C é contrário às patentes na medida em que isso atravanca a abertura da web. Um exemplo disso é sua primeira recomendação ter sido sobre a especificação PNG, em 1996 (Boutell, [1996]). O PNG é um formato de imagem que recebeu o endosso do W3C para substituir o formato de imagem proprietário GIF234, o qual é largamente utilizado na web. Esse consórcio reforça essa ideia afirmando em sua Política de Patentes que “o W3C não irá aprovar uma Recomendação caso estiver ciente de que existem

232 Embora Berners-Lee tenha desenvolvido a web no Reino Unido, a sede do W3C foi os Estados Unidos porque – conforme relata em sua obra Weaving the Web [1999] – este país era uma espécie de epicentro do desenvolvimento da Internet, um centro gravitacional da Internet, concentrando as principais entidades envolvidas com a rede mundial de computadores. Isso reafirma a relevância dos EUA no desenvolvimento da Internet. No concernente ao W3C, o governo norte-americano forneceu uma capital inicial para esse projeto que contribuiria com a união entre pesquisa acadêmica e indústria (Berners-Lee, [1999]). 233 O documento que torna a web pública está disponível em: . Acesso em 1 nov. 2017. 234 Como colocam no documento PNG (Portable Network Graphics) Specification: : “[e]sse documento descreve o PNG, um formato de arquivo extensível para o armazenamento sem perdas, portátil e bem compactado de imagens raster. O PNG fornece um substituto livre de patente para o GIF” (Boutell, [1996]: online). [“[t]his document describes PNG, an extensible file format for the lossless, portable, well-compressed storage of raster images. PNG provides a patent-free replacement for GIF”].

226

Reivindicações Essenciais que não estão disponíveis nos termos de Isenção de Royalties”235 (Weitzner, [2004]: online). Essa filosofia de trabalhar com padrões abertos acaba por reverberar na organização do consórcio. Embora Tim Berners-Lee ainda permaneça como o diretor do W3C, os membros do consórcio são variados, como organizações acadêmicas, organizações sem fins lucrativos e empresas corporativas. Entre os membros mais engajados estão as grandes empresas que constroem softwares web e hospedam grandes websites, como Google, Microsoft e Facebook. Há outros nomes relevantes, desde provedores de conteúdo (Netflix) até a maior biblioteca do mundo (Biblioteca do Congresso dos Estados Unidos). Em termos administrativos, o W3C tem 4 instituições hospedeiras: MIT, ERCIM, Keio University e Beihang University. Os funcionários do W3C se espalham por essas 4 instituições cuidando dos temas relacionados ao W3C e são liderados pelo diretor do consórcio W3C e auxiliados pelo diretor de operações. Além disso, há escritórios regionais que contribuem com o âmbito internacional da organização, facilitando a aproximação entre o consórcio e a sociedade236. Em termos de processo, o W3C conta com o Comitê Consultivo, composto por um representante de cada membro do consórcio, responsável por papeis de revisão e padrões. Ele também elege o Conselho Consultivo e o TAG (Grupo de Arquitetura Técnica). O Conselho Consultivo orienta os funcionários e membros em variados assuntos (estratégicos, legais, gerenciamento, etc.), lidando com questões que surgem no período entre as reuniões do Comitê. Já o TAG está preocupado com a administração da arquitetura da web. No que diz respeito ao espectro de influência no W3C, os membros podem utilizar os encontros do Comitê Consultivo que se reúne para lidar com pontos estratégicos com os quais a W3C esteja lidando e estabelecer orientações para os próximos passos dos funcionários e integrantes do W3C. Os membros também podem se valer dos encontros TPAC (Plenária Técnica / Comitê Consultivo), encontro onde integrantes de grupos de trabalho se reúnem para discutir questões das quais fazem parte e a interação entre esses grupos. Os grupos de trabalho funcionam basicamente a partir de listas de e-mail, conferências e encontros presenciais. Ainda que o W3C tenha relevância no desenvolvimento da web com padrões bem-sucedidos ancorados no livre – como o XML (utilizados também pelos pacotes Microsoft Office e OpenOffice) e o HTML –, ele não é hegemônico. Existe uma série de

235 [“W3C will not approve a Recommendation if it is aware that Essential Claims exist which are not available on Royalty-Free terms”]. 236 Cf., por exemplo, o trabalho desempenhado pela W3C Brasil em: . Acesso em 19 out. 2017.

227

especificações que não estão sob o controle do W3C, como é o caso de a maioria das imagens da web serem nos formatos GIF e padrão JPEG (Joint Photographic Experts Group). Ademais, Alvestrand e Lie [2009] apontam que muitas especificações do W3C não são empregadas corretamente ou mesmo não são utilizadas completamente – como acontece no HTML em que a grande maioria dos documentos escritos nesse padrão não seguem suas especificações. É visível a ressonância da filosofia do livre tanto no IETF quanto no W3C. Isto nos remete aos movimentos dados para a construção da Internet há décadas atrás. Numa comparação entre IETF e W3C, ambos buscam o consenso aproximado nas tomadas de decisão. Todavia, o grau de abertura à participação do IETF tende a ser maior no concernente à questão econômica por não ser necessário o pagamento de taxa anual – embora essa taxa seja proporcional às condições dos membros. Além disso, o IETF não possui membros, sendo mais rizomático do que o W3C, embora esse consórcio tenha sido inspirado pelo IETF. Nas palavras de Tim Berners-Lee ([1999]: 92):

Eu queria que o consórcio funcionasse em um processo aberto como o do IETF, mas que fosse mais rápido e mais eficiente, pois teríamos que nos mover rapidamente. Também queria uma atmosfera que permitisse aos indivíduos, representando suas empresas ou organizações, expressar suas ideias pessoais e encontrar formas de alcançar um consenso. Sempre haveria pessoas que discordariam, as quais seriam alavancas para o progresso. Aproximaríamos cada vez mais do verdadeiro consenso, talvez nunca o alcançando, mas nos deleitando a cada avanço237.

Desde os capítulos anteriores sabemos que a Internet não pode se circunscrever a protocolos e muito menos aos atores responsáveis pelo desenvolvimento dos mesmos. De todo modo, é evidente que essas instituições abrangem parte da Internet. Dada a complexidade de compreensão da Internet numa linha temporal, tomo a seguinte linha do tempo para facilitar esse entendimento e a constituição das instituições responsáveis por sua governança no setor de padrões238.

237 [I wanted the consortium to run on an open process like the IETF’s, but one that was quicker and more efficient, because we would have to move fast. I also wanted an atmosphere that would allow individuals, representing their companies or organizations, to voice their personal ideas and find ways to reach common understanding. There would always be people who would disagree, and they would be levers for progress. We would get ever closer to true consensus, perhaps never completely achieving it, but delighting in every advance]. 238 Para acesso a outra linha do tempo feito pelo Internet hall off fame, cf.: . Acesso em 1 nov. 2017.

228

Fig. 5.8 – Linha do tempo da Internet e suas instituições (Leiner et al., [1997]: online)

5.5 – Outros atores e conflitos Embora essa linha do tempo se desenvolva de um ponto de vista restrito, os escritos realizados neste trabalho facilitam a demarcação do corte dessa linha em um trançado de relações que constituem a Internet. Diante disso, deve-se ter em vista que existem vários outros organismos de padronização que afetam essa rede de redes. Menciono brevemente o ISC (Internet Systems Consortium), o IEEE e o UIT-T. O ISC é uma instituição que geralmente não é mencionada. Esse consórcio foi fundado em 1994 para manter o BIND, software de código aberto que suporta o DNS. O ISC também é operador do servidor-raiz F e participa do SSAC. Mais conhecido como I3E, o Instituto de Engenheiros Eletricistas Eletrônicos é uma organização sem fins lucrativos fundada nos Estados Unidos no ano de 1963 com a junção do Instituto Americano de Engenheiros Elétricos (AIEE) e do Instituto de Engenheiros de Rádio (IRE). Mas a base do I3E devém de 1884, com a criação do AIEE – momento em que a eletricidade passou a ter maior presença na sociedade. Essa instituição é considerada a maior organização técnica profissional do mundo. O I3E tem como foco a elétrica, eletrônica, comunicação, engenharia da computação, ciência da computação e informação tecnológica. No âmbito da Internet, destaca-se o trabalho realizado pelo I3E em facilitar a conexão de dispositivos à rede mundial de computadores, possuindo grupos de trabalho sobre padronização em engenharia elétrica e computação. Os exemplos de padrões do I3E são retirados dos capítulos anteriores: padrão para redes locais sem fio (IEEE 802.11);

229

desenvolvimento da arquitetura Ethernet (IEEE 802.3); Bluetooth (IEEE 802.15.1); e inclusive o I3E é responsável pela distribuição de endereço MAC. Embora a UIT seja vinculada à ONU, ela se estabelece como o resultado de um órgão constituído em 1865 por governos europeus para cuidar da padronização de telecomunicações internacionais que na época era pautado no telégrafo. Quando o telefone passa a ser utilizado, esse órgão também faz sua padronização internacional. Apenas em 1947 que a UIT se tornou agência das Nações Unidas, sendo uma entidade coordenadora global no setor de telecomunicações. O Setor de Padronização de Telecomunicações (UIT-T) se concentra no telefone e sistemas de transmissão de dados, criando padrões para telefone, telégrafo e interface de comunicação239. O problema no caso do UIT-T é a dificuldade de implementar seus padrões por tomar certas premissas hierárquicas que tenderiam a inibir o uso dos padrões nas mais diversas aplicações, prejudicando a ressonância deles na rede mundial de computadores (Bygrave e Michaelsen, [2009]). Acontece algo semelhante com a ISO (International Organization for Standardization), sendo que ela e o UIT-T realizam trabalhos conjuntos na área de padronização das telecomunicações. A UIT segue uma tradição de relações intergovernamentais – algo que influi em suas votações –, mas tende à criação de instâncias com maior equilíbrio entre as partes interessadas, inclusive disponibilizando cadeiras para a sociedade civil em alguns de seus eventos. Como cada nação representa um voto, existe certa preocupação com o papel que países considerados repressivos podem assumir em instâncias como essa. O IEEE e a UIT seguem uma relação proprietária com os padrões, fogem de certo modo de práticas que inspiram, por exemplo, o W3C que oferece acesso livre a suas recomendações. Portanto, assim como uma filosofia do “aberto” influencia a organização de uma instituição, com o “fechado” não é diferente. Por exemplo, é necessário pagar para utilizar os padrões do IEEE. O I3E tem uma loja online para a venda de seus padrões, a IEEE Standards Store240 Ainda que se empenhe em atuações relacionadas à Internet, os conflitos entre atores que surgem com o desenvolvimento da Internet e os das telecomunicações são presentes, tanto em âmbito internacional quanto nacional. Sabemos que o telégrafo e órgãos que o regulamentavam surgiram décadas antes da Internet. Uma entidade como a UIT conseguiu avançar de um grupo internacional que lidava com o telégrafo assumindo um raio

239 Cf. lista com as áreas dessas recomendações disponível em: . Acesso em 20 out. 2017. 240 Cf. site a partir do seguinte link: https://www.techstreet.com/ieee. Acesso em 20 out. 2017.

230

de ação global, mas com o processo de convergência digital esse órgão não foi capaz de seguir o fluxo. Outras instituições mais especializadas surgiram e ocuparam esse novo campo de atuação na gestão da Internet, em sua governança, adotando práticas que destoam do modelo multilateral comumente aplicado pelas teles nas relações internacionais. As tentativas da UIT de assumir maior espaço de decisão na Internet não foram bem-sucedidas até o momento, sendo que elas se iniciaram antes mesmo da criação da ICANN (Kleinwätcher, [2000]). Um ponto que pesa é a distinção entre os modelos utilizados para a gestão, um embate entre multilateralismo e multissetorialismo, onde passar do multissetorialismo ao multilateralismo geralmente é assumido como um retrocesso àqueles que hoje dominam a gI ancorados no modelo multissetorial. No que diz respeitos às investidas desse braço da ONU, Diego Canabarro coloca que “[a] UIT sempre procurou advogar um maior espaço nas decisões relativas à Internet, especialmente por tratar-se de um espaço de articulação multilateral para as questões técnicas referentes às telecomunicações internacionais” (Canabarro, [2014]: 187). Nesse cenário com investidas por parte da UIT para ganhar mais espaço na gI, é hegemônica a postura de defender a manutenção das relações na gI pautadas no multissetorialismo – inclusive a transição da função IANA expressa essa autonomização do multissetorial. Contudo, friso que a própria ONU levou uma visão multissetorial para a ECO-92, abrindo espaços de diálogo ao trazer atores da sociedade civil e outros setores para participar dessa conferência sediada no Rio de Janeiro. No Brasil também há conflitos acerca da inserção do setor de telecomunicações na governança da Internet. Um dos acontecimentos que limitaram a Anatel de ocupar maior espaço na gI até o momento é a Norma 4 que, como dito, precede a existência da própria Agência Nacional de Telecomunicações. Essa norma separa a Internet das telecomunicações ao compreendê-la como um serviço oferecido pela camada lógica se servindo da infraestrutura de telecomunicações. Isso impediu tanto o monopólio da Embratel na época quanto a posse pela Anatel dos serviços realizados pelo CGI.br. Já o Marco Civil da Internet aparece como outro documento que não traça um vínculo direto entre Internet e telecomunicações. O único momento em que a Anatel é mencionada diz respeito à neutralidade da rede, no Art. 9º, § 1º: “A discriminação ou degradação do tráfego será regulamentada nos termos das atribuições privativas do Presidente da República previstas no inciso IV do art. 84 da Constituição Federal, para a fiel execução desta Lei, ouvidos o Comitê Gestor da Internet e a Agência Nacional de Telecomunicações” (Brasil, [2014]: online). Embora a Anatel tente alçar voos em direção à gI, ela se mostrou inepta para fazer valer os próprios regulamentos, tanto pelo fato de seu financiamento ser abaixo do que havia

231

sido previsto, quanto porque empresas de telecomunicações poderosas exercem considerável influência na agência e no Ministério das Comunicações (Knight, [2014]). Para além disso, experiências recentes envolvendo a constituição do Marco Civil da Internet deixaram evidente o alinhamento da Anatel ao que é proposto pelas empresas de telecomunicações, clarificando sua suscetibilidade às influências dessas empresas. Ainda na esteira do Marco Civil para refletirmos sobre o conflito entre telecomunicações e Internet no Brasil, especificamente no debate antes do Marco Civil se tornar lei, o então ministro das Comunicações, Paulo Bernardo, defendeu que a Anatel deveria ser a responsável pela regulamentação da Internet no Brasil. Essa defesa era fortemente estimulada pelas empresas de telecomunicações. Outro fator que resiste a essa investida da agência é que o atual modelo do CGI.br é, como colocado, tomado como referência internacional, possuindo significativa legitimidade. Isso pode estimular modificações nesse modelo, mas não a substituição dele por outro ou mesmo a entrada da Anatel como órgão central para a gI no Brasil. Por outro lado, as telecomunicações não podem ser vistas como apartadas do gI. Um exemplo disso é o fato de haver entre os membros do CGI.br representantes das telecomunicações. Os conflitos advindos desse entrecruzar de relações entre as telecomunicações e atores que se estabelecem com o desenvolvimento da Internet é algo que a altera, de modo que as partes interessadas devem estar atentas às potências de alteração. No Brasil, o Estado brasileiro afirmava desde o final de 2016 a intenção de modificar o CGI.br e o Marco Civil da Internet, algo que não foi recebido de modo positivo em âmbito internacional (Grossmann, [2016]). Ainda assim, o Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC) abriu uma consulta pública no dia 8 de agosto de 2017 para alterar o CGI.br. O representante do MCTIC e então coordenador do CGI.br (Maximiliano Martinhão) sequer avisou com antecedência os conselheiros do Comitê sobre essa consulta pública para a modificação do CGI.br. Nem mesmo o Comitê soube de modo formal e prévio pelo MCTIC sobre essa intenção. Nota-se que essa prática do governo assume um posicionamento vertical, especialmente ao considerarmos o modelo frequentemente seguido em instâncias de gI. O ponto não é a modificação em si do CGI.br, mesmo porque o Comitê não é perfeito e qualquer instituição precisa se atualizar para continuar existindo. A questão é a verticalidade adotada pelo Estado e a evidência da fragilidade do CGI.br frente a flutuações políticas do Estado brasileiro, mostrando a necessidade de estabelecer elementos que resguardem o CGI.br dessas oscilações. Portanto, é mister a presença de um corpo de atores atuantes, atentos a tais inconstâncias e dispostos a lidar com essas questões. Quanto a isso, deve-se lembrar que o

232

CGI.br tem a própria escola, de modo que ajuda na formação de pessoas que tendem a ver sentido em sua dinâmica e mesmo a defendê-la. Os conflitos são inevitáveis onde uma multiplicidade quer constituir um único discurso que a represente, onde o múltiplo precisa tomar decisões. E na governança da Internet não é diferente a partir das tentativas de estabelecer pontos em comum entre um grupo de atores, onde a criação de um domínio, como .amazon, ou mesmo a criação de encurtadores por meio dos quais um link da web pode se tornar curto, como ser encurtado para , podem gerar uma série de conflitos envolvendo atores ao redor do mundo241. Um dos espaços em que os conflitos se tornam mais evidentes para o público são nos eventos que essas entidades realizam. Além deles, destaco aqui o NETmundial e o IGF, sendo este o resultado de um longo processo da comunidade internacional discorrendo sobre gI sob os auspícios da ONU. Os conflitos se apresentam aqui como uma maneira de transmutar a realidade (objeto, instituição, normas, padrões) em conformidade com aquilo que se quer ver da realidade. Num espaço onde há inúmeros atores com visões distintas do real, existe um conflito para a transmutação da realidade, onde aquele com maiores condições consegue alcançar – ao menos parcialmente – seus objetivos. Mas deve-se considerar que os demais atores tendem a influir também nessa realidade em construção, especialmente se estivermos falando de um espaço em que a desigualdade de poder de transformação não seja tão grande assim. Assim sendo, a realidade se constitui a partir desse compósito de ideias e desejos de mudança considerando aquilo que se entende como ela deve se constituir. Esse processo é contínuo e tende a mudar o real na medida em que esse quantum entre os atores se altera e de acordo com a alteração dos próprios atores. É certo que esses conflitos se relacionam ao real (contexto) e ao objeto que, dado esses conflitos, está sempre em transformação. Com essa apresentação, encerro um circuito entre atores e eventos relevantes para a governança da Internet.

5.6 – IGF e NETmundial A Cúpula Mundial sobre a Sociedade da Informação (CMSI) foi uma das primeiras tentativas de maior envergadura em que governos tentaram construir um espaço

241 Em nota anterior, faço referência ao embate entorno do gTLD .amazon. No que diz respeito aos encurtadores, tem um caso muito interessante com o ccTLD .ly, do Líbano, apontado por Christian Sandvig [2013] em The Internet as Infrasctructure, texto presente no The Oxford Handbook of Internet Studies (Dutton, [2013]). Além de dissertar sobre o valor comercial dos encurtadores, Sandvig evidenciou como a mudança de governo no Líbano em 2011 afetou o modelo de negócios de encurtadores que utilizavam o .ly como sufixo.

233

para refletir sobre a governança da Internet envolvendo outros setores. Sua realização foi aprovada em dezembro de 2001 na Assembleia Geral da ONU242. Essa Cúpula patrocinada pela ONU realizou-se por meio de dois eventos, o primeiro aconteceu em 2003, na Genebra, e o segundo em 2005, na cidade de Tunes. A Cúpula foi formada para ser um espaço de reflexão sobre como as TICs poderiam contribuir com o crescimento econômico e social de países em desenvolvimento e menos desenvolvidos, onde uma das questões era lidar com a exclusão digital. Para essa discussão foram reunidos representantes de governos, setor privado e sociedade civil. Como se sabe, um número restrito da população mundial tinha acesso à Internet em 2003243, de maneira que a Cúpula teve também um caráter introdutório na compreensão desse meio de comunicação. Os resultados da CMSI foram, entre outros, o estabelecimento de um fórum aberto e multissetorial para discussões sobre as questões levantadas acerca da Internet e sua governança, e o Fórum de Governança da Internet (IGF) – o qual tem se realizado anualmente. Nesse sentido, a CMSI foi um ambiente de confluência para discutir e aparar arestas da gI, um ponto de concordância que – como mencionado – possibilitou uma definição largamente aceita de governança da Internet por meio do Grupo de Trabalho sobre Governança da Internet (GTGI), no momento em que os governos perceberam as implicações no papel desempenhado pela ICANN sob a tutela do governo norte-americano (Kleinwätcher, [2007]). Concordo com a afirmação feita por Hubbard e Bygrave ([2009]: 213) de que a CMSI foi “um dos mais ambiciosos compromissos internacionais para resolver o atrito em relação à governança da Internet”244, composto não apenas por essas duas reuniões, mas por uma série de workshops, conferências regionais, entre outros eventos, que ampliaram a arena de discussão e a heterogeneidade de atores e discursos sobre a gI. Mas isso não garantiu na época a descentralização na gestão da zona raiz pelo governo dos Estados Unidos. Pelo contrário, ele reforçou seu papel no desempenho da função IANA. Além disso, a CMSI contribuiu para que o multissetorialismo se tornasse legítimo e dominante. E a gI passou a fazer parte da agenda diplomática245.

242 Cf. aprovação na Resolução 56/183. Disponível em: . Acesso em 1 nov. 2017. 243 A guisa de exemplo, em 2003, 12% da população mundial tinha acesso à Internet. No Brasil, eram 13%, ao passo que nos Estados Unidos 62%. Dados disponibilizados pela UIT em: . Acesso em 25 out. 2017. 244 [“[o]ne of the most ambitious international undertakings to resolve friction regarding governance of the Internet”]. 245 Um exemplo da relevância da gI na CMSI está presente no parágrafo 63 do documento da Agenda de Tunes. Pois nesse parágrafo defendem a soberania em ccTLDs, um envolvimento de certa esfera da arquitetura da

234

No que concerne à sociedade civil, a Cúpula conseguiu unir diversos atores que estavam desarticulados. É certo, porém, que a união em grande escala de membros com perspectivas distintas e vindos de diferentes partes do mundo gerou tensões discursivas, dificuldades para o encaminhamento de questões por parte da sociedade civil e mesmo problemas com a representatividade246. Mas o processo de embates propiciado pela CMSI chegou a resultados, como colocado, sendo o IGF apenas um deles. O Fórum de Governança da Internet reúne todos os anos uma infinidade de atores e mesas sobre variados assuntos para discutir políticas da Internet247, entre eles estão também ICANN, CGI.br, IETF, ISOC e W3C. O primeiro IGF aconteceu em 2006, na cidade de Atenas, seguindo o modelo multissetorial. O modelo foi visto como inovador na política internacional. E ainda que fosse um evento da ONU, não seguiu a estrutura organizacional dos eventos dessa organização. Pois não possuía lugares físicos e de fala reservados a pessoas especiais, de maneira que os setores presentes no Fórum estavam entre iguais (Kleinwätcher, [2007]) – é certo que essa igualdade é relativa, onde geralmente determinados agentes são “mais iguais” do que outros. A agenda do Fórum foi elaborada tocando nas seguintes temáticas: diversidade, abertura, acesso e segurança. Hoje, os temas percorrem áreas como acesso e diversidade; boas práticas; recursos críticos da Internet; cibersegurança; questões emergentes; problemas de gênero e juventude; e direitos humanos online. Essas temáticas estão em consonância com o que é debatido sobre a Internet, de modo que alguns problemas podem emergir ou submergir no devir dos fóruns. A proposta inicial era do IGF durar apenas 5 anos, mas desde então sua realização tem acontecido anualmente.

Internet pelos Estados não aceitando a intervenção de outros na gestão do ccTLD de cada país: “Os países não deveriam se envolver em decisões relacionadas ao domínio de topo do código de país (ccTLD) de outro país. Seus interesses legítimos, expressos e definidos por cada país de diversas formas, em relação às decisões que afetam seus ccTLDs, precisam ser respeitados, mantidos e tratados por meio de uma estrutura e mecanismos flexíveis e aprimorados” (CMSI, [2005]: 81). [“Countries should not be involved in decisions regarding another country’s country-code Top-Level Domain (ccTLD). Their legitimate interests, as expressed and defined by each country, in diverse ways, regarding decisions affecting their ccTLDs, need to be respected, upheld and addressed via a flexible and improved framework and mechanisms”]. 246 Para maiores detalhes sobre a CMSI, cf., entre outros, Mueller [2010]; e Möller e Amouroux [2007]. 247 A dimensão de gI presente no IGF é significativamente ampla. No site do IGF é colocado que “[o] IGF é um fórum de diálogo multissetorial sobre questões de políticas públicas relacionadas a elementos-chave de assuntos da governança da Internet, como a sustentabilidade, solidez, segurança, estabilidade e desenvolvimento da Internet” (Intgovforum.org, [s.d.]: online). [“[t]he IGF is a forum for multi-stakeholder dialogue on public policy issues related to key elements of Internet governance issues, such as the Internet’s sustainability, robustness, security, stability and development”]. Dentro desse parâmetro entra uma série de debates que podem ser conferidos, por exemplo, no cronograma do IGF de 2016, realizado na cidade de Jalisco, no México. Cf. o cronograma a partir do seguinte link: . Acesso em 25 out. 2017. Sendo assim, a noção de governança da Internet adotada pelo IGF extrapola os limites colocados nesse trabalho.

235

Diversas críticas ao Fórum decorrem do fato de ele não ser um espaço de tomada de decisão, sendo considerado um lugar para conversas sem o alcance de resultados. Mas ainda que não seja uma esfera para deliberações, o IGF é relevante na discussão sobre políticas relacionadas à Internet na medida em que consegue realizar o encontro de atores com posicionamentos controversos, mas que de alguma maneira influem no desenvolvimento da Internet e acreditam na importância de sua governança. Por conta disso, o evento estabelece um canal de troca entre os atores da gI, atuando como uma espécie de ponto de troca de tráfego de uma rede de humanos. Isso facilita na identificação dos agentes que compõem a complexa trama da gI; compreensão do posicionamento deles; identificação de questões emergentes; estabelecimento de parcerias; troca de experiências e ideias; realização de pressões para que entidades competentes solucionem determinadas questões; e identificação de quais são os atores que carregam os discursos com potenciais disruptivos a serem incorporados ou combatidos com vistas à manutenção da atual configuração do ecossistema de gI. Para a sociedade civil, o IGF é importante por possibilitar posicionamentos em condição de igualdade, trazer demandas nacionais, internacionais, enfim, é um espaço em que a sociedade civil tem condições de ser ouvida. E do ponto de vista do modelo multissetorial, o IGF é uma das instâncias centrais de legitimação desse modelo. Em resumo, o IGF consegue estabelecer um espaço de atualização de atores e agendas da gI, faz um ponto de encontro anual desses agentes que possibilita o estabelecimento de relações e transações que estão para além dessa espécie de ponto de troca de tráfego, e reforça um modelo para lidar com a gI ainda que esse evento não se fundamente na constituição de decretos. Mas há tentativas de alguns países de transformar o IGF num fórum para tomada de decisões – como fica evidente na fala de Macron [2018] durante a cerimônia de abertura do IGF de 2018. Uma das consequências mais relevantes do IGF é sua ramificação em fóruns nacionais e regionais ao redor do globo. Até a conclusão da pesquisa, foram mais de 70 iniciativas espalhadas pelo mundo discutindo problemas da gI relacionados a cada região ou país248. Durante o IGF aconteceram duas vezes nos últimos anos eventos paralelos e contestatórios, como no ano de 2014, em Istambul, e 2015 na cidade de João Pessoa. Eles foram chamados de Internet Ungovernance Forum (IUF) ou Fórum da Desgovernança da Internet. Como consta no site do IUF Istambul e no site do IUF Brasil: “Nossa ambição tem

248 Cf. o mapa com as iniciativas regionais vinculadas ao IGF disponível em: . Acesso em 26 out. 2017.

236

sido falar sobre os problemas reais da Internet, como podemos resolvê-los e traçar uma linha de ação. (...) Para nós, os problemas mais vitais hoje são a censura e a liberdade de expressão; vigilância e privacidade; comercialização excessiva e supermonopólios; abordagens de governança protetora, proibicionista e conservadora; péssimos exemplos de governança como no caso da Turquia e a lista continua”249 250. Tais iniciativas não se “institucionalizaram” como atividades paralelas ao IGF. Entretanto, elas deixam claro que existem outras formas de instaurar espaços de debates sobre gI tomando como referência temáticas que não seriam contempladas no IGF do modo como gostariam os organizadores do IUF. Para que o IGF continue a existir com esse tipo de configuração é crucial que atores relevantes na gI continuem participando do evento e contribuindo para sua construção, utilizando o fórum como um local de junção das heterogeneidades. Caso contrário, ele poderá se tornar um espaço vazio que não gera eco na discussão global sobre governança da Internet por reproduzir discursos homogêneos presentes em outros pontos de interação sobre gI. Nesse sentido, a diversidade é um ponto fulcral para esse fórum que não tem como tônica a tomada de decisão. No momento da realização da pesquisa, a sociedade civil tem dominado o IGF e empresas e governos estão, de certo modo, evadindo o evento. Isso afeta o fórum, fragilizando sua importância e a possibilidade de haver ali uma pluralidade de discursos. Um evento pautado em tomada de decisão que aconteceu nos dias 23 e 24 de abril de 2014 e chamou a atenção da comunidade internacional de gI foi o NETmundial – também chamado de Encontro Multissetorial Global sobre o Futuro da Governança da Internet –, sediado em São Paulo, ancorado no modelo multissetorial e com o objetivo de refletir sobre o futuro da governança da Internet. Para isso, elaboraram princípios de governança da Internet e um roteiro para o desenvolvimento desse ecossistema, sendo o documento resultado de um processo de consulta pública visando alcançar um consenso aproximado entre as partes envolvidas. Como colocado no documento (NETmundial, [2014]: online): “O NETmundial identificou um conjunto de princípios comuns e valores importantes que contribuem para uma estrutura de governança da Internet inclusiva, multissetorial, efetiva, legítima e em evolução,

249 [“Our ambition has been to talk about the real problems of the Internet, how we can solve these and to chart a path for action (…) For us, the most vital problems today are censorship and freedom of speech; surveillance and privacy; excessive commercialization and super-monopolies; protective, prohibitionist and conservative governance approaches; awful governance examples as in the case of Turkey and the list goes on”]. 250 Cf. os sites dos eventos em: ; e . Acesso em 25 out. 2017.

237

e reconheceu que a Internet é um recurso global que deveria ser gerenciado levando em consideração o interesse público”251. Há uma série de fatores que influenciaram na criação do evento, sendo as revelações de Snowden um deles. Como dito anteriormente, esse caso atingiu o Brasil, estando ele entre os países que sofreram com a arquitetura de vigilância vinculada ao governo norte-americano e divulgada por Snowden. Após isso, houve a declaração de Dilma na Assembleia da ONU no dia 24 de setembro. E como colocado, além de criticar no seu discurso o sistema de espionagem revelado por Snowden, Dilma defendeu a constituição de um mecanismo multilateral252 para garantir princípios na Internet que se assemelhavam com o Decálogo. No dia 7 de outubro do mesmo ano foi publicado um documento resultante de uma reunião com líderes de entidades importantes para a coordenação da infraestrutura técnica da Internet: ICANN, IETF, IAB, W3C, ISOC e os 5 RIRs. Esse documento, a Declaração de Montevideo (Wilson et al., [2013]), reforçou, entre outros pontos, a preocupação com a fragmentação da Internet devido às então recentes revelações de monitoramento e vigilância. Após isso, Dilma se encontrou com o então CEO da ICANN, Fadi Chehadé. E no início de outubro a ex-presidente anunciou o NETmundial. É certo que escapam outros fatores, mas há uma conexão entre os que foram apresentados aqui, evidenciando a conexão dessa iniciativa com uma série de acontecimentos que dialogaram com as revelações de Snowden. A iniciativa NETmundial foi coordenada pelo CGI.br e por uma organização que surge após a Declaração de Montevidéu com o objetivo de promover uma plataforma de discussão inclusiva e aberta sobre governança da Internet: 1net253. O evento contou com a presença de 119 participantes de 97 países e 33 hubs oficiais espalhados por 30 cidades de 23 países (Varon, [2014]254). Ele foi iniciado com a fala da presidente Dilma e com o sancionamento do Marco Civil da Internet. O documento final do evento recebeu aprovação

251 [“NETmundial identified a set of common principles and important values that contribute for an inclusive, multistakeholder, effective, legitimate, and evolving Internet governance framework and recognized that the Internet is a global resource which should be managed in the public interest”]. 252 Situei acima o modo como aparece o multissetorialismo no debate sobre gI, como uma oposição ao multilateralismo. Na fala de abertura do NETmundial, Dilma faz um discurso curioso porque ao invés de reforçar a oposição entre esses modelos, os coloca num mesmo conjunto que se oporiam ao unilateralismo. Este sim deveria ser combatido. “Não vemos, portanto, oposição entre multilateralismo e multissetorialismo. Seu contrário é o unilateralismo, este sim indefensável. Não é democrática uma Internet submetida a arranjos intergovernamentais que excluam os demais setores. Tampouco são aceitáveis arranjos multissetoriais sujeitos à supervisão de um ou de poucos Estados” (Rousseff, [2014]: online). Essa citação evidencia que outras relações entre esses modelos são possíveis. Assim, dependendo do que se quer defender, multissetorialismo e multilateralismo podem se opor ou se unir. 253 Para saber mais sobre o1net, acessar: . Acesso em 26 out. 2017. 254 Para um trabalho sintético e cuidadoso sobre o evento NETmundial que inclui a organização, gestão do local e espaço de fala do evento, cf. o artigo The NETmundial: An Innovative First Step on a Long Road, de Joana Varon [2014]. Joana Varon pertence ao 1Net e participou da organização do NETmundial.

238

por consenso aproximado. Essa iniciativa teve um resultado notável por mostrar que uma iniciativa envolvendo um número significativo de pessoas e países ancorado no modelo multissetorial conseguiu aprovar um documento, uma deliberação política. O documento foi elaborado a partir de mais de 180 contribuições vindas de atores relevantes de governos, entidades como ICANN, ISOC e IEEE, grandes empresas, e sociedade civil. Esse tipo de resultado não é alcançado pelo IGF. No entanto, esses espaços possuem chaves distintas, de modo que o incentivo feito pelo NETmundial à manutenção do IGF não é uma contradição. Desse evento surgiram diversas ações e reações – como a Iniciativa NETmundial, um controverso empreendimento preocupado em desenvolver o debate sobre a reestruturação da arquitetura da gI. Mas para o recorte deste trabalho, saliento como uma série de acontecimentos desencadearam o NETmundial, uma espécie de reação institucional alinhada desde seu nome ao modelo multissetorial, um esforço para lidar com as adversidades na gI. E este é mais um dos múltiplos eventos que compõem a gI, um espaço de interação entre os principais atores que compõem a governança da Internet. Mas além de outros eventos que congregam tantas pessoas, existem as reuniões reduzidas, conversas paralelas, micro relações, ruídos da gI que somente os mais próximos são capazes de decifrar. As interações para a composição e funcionamento da gI são incalculáveis, de modo que representei aqui fragmentos disso, fragmentos que possuem centralidade no estabelecimento de regras para a dinâmica dessa rede de redes.

***

É a partir dessa infinidade de associações que são estabelecidos protocolos, padrões, políticas, restrições, averiguações, vigilâncias em massa e/ou personalizadas e estratégias de desenvolvimento dessa rede mundial de computadores, uma rede que compõe o cotidiano de um número cada vez mais expressivo de pessoas que curtem e compartilham momentos na camada de aplicação enquanto uma maquinaria global tecnopolítica articula os caminhos que essa rede de redes percorre, caminhos esses que não são constituídos por escolhas gratuitas, neutras ou subsidiadas pelo bem comum. Pelo contrário, há distintos objetivos que são perseguidos por aqueles que exercem o poder. Como nos lembra Kurbalija ([2014]: 40): “[c]ada vez mais, os padrões técnicos vêm sendo implantados por instituições privadas e profissionais. Por exemplo, o padrão WiFi, IEEE 802.11b, foi desenvolvido pelo Instituto de Engenheiros Eletricistas e Eletrônicos (IEEE). A certificação de equipamento compatível com WiFi é feita pela WiFi Alliance. A própria atribuição de definir ou

239

implementar padrões dá a essas instituições uma considerável influência sobre o mercado”. O gratuito tem um preço, conduzindo condutas. E o zero rating nos lembra disso. Com o alastramento da Internet, cresceu nas duas últimas décadas o número de organizações que cuidam de sua gestão assim como apresentaram-se tipologias organizacionais que defendem um trabalho em conjunto, comunitário, para resolver os problemas da rede mundial de computadores a partir de um bem comum. Além disso, surgem instituições que estabelecem um intenso diálogo transnacional, fragilizando a potência de intervenção de Estados e revelando que na Internet existe outros atores compondo essa trama, onde os interesses dos Estados estão amalgamados a diversos outros atores, de modo que muitas vezes seus interesses podem se confundir. Nesse ínterim, o Estado precisa se atualizar para permanecer na discussão não como coadjuvante. Portanto, a governança da Internet não se circunscreve a governos ou a uma instituição específica, sendo administrada em grande medida pelo setor privado e novas instituições estabelecidas para lidar com certos aspectos dessa rede de redes, mas não sua totalidade (DeNardis e Raymond, [2013]). A extensão transnacional faz com que essa rede de computadores pareça ilimitada. Mas há limites, limites que percorrem todas as suas camadas, limites que condicionam e possibilitam seu funcionamento, limites que governam por conduzir condutas porque há coordenação, regulação e controle para o funcionamento dessa máquina cibernética, limites inclusive da governança da Internet. Esses espaços criados para reunir entidades que governam a Internet não necessariamente são objeto de interesse para todos aqueles que efetivamente têm condições de conduzir condutas nela ou mesmo pensar para além dessa arquitetura estabelecida. E como vimos, mesmo nos espaços de gI há problemas de participação. A partir de práticas multissetoriais, torna-se possível maior participação nos espaços de diálogo para governança da Internet e mesmo financiamento com o fito de que os mais variados atores possam participar dessas instâncias de discussão e, muitas vezes, de tomadas de decisão. Mas esse acesso é relativo, pois há a questão da língua, conhecimento técnico, aspectos financeiros e burocráticos que podem atravancar a participação nessas instâncias. E isso serve como um sistema de diferenciações capaz de limitar ou facilitar a atuação de determinados atores – especialmente se eles forem da sociedade civil. Portanto, há barreiras de participação mesmo em espaços abertos, sendo essencial refletir sobre quem efetivamente tem condições de participar desses espaços. Esses fatores limitantes influem então na compreensão das consequências políticas e econômicas das ações que implicam na escolha e implementação de elementos tecnopolíticos a nível global. Assim, embora o discurso multissetorial defenda a abertura de interação com as partes interessadas, na prática

240

esse tem dificuldades em objetivar a igualdade entre essas partes na influência do objeto de disputa255 do mesmo modo que essa diversidade está calcada em condicionantes para a efetiva participação nesses espaços. E a expressão “ecossistema” faz todo o sentido, visto que a gI se estabelece por relações de interdependência que são reguladas, neste caso, por questões econômicas, políticas e ideológicas, tomando como “habitat” a infraestrutura da Internet e seu desenvolvimento “técnico”. As linhas que tecem a gI são múltiplas e difíceis de serem apreendidas, mas espera-se que tanto a arquitetura da rede como as teias de relações que governam a Internet estejam, a partir de agora, mais visíveis. No momento em que se faz parte desse ecossistema, você é estimulado a acreditar na sua existência, no seu modo de funcionamento e mesmo na importância de sua operação. E há o que disputar ali, posições a serem conquistadas. Além disso, algumas instituições oferecem bolsas e cursos de formação para os “newcomers” participarem da gI, além das bolsas para irem em eventos de gI. De fato, a participação remota é uma possibilidade – especialmente em casos como o do IETF. Mas a participação presencial possibilita interações com qualidades distintas, uma imersão num espaço e com uma intensidade que se estende para além das salas de reuniões, conferências e assembleias, onde é possível encontrar pessoas dispostas a discutir assuntos com interesses compartilhados, os quais muitas vezes não compõem o cotidiano dos participantes desses eventos. Nesse sentido, esses espaços reforçam a constituição de uma sensação de pertencimento a uma comunidade. Mas os encontros físicos são possibilidades de imersão que podem se tornar inacessíveis por questões econômicas. Continuar a receber recursos financeiros para a participação desses encontros físicos é resultado do reconhecimento de pertencimento da pessoa ao menos em potência. Para isso, é crucial ter concordância discursiva e/ou prática com os pares desse espaço. Dito de outro modo, a barreira econômica contribui com a diversidade moderada nessas instâncias de gI. Assim, existem processos de identificação, restrição, formação, educação, governo e inibição de críticas estruturais por meio disso, de modo que o novo tende a se restringir a

255 Como coloca Jeremy Malcolm ([2014]: 38), em A perspective from Civil Society: “[q]uando organizações da sociedade civil desejam influenciar desenvolvimentos de políticas públicas na área de Tecnologias de Informação e Comunicação (TICs), como em outras áreas, partem de uma posição muito fraca e com poucos recursos. De acordo com estatísticas compiladas pelo Center for Responsible Politics, no ano passado, empresas de tecnologia sediadas nos EUA gastaram mais de US$ 141 bilhões em atividades de lobby, com o auxílio de nada menos que 1.124 lobistas pagos. Comparado a isso, os recursos disponíveis à sociedade civil são uma verdadeira gota no oceano”. [“[w]hen civil society organizations wish to influence public policy developments in the area of Information and Communication Technologies (ICTs), as in other areas, they start from a very weak and under-resourced position. According to statistics compiled by the Center for Responsible Politics, last year, US-based technology companies spent over $141 billion on lobbying activities, with the assistance of no fewer than 1,124 paid lobbyists. Compared to this, the resources available to civil society are a veritable drop in the ocean”].

241

variações que não fissuram a estabilidade em um espaço com potencial entrópico constante, onde o embate entre multissetorialismo e multilateralismo – e mesmo de questões como a fragmentação da Internet – serve como freio a movimentos dissonantes, encarados como hierarquizantes ou entrópicos. Mas esses embates são fundamentais para que na oposição a uma outra possibilidade se figure a importância da existência e manutenção do que existe. Assim, numa relação opositiva entre ecossistema e sua entropia, a oposição àquilo que está de fora ou como possibilidade fortalece a união do ecossistema para sua conservação, ao passo que uma oposição vinda de dentro tende a reforçar sua atualização e manifesta sua diversidade. E certamente existe exceções para esses padrões, pois há brechas nesse sistema. Se a estrutura defende essa abertura, alguns ruídos podem passar desapercebidos por esse filtro que pode envolver questões técnicas, políticas, econômicas, linguísticas etc. O já mencionado Fórum de degovernança da Internet é um exemplo disso. Pessoas que se dispuseram a entrar “de penetra” no IGF em João Pessoa ao descobrirem que lá havia comida e bebida de graça é outro. De um modo ou de outro, essa oposição se dá entre atores de “dentro” e de “fora” que fazem parte de um mesmo jogo, onde a oposição é relativa e circunscrita. Como coloca Laymert: “não se pode adotar a estratégia do adversário e continuar sendo seu inimigo” (Santos, [1981]: 15). Nesse sentido, a própria concepção de dentro e fora pode ser relativizada, mesmo porque é algo relacional: “O lado de fora não é um limite fixo, mas uma matéria móvel, animada de movimentos peristálticos, de pregas e de dobras que constituem um lado de dentro: nada além do lado de fora, mas exatamente o lado de dentro do lado de fora” (Deleuze, [1986]: 104). Por isso, é importante enxergar o lado de fora do lado de fora, ir para além do limite que se coloca a partir de adversários que assumem a mesma estratégia. Esse ecossistema e sua manutenção é envolvente a ponto de agregar cada vez mais atores que encontram sentido, benefícios em participar desse jogo, o que inclui seguir suas regras, encarar seus desafios, alcançar benefícios e, na medida do possível, propor alterações nas regras; ele é envolvente e convidativo principalmente por facilitar a inserção com apresentações introdutórias, bolsas de auxílio, traduções simultâneas, etc. Em outras palavras, o modo que se configura a governança da Internet hoje convence ou se faz convencer e inclui ao jogo aqueles que se dispõem a seguir suas regras, estabelecendo assim uma verdade sobre a gI. A verdade, como coloca Foucault [1977c], é produzida mediante múltiplas relações de poder que demarcam a fronteira entre o dito e o não dito, entre o verdadeiro e o falso, o certo e o errado. E os limites são vistos como fronteiras em disputa que em alguma medida satisfazem os interesses de uma pessoa ou grupo.

242

Portanto, entendo que o ecossistema da gI conseguiu estabelecer um complexo de relações capaz de lidar com inputs variados e gerar outputs que são considerados pelos demais sistemas sociais com os quais se vincula direta ou indiretamente, uma espécie de sistema fechado com regulações específicas e funções próprias. Ao mesmo tempo, estabelecer uma crítica à gI e ao multissetorialismo participando dele é praticamente uma profanação quando se toma como referência opositiva o multilateralismo e onde a participação das múltiplas partes interessadas parece ser a possibilidade, a via que gera maiores benefícios. Mas críticas, relações e fluxos informacionais escoam de ecossistemas e mesmo de sistemas de captura de informação. Um exemplo disso é que governos têm perdido o controle desses fluxos e não apenas eles, mas instituições que detinham historicamente certas posições privilegiadas de influência e controle também não conseguem capturar tudo o que passa na rede de redes. Por outro lado, é inegável que a arquitetura da Internet possui pontos de controle que podem se manifestar fisicamente a partir, por exemplo, de pontos de troca de tráfego, mas que estão em grande medida invisíveis aos olhos, se escondendo mesmo de atores atentos. Nesse sentido e de um ponto de vista metodológico, se se quer pensar a Internet como um sistema, que ela seja entendida como um sistema aberto, como um complexo de sistemas, uma composição de ecossistemas, um conjunto de todos os ecossistemas que podem surgir pautados na Internet, uma biosfera. Isso certamente nos auxilia a entender a Internet como algo que está para além da gI com as instituições mencionadas até o momento. Existem uma série de fatores, de variáveis, que influem na configuração da Internet e seu consequente modo de funcionamento. Assim, a governança da Internet é entendida aqui como um fragmento de algo maior, visto que embora a gI seja importante, não podemos nos prender a ela. Porque a gI e mesmo as práticas na e da Internet não podem ser circunscritas a um grupo de pessoas e atores, de modo que muito se perde ao se desorientar no estudo da gI em si. Há discursos e práticas, rebeldes e inovadores, que são calados nesses espaços, discursos que devem nos estimular a não tomar os limites postos por uma perspectiva de sistema fechado, variáveis que devem ser consideradas, ruídos que precisam ser decifrados. Assim, por meio da gI, da arquitetura da rede e desses discursos e práticas rebeldes é possível compor uma concepção de Internet que possui duas dimensões: das coisas limitadas, com qualidades fixas tanto permanentes quanto temporárias; e da fluidez, de um devir sem medida, um devir-louco que não se detém para sempre, elemento de atualização a partir de um “fora” que não utiliza a estratégia do “adversário”. Tomando isso como referência, desenvolvo o próximo capítulo tendo em vista que é justamente a composição arquitetônica da rede mundial de computadores que, embora limitada, possibilita um diverso, um múltiplo onde na grande maioria das vezes é

243

condicionado, mas transpassa o debate da governança da Internet. E é levando isso em consideração que avançamos para problematizar o vigilantismo nessa rede de redes, bem como modos de percebê-lo e de resistir a ele.

Capítulo 6 – Poderes e contrapoderes na Internet

SEU ENDEREÇO IP É 177.95.224.124 E ESTÁ LOGADO. Não pense que não pode ser pego. Você não está anônimo256. Mensagem presente no site .com (acesso em 18 fev. 2019)

A potência de sermos observados hoje é constante e isso influencia nosso modo de ser e agir no mundo, propiciando assim a condução de comportamentos. São olhares que podem ser sistematizados em âmbito global, regional ou individual; capazes de produzir conhecimento em profundidade do alvo selecionado – indivíduo, população, fluxo informacional, práticas, etc.; e de realizar intervenções caso considerem necessário. Esse ato de espreitar pode acontecer de diversos modos, seja ele visual, mecânico, eletrônico e digital, implicando uma inspeção regular, sistemática e centrada no alvo (Bruno, [2013]). Reagimos a isso, seja num limite, agindo como se alguém estivesse nos observando constantemente, ou em outro, se esforçando para “ignorar” e naturalizar essa potência vigilante. O fato é que, no contexto onde estamos inseridos, esse espectro nos envolve e precisamos lidar com isso. Existem diversos pontos por meio dos quais aquilo que flui pela Internet pode ser capturado e processado. E, conforme apresentado, há inúmeros gargalos na arquitetura da rede que possibilitam esse tipo de atuação. Neste capítulo, apresento algumas dessas possibilidades com o intuito de fomentar reflexões sobre a vigilância na rede de redes e apresento algumas respostas combativas a isso. As vigilâncias e os revides que as combatem fazem parte de um momento da história, possuem um contexto e, como tal, têm uma validade. Portanto, os exemplos trabalhados aqui servem para demonstrar o fluxo e refluxo da vigilância, evidenciando esse constante movimento de poderes e contrapoderes na rede, onde os enfrentamentos são circunstanciais e transitivos. Como visto em capítulos anteriores, os intermediários da Internet, entidades que possibilitam a comunicação de um ponto a outro da rede facilitando ou dificultando a transação de pacotes informacionais, são essenciais para o funcionamento da Internet. Nas palavras de Pasquale ([2010]: 105): “Os intermediários da Internet comandam a vida on-

256 [“YOUR IP ADDRESS IS 177.95.224.124 AND HAS BEEN LOGGED. Don't think you can't get caught. You are not anonymous”].

244

line”257. Cada ator intermediário possui interesses específicos nesse jogo e um modelo de negócios que o sustenta. Dependendo da função que exerce, pode realizar restrições variáveis. No nível da rede, é possível efetuar a filtragem – acesso negado a determinado site, página, etc. –, a queda de certo tipo de serviço – como ligar-se à rede por meio de um computador, celular, certa região, etc. –, ou mesmo realizar um serviço se imiscuindo da neutralidade da rede – dificultando o acesso a determinado conteúdo ou aplicação disponíveis por meio da Internet. No nível da plataforma, como mecanismos de pesquisa e redes sociais, há a possibilidade de um conteúdo específico ser removido completamente; bloqueio de categorias de conteúdo considerando o usuário – obstrução geralmente vinculada a questões geográficas; ou mesmo desativar contas de usuários. Deve-se observar que na camada de aplicação há hipercentralidades, uma concentração de dados num número limitado de espaços geridos por um número restrito de instituições, como Google, Facebook, Twitter, Amazon e Yahoo!. No que se refere ao Google, Beaude [2014] afirma que nunca antes do advento da Internet uma única empresa possuía uma influência tão generalizada sobre as atividades diárias e a vida privada de tantas pessoas quanto o Google. Essas instituições possuem um grau de centralidade sem precedentes, de modo que somos em grande medida extremamente expostos ao processamento de dados e potencial vigilância dessas corporações. É curioso notar que, conforme já colocado, em seus primeiros passos, a Internet tinha referência à descentralidade, algo que, com o tempo, foi perdendo essas características ao termos em vista o que essas grandes indústrias da Internet conseguem estabelecer a partir do serviço que oferecem. De todo modo, não podemos nos limitar a acreditar que a Internet se resume a essas instituições, mesmo considerando a centralidade que ocupam hoje. Mecanismo de pesquisa como o Baidu na China corresponde a mais de 50% do mercado de usuários chineses. Na Rússia, o domínio se dá pela Yandex, ao passo que o Google possui a maior fatia dos usuários mundiais. Dentre as possibilidades de intervenção que podem fazer, uma das principais é privilegiar um resultado em relação a outro, ou mesmo omitir determinados resultados, seja por ordem de terceiros ou da empresa. Assim, esses mecanismos de pesquisa conseguem colocar um grande filtro de acesso a certos websites, de forma a terem condições de separar, a partir de suas ferramentas, o que deve ou não ser visto por seus usuários. Nesse sentido, é importante considerar que um mecanismo de pesquisa possui um espaço estratégico na Internet. Por exemplo, no momento em que o Google retira de sua base de sites determinado website, este passará a ser invisível a um número substancial

257 [“Internet intermediaries govern online life”].

245

de pessoas que podem ter interesse no conteúdo hospedado no website. Além disso, um dos focos principais de captação de dinheiro de mecanismos de pesquisa é a publicidade, a qual se constitui como um modelo padrão na web de estabelecer a base econômica (Zuckerman, [2014])258. Tanto no nível da rede quanto no da plataforma utilizada, é possível realizar coleta de dados e monitoramento, além de poder haver falta de segurança na forma como os dados do usuário são armazenados pelas empresas ou como os mesmos são transmitidos, de modo que a privacidade do usuário poderá ser violada259. Basta considerar a quantidade de elementos envolvidos no trânsito de um conteúdo até chegar no dispositivo de destino para compreendermos que rastros são deixados na rede, os quais têm a potência de serem recuperados e tipificados de forma a delinearem interesses, opiniões, hábitos, oposições de uma ou diversas subjetividades. Segundo Assange ([2014]: online), “[v]ivemos não só em um estado de vigilância, mas em uma sociedade de vigilância. A vigilância totalitária não está somente inserida em nossos governos; está incorporada na nossa economia, em nossos usos mundanos da tecnologia e em nossas interações cotidianas”260. Portanto, nesse embate não temos que lidar com o inimigo. Pelo contrário, são inúmeros os atores de múltiplos setores com perspectivas e interesses diversos que constituem esse ambiente vigilantista, onde podemos inclusive fazer parte dessa operação vigilantista. Contudo, isso não significa que somos vigiados a todo instante, mas que, na sociedade contemporânea, temos a potência de sermos vigiados constantemente, contanto que alguém tenha condições e interesse. E isto pode acontecer por meio de dispositivos técnicos altamente sofisticados ou por olhos taciturnos de um vizinho que nos observa enquanto chegamos em casa. Portanto, a rede mundial de computadores é responsável por potencializar de maneira substancial o exercício da vigilância. Fernanda Bruno [2013] observa a existência de um caráter distribuído no tipo de vigilância contemporânea, dispondo de uma série de características que sumarizo aqui por se

258 É relevante lembrar que a base histórica para o crescimento dos mecanismos de pesquisa está na publicidade, fato evidente ao analisar o desenvolvimento do mecanismo da empresa Yahoo!. Ela começa a aceitar publicidade no final de 1995, enquanto os usuários continuaram se multiplicando. No início, não necessariamente os mecanismos de pesquisa conduziam os usuários para resultados relevantes. Em alguns casos, os levavam para publicidades que poderiam ser até mesmo imagens obscenas. 259 Mackinnon et al. [2014] apresentam uma tabela com exemplos de restrições na Internet que podem ser realizadas pelos intermediários. Reproduzo a tabela no Anexo VI. 260 [“[w]e live not only in a surveillance state, but in a surveillance society. Totalitarian surveillance is not only embodied in our governments; it is embedded in our economy, in our mundane uses of technology and in our everyday interactions”Vivemos não só em um estado de vigilância, mas em uma sociedade de vigilância. A vigilância totalitária não está apenas em nossos governos; está incorporada na nossa economia, em nossos usos mundanos da tecnologia e em nossas interações cotidianas”].

246

relacionar diretamente com as colocações até o momento: tende a se tornar cada vez mais ubíqua e incorporada aos dispositivos tecnológicos, serviços e ambientes utilizados em nosso cotidiano; se exerce de maneira descentralizada, sem hierarquias estáveis; possui diversidade de propósitos, funções e significações nos diversos setores; ao contrário dos mecanismos modernos de inspeção, em que era predefinido vigilante e vigiado, nos mecanismos de vigilância atual tornam-se relativamente indiscerníveis essas duas polaridades; dependendo da circunstância, a vigilância é uma potência ou efeito secundário de determinado dispositivo não projetado para essa finalidade – algo que geralmente acontece na rede de redes, onde seus gargalos não foram necessariamente arquitetados para o ato de vigiar; distribui-se tanto em humanos quanto não-humanos; está presente tanto em circuitos de controle, segurança e normalização quanto no entretenimento e no prazer; é presente tanto em modelos hierarquizados e unilaterais quanto em modelos participativos e colaborativos (Bruno, [2013]: 29-36). Existe a positividade no exercício de poder (Foucault, [1975]), pois, se houvesse apenas a função de reprimir, censurar, excluir, impedir, recalcar, ele seria frágil. O poder é vigoroso porque consegue produzir também efeitos positivos relacionados ao desejo, saber, segurança, paz, etc. Muitas vezes podemos inclusive ter a vigilância como um preço “justo” a ser pago por serviços “gratuitos”: “[a]o contrário de agências de inteligência, que espionam linhas de telecomunicações internacionais, o complexo de vigilância comercial atrai bilhões de seres humanos com a promessa de “serviços gratuitos”. Seu modelo de negócio é a destruição industrial da privacidade. E mesmo os maiores críticos da vigilância da NSA não parecem estar pedindo o fim do Google e do Facebook”261 (Assange, [2014]: online). Em nosso contexto, surgem inúmeros modelos de negócios valendo-se da coleta de dados dos usuários como forma de pagamento para a utilização de um dado serviço, o que possui um forte potencial de vigilância. Isso ocorre de tal modo que há o estímulo à naturalização da vigilância. E no momento em que focamos em um acontecimento relacionado à vigilância, como o apresentado por Snowden, inúmeros outros continuam compondo a nossa vida visível e vulnerável. Nos próximos parágrafos, apresento algumas vulnerabilidades da Internet possibilitadora da vigilância dos atores que se valem dessa rede para transmitir informação.

261 [“[u]nlike intelligence agencies, which eavesdrop on international telecommunications lines, the commercial surveillance complex lures billions of human beings with the promise of ‘free services’. Their business model is the industrial destruction of privacy. And yet even the more strident critics of NSA surveillance do not appear to be calling for an end to Google and Facebook”].

247

6.1 – Vulnerabilidades da rede Schmeh ([2003]: 23)262 aponta uma diversidade de vulnerabilidades na arquitetura TCP/IP: “No TCP/IP nada é criptografado; o endereço do remetente da mensagem pode ser falsificado com facilidade (IP spoofing, e-mail spoofing); as mensagens que os roteadores enviam entre si para fins informativos podem ser falsificadas, dessa forma, roteadores podem ser controlados quase à vontade; a conversão de endereços de texto em endereços IP pode ser manipulada (DNS spoofing); muitas implementações de protocolos de TCP/IP contém erros que causam falhas na segurança”263. Na Internet, Schmeh pondera que a vigilância pode se dar extraindo dados diretamente do computador das pontas; no nó de uma rede interna a partir, por exemplo, de roteadores; canais de transmissão que conectam dois nós; desviando dados para uma parte da rede onde seja possível recolhê-los. Ademais, aponta algumas possibilidades de ação, tais como: interceptação de dados; modificação dos dados transmitidos sem ser percebido; fingir para um ator que na realidade é outro. De modo geral, os ataques são realizados entre as pontas e não nelas (Schmeh, [2003]), locais situados fora de controle delas. Contudo, não é cabível dizer que as pontas são mais protegidas. Computadores, impressoras e diversos dispositivos podem ser atacados e transmitir informações por meio de vibrações em frequências escolhidas e captadas com uma antena de rádio AMA a uma curta distância, conforme demonstraram pesquisadores em 2015 na conferência nacional de segurança Black Hat, em Las Vegas (Menn, [2015]). As pontas podem inclusive ser atacadas por meio de radiação eletromagnética, também denominada o ato de “comprometer a radiação eletromagnética”. Isso é possível porque o processamento de dados em computadores, impressoras, modems, teclados, etc. emitem radiação eletromagnética264. A grande vantagem é que nem mesmo a encriptação consegue resistir a esse tipo de intervenção. É uma forma cara de vigilância, mas com uma contramedida barata: envolver o ambiente onde está localizado o dispositivo com papel de parede que bloqueia radiação (Schmeh, [2003]). Sobre a parte física da arquitetura da rede responsável pela conexão entre os dispositivos, Klaus Schmeh [2003] aponta exemplos de intervenção em fio de cobre, cabo

262 Uma referência relevante para o assunto é a obra Cryptography and Public Key Infrastructure on the Internet, de Klaus Schmeh [2003]. Embora a data de sua primeira publicação seja relativamente antiga no âmbito do desenvolvimento tecnológico, o autor faz considerações acerca da segurança que está para além de uma temporalidade. Além disso, Schmeh mostra a criptografia de uma maneira didática e aprofundada. 263 [“In TCP/IP nothing is encrypted; the sender’s address of message can be falsified with ease (IP spoofing, mail spoofing); the messages that routers send to each other for information purposes can be falsified, in this way routers can be controlled almost at will; the conversation of text addresses into IP addresses can be manipulated (DNS spoofing); many implementations of TCP/IP protocols contain errors that cause gaps in security”]. 264 Cf. vídeo com experiência de captar, por meio da radiação eletromagnética, o que foi digitado por um teclado, disponível em: . Acesso em 25 jan. 2019.

248

coaxial, fibra óptica, wireless, arquitetura Ethernet, etc. No que se refere ao âmbito imaterial, podemos considerar o malware (software malicioso destinado a se infiltrar em computador alheio, como vírus, cavalos de Troia e worms) e adware (programas que mostram propagandas sem autorização do usuário). Quanto às práticas, elas podem ser realizadas por inúmeros atores, incluindo outros usuários que nos conhece pessoalmente (stalker). E um grande problema é a legalização, em várias partes do mundo, de tanto comprar quanto vender dispositivos que facilitam a vigilância (Mendel et al., [2012]). Outro elemento vulnerável na rede e considerado um dos elos mais fracos da mesma é o usuário (Kurose e Ross, [2000]). Portanto, o que envolve a Internet é vulnerável e seus usuários precisam estar atentos a isso. É certo que parte significativa dessas situações podem ser cauterizadas com implementações de segurança. Mas isso já nos auxilia na visualização das brechas que a arquitetura possui, especialmente se considerarmos sua constituição histórica, a qual, num primeiro momento, não se centrava tanto na segurança. Um exemplo disso é o fato de o protocolo BGP ser simples e vulnerável à segurança, de modo que eu poderia tirar o YouTube do ar ao dizer que os IPs do sistema autônomo do YouTube são meus, realizando assim um sequestro de rota, pois os outros ASs passariam a enviar aqueles dados para mim. Isso é uma falha do modelo de conceitos, mas se dá justamente por não ter sido criado para lidar com um ambiente de concorrência. Esse problema foi resolvido com o tempo, como o caso de usar uma espécie de certificação digital vinculando os números de IP com certo sistema autônomo (RPKI). O ponto de acesso é, como já mencionado, uma espécie de gargalo da arquitetura da rede, mas com proporções bem mais tímidas do que um ponto de troca de tráfego (IX). Esse ponto de acesso possui condições de coletar os dados que trafegam por suas portas, algo fundamental para a inspeção dos mesmos. E até o que transfiro/compartilho entre computadores que se valem desse mesmo ponto de acesso pode ser monitorado sem necessariamente estar conectado à rede. Os servidores de conteúdo também possuem grande relevância nesse sentido, até mais do que os pontos de acesso: “[o]s ISPs fazem a conexão dos usuários finais com a Internet e hospedam sites. É por isto que os ISPs são, para muitos governos, a opção mais simples e direta para impor a observância do controle governamental e de regras legais sobre a Internet” (Kurbalija e Gelbstein, [2005]: 52). A vulnerabilidade está presente também em cabos submarinos, que trafegam dados dessa rede de redes, os quais podem ser acessados nos oceanos por submarinos com plataformas de hacking subaquático265,

265 Fung e Peterson [2016] escreveram um texto interessante sobre o assunto, publicado no Washington Post com o nome America uses stealthy submarines to hack other countries’ systems. O artigo está disponível em:

249

sendo que a interceptação de cabos é algo antigo266. E como a informação que trafega na rede passa por backbones, é evidente sua centralidade para realizar a vigilância tanto por governos quanto por outros atores que dominem essa tecnologia de interceptação de cabos. Vários recursos de detecção e manipulação podem ser combinados de muitas maneiras para atender a diferentes propósitos. Um dispositivo utilizado na rede capaz de fazer uma investigação profunda nos pacotes que passam por ele é o DPI (Deep Packet Inspection), o qual permite operadores de rede inspecionarem o conteúdo dos pacotes de dados e não apenas seu cabeçalho. Sistemas de DPI usam expressões regulares para definir padrões de interesse em fluxos de dados de rede (Kumar, Turner, & Williams, [2006]) e utilizam expressões para delimitar padrões de interesse em fluxo de dados, podendo ser programados para tomar decisões sobre como lidar com o pacote ou fluxo de pacotes considerando o reconhecimento de dada expressão ou padrão regular de conteúdo. Isso permite classificar e controlar o tráfego, tendo em vista o conteúdo dos pacotes, os aplicativos ou mesmo os assinantes (Bendrath e Muller, [2011]). O DPI age então nas camadas do pacote, incluindo a de implementação, acessando dados que não são evidentes ao estudar o cabeçalho do pacote, utilizado em muitas partes da Internet (Mendel et al. [2012]). Ou seja, a inspeção profunda de pacotes (DPI) permite que os operadores de rede examinem a carga útil dos pacotes IP e não só o cabeçalho, sendo um mecanismo potente para a condução de condutas daqueles que são afetados por ele. Entre as atividades realizadas pela tecnologia DPI, destaco as seguintes: bloquear o movimento de objetos informacionais reconhecidos dentro ou fora da rede; regular a velocidade do fluxo de pacotes; alterar o cabeçalho do pacote de alguma forma; priorizar (ou desprezar) alguns pacotes de protocolo em relação a outros; priorizar (ou não) pacotes de alguns usuários ou classes de usuários sobre outros; desconectar uma sessão; gerar relatórios estatísticos; emitir alarmes ou notificações; gerar um incidente de faturamento ou tornar dependente de pré-pagamento o acesso a um recurso da Internet (Mueller, [2011]). O DPI não é uma tecnologia que possui apenas negatividade, inclusive foi desenvolvido inicialmente para sistemas de detecção e prevenção de intrusão, permitindo a detecção e interceptação de malwares pelos operadores da rede antes de atingir clientes ou algum funcionário (Sourdis, [2007]). Pode também auxiliar na realização de um roteamento mais eficiente. Mas há um

. Acesso em 20 jan. 2017. 266 Cf. Broad [1994].

250

debate sobre a violabilidade da privacidade do usuário a partir disso. E dada a versatilidade do DPI, pode haver um despertar de diversos interesses entre seus operadores:

Ao convergir diferentes funcionalidades, o DPI facilita a convergência de interesses de um conjunto diversificado de atores. Agências governamentais, censores e alguns detentores de direitos autorais estão interessados no monitoramento e na filtragem de fluxos de informações. As operadoras de rede estão preocupadas com o bloqueio de malware e com a otimização de seus investimentos de banda larga. Os gestores de empresas das operadoras de rede podem também querer criar receitas adicionais, migrando para conteúdo, aplicações ou publicidade, ou proteger serviços lucrativos de aplicações independentes concorrentes267 (Bendrath e Muller, [2011]: 06).

Mas uma coisa que precisa ser reforçada em relação ao DPI é seu potencial invasivo. Para isso, recorro novamente a um exemplo de correspondência. Imagine que, ao entregar uma carta para os correios, um funcionário abra sua correspondência, leia o conteúdo da mesma, verifique se nela há algum conteúdo ilegal – enviando uma cópia para a polícia, se for o caso; elimina conteúdos que firam a moral do funcionário; e, em conformidade com seus interesses, faz com que a carta chegue mais rápido do que outra. Agora visualize esse procedimento sendo realizado em larga escala, com todas as correspondências que chegam nos correios. Grosso modo, a tecnologia DPI consegue realizar algo semelhante dentro de uma rede. Com isso, uma técnica que poderia ser utilizada para tornar a rede mais inteligente possui um grande potencial de vigilância, além de ser dificilmente detectável. O cookie é outro elemento presente no nosso cotidiano de acesso à Internet e que muitas vezes não notamos. Ele opera na camada de aplicação e tem potencial vigilantista. Como colocado anteriormente, um cookie é um código atribuído por um servidor ao navegador, reconhecendo-o quando este está no site ou o acessa novamente. Mas ele pode inclusive acompanhar a navegação do consumidor em outros sites, tendo um uso controverso – já explorado em capítulo anterior. Na visão de Mendel et al. ([2012]: 40), “[o]s cookies são geralmente mantidos por anos no computador de um usuário e são estendidos automaticamente sempre que o usuário visita um site associado. (...) Caso um usuário tente remover seus cookies de um dos muitos locais nos quais podem estar armazenados, eles são

267 [By converging different functionalities, DPI facilitates convergence of the interests of a diverse set of actors. Government agencies, censors and some copyright holders are interested in the monitoring and filtering of information flows. Network operators are concerned with blocking malware and optimizing their bandwidth investments. The business managers of the network operators may also want to create additional revenues by moving into content, applications or advertising, or to protect profitable services from competing, independent applications].

251

recriados de outras áreas de armazenamento ou usando outros mecanismos de identificação, como os IDs da sessão, complementos do navegador”268. A Internet das Coisas (IoT – Internet of Things) aparece hoje como o futuro da relação entre dispositivos e a Internet, a qual tende a naturalizar nossa relação com a mesma, estabelecendo conexão com dispositivos que utilizamos no nosso cotidiano e habilitando-os a receber e enviar dados. Isso se torna possível especialmente com a disseminação do IPv6 e a consequente “infinitude” de IPs disponíveis para um dispositivo acessar a rede. Segundo a definição do RFC 7452 (Tschofenig et al., [2015]: online), “[o] termo ‘Internet das Coisas’ (IoT) denota uma tendência em que um grande número de dispositivos incorporados emprega serviços de comunicação oferecidos por protocolos da Internet. Muitos desses dispositivos, frequentemente chamados de ‘objetos inteligentes’, não são diretamente operados por seres humanos, mas existem como componentes em edifícios ou veículos, ou estão espalhados pelo ambiente”269. Uma característica que chama a atenção da IoT é o fato de ela estabelecer uma comunicação entre dispositivos, sem a mediação humana. Por esse motivo, a IoT também é chamada de M2M (Machine to Machine). Para termos uma noção do desenvolvimento da IoT, se em 2019 o número de “coisas” conectadas à Internet é de 27 bilhões, em 2025 serão 75 bilhões270. Junto com a Internet das Coisas, temos a potência de vigilância através desses dispositivos. É importante considerar também a “invisibilidade” do contato dessas tecnologias com a rede, na medida em que essa relação será tão comum e hodierna que tenderá a desaparecer. Além disso, realizar a gestão de segurança de um número maior de dispositivos conectados com a Internet se torna um desafio crescente no nosso cotidiano. A expressão IoT é recente, de 1999, cunhada por Kevin Ashton, cofundador de uma empresa chamada Auto-ID Center. Ashton estava preocupado em criar uma maneira de vincular objetos físicos com o mundo virtual (Greengard, [2015]). Numa visão otimista, Greengard ([2015]: 169) coloca o seguinte sobre a IoT:

268 [“[c]ookies are often set for years on a user’s computer and are extended automatically each time the user visits an associated website (…) Should a user attempt to remove their cookies from one of the many locations in which they can be stored, they are recreated from other storage areas or using other identification mechanisms such as session IDs, browser add-ons”]. 269 [“[t]he term ‘Internet of Things’ (IoT) denotes a trend where a large number of embedded devices employ communication services offered by Internet protocols. Many of these devices, often called ‘smart objects’, are not directly operated by humans but exist as components in buildings or vehicles, or are spread out in the environment”]. 270 Statista, 2018: Internet of Things (IoT) connected devices installed base worldwide from 2015 to 2025 (in billions). Disponível em: . Acesso em 26 fev. 2019.

252

A Internet das Coisas não se limita a apenas localizar objetos e usá-los para perceber o ambiente ao redor – ou realizar tarefas automatizadas. É uma forma de monitorar, medir e entender o movimento perpétuo do mundo e as coisas que fazemos. (...) Os dados gerados pela IoT fornecerão percepções profundas sobre relacionamentos físicos, sobre o comportamento humano e até mesmo sobre a física de nosso planeta e universo. O monitoramento em tempo real de máquinas, pessoas e ambientes cria um modelo para reagir a condições e relacionamentos variáveis – mais rápido, melhor e mais inteligente271.

As ideias do uso da IoT têm como limite a imaginação humana. Assim, diversos outros usos podem surgir para essa tecnologia que ainda é relativamente recente, fornecendo uma quantidade ilimitada de dados a serem processados e cruzados, e desencadeando maior conhecimento sobre um mundo de relações entre pessoas, máquinas e objetos físicos, tanto a nível microscópico quanto macroscópico. Nesse sentido, a IoT tem plenas condições de corroborar com a alimentação de grandes bancos de dados, podendo contribuir com a comercialização da vigilância em massa, a qual é ainda mais totalizadora na atualidade porque as pessoas divulgam seus dados, ideias políticas, comunicações com familiares e amigos, entre outros, na rede mundial de computadores. Fluxos de informação, que antes se davam de modo privado, hoje são interceptados em massa (Assange et al., [2012]), inclusive de geladeiras, vestimentas, sistema de iluminação, entre outros bens conectados à Internet. E, nesse sentido, deve-se considerar que a IoT acaba apresentando um número substancial de vulnerabilidades nas redes de computadores272. Mesmo que não haja um aprofundamento tão grande quanto no uso de um DPI, a vigilância de metadados é reveladora. Imagine uma pessoa telefonando de madrugada na rodovia para a emergência através de um celular. Em seguida, liga para uma seguradora de automóvel. Então, liga a algum familiar. Ou numa outra situação, exemplificada pelo professor de Princeton, Edward Felten, onde uma pessoa faz uma ligação para uma ginecologista. Depois telefona para um familiar. Em seguida, para outro número para o qual,

271 [“The Internet of Things isn’t just about locating objects and using them to sense the surrounding environment – or accomplish automated tasks. It’s a way to monitor, measure, and understand the perpetual motion of the world and the things we do (…) The data generated by the IoT will provide deep insights into physical relationships, human behavior, and even the physics of our planet and universe. Real-time monitoring of machinery, people, and the environment creates a model for reacting to changing conditions and relationships – faster, better, and smarter”]. 272 “Dispositivos mal projetados podem expor dados do usuário ao roubo, na medida em que deixam fluxos de dados inadequadamente protegidos. Dispositivos com falhas ou com mal funcionamento também podem criar vulnerabilidades de segurança. Esses problemas são tão grandes ou maiores para os dispositivos inteligentes pequenos, baratos e onipresentes na Internet das Coisas quanto para computadores que tradicionalmente são os terminais da conectividade com a Internet” (Rose, Eldridge e Chapin, [2015]: 32). [“Poorly designed devices can expose user data to theft by leaving data streams inadequately protected. Failing or malfunctioning devices also can create security vulnerabilities. These problems are just as large or larger for the small, cheap, and ubiquitous smart devices in the Internet of Things as they are for the computers that have traditionally been the endpoints of Internet connectivity”].

253

nos últimos meses, fez ligações após as onze da noite. E, por último, para um centro de planejamento familiar, responsável, dentre outras atividades, por realizar abortos. Nos dois casos conseguimos estabelecer narrativas prováveis a partir de metadados. Ora, torna-se evidente que a captação de dados, mesmo sendo metadados, revela muito e pode ser prejudicial para aqueles que tiveram os dados violados. Com o DPI, isso torna-se ainda mais problemático. Demonstrou-se até aqui que a Internet é elemento crucial para pensarmos a vigilância no contemporâneo. Porém, isso não é motivo para ignorar as potencialidades dos dispositivos telefônicos, os quais permanecem como alvos de vigilância. Pelo contrário, com a convergência tecnológica, os dispositivos telefônicos passam a ter ainda mais precisão para serem vigiados, como evidenciado no esquema abaixo sobre o sistema de telefonia.

Fig. 6.1 – Sistema de telefonia móvel conectado à Internet (ISOC, [2015]: 98)

254

É nítido que o vínculo da telefonia móvel com a Internet tem condições de oferecer dados precisos de seus usuários – isso sem considerar o conteúdo presente nas trocas de mensagens. Mas o que poderia gerar repulsa e preocupação está envolvido com uma leveza paradoxalmente assustadora. A empresa Google possui uma aplicação que oferece ao usuário do Android uma linha do tempo com os deslocamentos realizados por ele. Enviam e-mails mensalmente com um relatório dos lugares visitados pelo usuário. Quando se acessa a aplicação, é possível verificar a rota diária do dispositivo, o qual, em teoria, está conectado ao corpo de seu proprietário. Por exemplo, no e-mail que recebi no dia 3 de janeiro de 2019 referente ao ano de 2018 (Anexo VII), há um relatório com detalhes de deslocamentos que a aplicação considera de maior relevância para mim com os locais frequentados; os que conheci; quantos quilômetros percorri e qual o equivalente dessa quilometragem em relação a voltas ao mundo; quanto andei a pé, pedalando e com veículos motorizados; qual a viagem mais distante e; a mais longa; quais os lugares mais visitados para compras, os mais visitados para comer e beber, e os mais visitados para praticar esportes; e quais os aeroportos mais visitados. O Google me deixa “livre” para escolher se quero ou não esse serviço ativado no meu dispositivo móvel. Mas o que garante que não continuará operando, de modo a apenas eu não ter acesso a esses dados? Eles, por si próprios, possuem um conteúdo considerável da minha vida. Imagine quando são cruzados com minhas transações bancárias ou mesmo caso o conteúdo das aplicações utilizadas pelo dispositivo seja analisado. Contudo, essa vigilância tão íntima é transmitida ao usuário como uma novidade, como algo relevante, dados curiosos sobre a minha vida e meus deslocamentos. Algo semelhante acontece com o e-mail da mesma empresa, o Gmail. No documento Termos de serviço do Google, de 2014, a empresa coloca o seguinte: “Nossos sistemas automatizados analisam o seu conteúdo (incluindo e-mails) para fornecer recursos de produtos pessoalmente relevantes para você, como resultados de pesquisa customizados, propagandas personalizadas e detecção de spam e malware. Essa análise ocorre na medida que o conteúdo é enviado e recebido, e quando ele é armazenado” (Google, [2014]: online)273. Em resumo, nota-se que há aí um exercício de mostrar as positividades em uma prática de vigilância, pois esses dados não são colhidos simplesmente para diversão do usuário. E não seria um excesso considerar que, segundo Snowden (apud Greenwald, [2014]), o governo norte-americano tem a capacidade de transformar remotamente os celulares em escutas. É

273 Para uma análise sobre o preço do gratuito na Internet, cf. Sankin [2014].

255

importante notar que a geolocalização pode ser realizada inclusive sem GPS274: “O operador de rede móvel (ORM) sempre teve a capacidade de localizar assinantes, mesmo antes da introdução de serviços de Internet, de modo a originar ou encerrar uma chamada. Por outro lado, o ORM também está tipicamente sujeito a regulamentações de privacidade rígidas como um assunto histórico, abrangendo não apenas o local, mas também informação de chamada, e esses regulamentos se estendem para os serviços de Internet móvel”275 (Mendel, et al., [2012]: 100). Uma prática que também se vincula à condução de condutas e recorrente na rede, fazendo parte inclusive de interações em redes sociais é realizada pelos bots, neste caso bots sociais: contas controladas por softwares que publicam conteúdos objetivando a interação com não robôs e emulando o comportamento humano. Eles estavam presentes em situações políticas ímpares, como nas eleições americanas de 2010; na eleição de Trump em 2016; no Brexit; no Brasil, com a Reforma da Lei Trabalhista; nas eleições brasileiras de 2014; no debate sobre o impeachment; e na greve geral de 2017 (Fruediger et al., [2017])276. Através dessas interações, esses robôs conseguem induzir a opinião pública compartilhando de maneira massiva e coordenada certa posição, a qual acaba influenciando usuários indecisos acerca de determinado assunto. Há diversos tipos de bot, como bots responsáveis por monitorar disponibilidade de sites e se os mesmos estão funcionando apropriadamente; extratores autorizados de dados, geralmente utilizados no mercado digital; bots que colocam informação de mecanismos de pesquisa; e bots que se passam por outra identidade para despistar sistemas de segurança. Segundo relatório de tráfego de bot realizado entre 2012 e 2016, 48% do tráfego efetuado na Internet foi de humanos e 52% de bots277 278.

274 Cf. Geolocations – Geocasts, página do Google Developers no YouTube, disponível em: . Acesso em 22 jan. 2019. 275 [“The mobile network operator (MNO) has always had the ability to locate subscribers, even before the introduction of Internet services, in order to originate or terminate a call. On the other hand, the MNO is also typically subject to strict privacy regulations as a historical matter, covering not just location but also call information, and these regulations extend to mobile Internet services”]. 276 Para mais exemplos sobre o uso de bots sociais cf. Fruediger et al. [2017]) e Arnaudo [2017]. 277 Há uma tabela no Anexo VIII com maiores detalhes sobre o estudo realizado pelo Incapsula. Além dos pontos levantados aqui sobre potenciais elementos de condução de condutas que dialogam diretamente com a Internet, considero relevante mencionar um dispositivo que se torna cada vez mais proeminente nas práticas de governo: o drone. Um material interessante a esse respeito é o livro Teoria do drone, de Grégoire Chamayou [2013]. Nele, o autor discute as reverberações da utilização do drone nas guerras, como isso estimula o desenvolvimento de novos princípios morais do “conflito” (melhor dizendo, “extermínio”) e como o drone afeta também a sociedade civil. Toda a discussão que Chamayou faz na sua obra nos auxilia a compreender em profundidade as transformações em nossa sociedade e, por conseguinte, nos possibilita forjar ferramentas para lidar com as mesmas. 278 Caso haja maiores interesses em pontos vulneráveis na Internet, cf. Anexo IX.

256

6.2 – Estado e vigilância No que se refere aos atores capazes de atuar no espectro da vigilância, quanto maior o domínio de gargalos da Internet, maiores são as condições para realizar essa atividade, podendo ser efetivada por um provedor de Internet, IX, mecanismos de pesquisa online, plataformas de redes sociais, Estados, entre outros. O intuito aqui não é o de esgotar todos os atores, do mesmo modo como acima não minei as possibilidades de interceptações de dados. Viso apenas oferecer alguns exemplos para contribuir com a expansão do leque de possibilidades apresentadas para o exercício da vigilância pela Internet. Mesmo porque já pontuei elementos acerca dos mecanismos de pesquisa e sobre os interesses diversos dos atores na vigilância. Nesse sentido, me concentro aqui no interesse do Estado com a vigilância. Como colocado, os Estados possuem condição de estabelecer fronteiras para os dados, ainda que essas fronteiras sejam etéreas do ponto de vista técnico – e, comparativamente, precisas na perspectiva política –, de modo que a Internet é arquitetada de forma a não dar prioridade a dimensões geográficas no fluxo informacional. Essas fronteiras são estabelecidas porque a infraestrutura está ligada ao território, o qual é controlado pelo Estado. Assim, o Estado tem condições de ordenar que empresas relacionadas a essa rede mundial sigam as leis do país para operarem nesse local, mesmo havendo esse limite rarefeito numa perspectiva mais técnica. A sofisticação das intervenções realizadas pelo Estado por meio da e na Internet são diversas; desde bloqueio ao funcionamento de uma dada aplicação, bloqueio de acesso a sites, acesso restrito a determinados domínios ou mesmo à Internet, remoção de resultados em mecanismos de pesquisa, utilização de vírus para infectar máquinas, até mesmo a constituição de uma grande estrutura de vigilância em massa, como a Abin (Agência Brasileira de Inteligência) e a NSA (Agência de Segurança Nacional dos Estados Unidos). São inúmeros os exemplos em que o Estado fez intervenções na rede. E os Estados inclusive realizam a vigilância entre eles. Do mesmo modo que os Estados Unidos vigiam outros países, os mesmos podem vigiá-los, tanto que os americanos se mostraram preocupados com a Huawei e a possibilidade de a China disponibilizar no mercado dispositivos capazes de transferir informações privadas dos americanos aos chineses (Greenwald, [2014]). Em 2011, o governo egípcio cortou completamente o acesso à Internet no país durante a Primavera Árabe com a expectativa de minar os protestos políticos, sendo esta a primeira vez em que acontece uma espécie de apagão da Internet no âmbito nacional, e, no caso, a mando do governo. Edward Snowden relata uma série de governos que empreendiam

257

vigilância no próprio território, sendo que alguns realizam inclusive fora do próprio país, como é o caso dos Estados Unidos (Greengard, [2015]). A China é reconhecida internacionalmente pelas privações que realiza na rede de redes, bem como por seu sistema de vigilância. Em dezembro de 2016, o governo chinês, por meio da Administração do Ciberespaço da China (CAC – Cyberspace Administration of China), apresentou um documento sobre sua nova estratégia de segurança nacional para o ciberespaço, por meio do qual seriam punidos aqueles que se envolvessem com revoltas, subversão, traição, roubasse ou vazasse segredos do país, e também aqueles que se aliassem com forças estrangeiras (Kleinwächter, [2017]). Segundo relatório publicado em 2016 (Antonialli; Abreu, [2016]), o governo brasileiro realiza a vigilância dos próprios cidadãos sem nenhum escrutínio. E, em notícia do mesmo ano, o jornal The Intercept afirmou que a Abin possui um megabanco de dados de movimentos sociais (Figueiredo, [2016]). Em relatório do Google279, o Brasil continua pedindo dados de seus usuários à empresa, sendo 1609 solicitações oficiais entre janeiro e junho de 2018. O governo brasileiro também continua solicitando remoção de conteúdo, com 338 requerimentos no mesmo período. E isso em apenas uma instituição e num recorte curto de tempo. Foi considerado, no Brasil, a possibilidade de obrigar empresas como Google e Facebook a estabelecer data centers em território nacional para armazenar os dados de seus cidadãos. Isso poderia ser visto como ferramentas para ampliar a segurança ou, após as revelações de Snowden, a vigilância (Silveiras, [2014]). Nos Estados Unidos, a situação é ainda mais intensa, pois há uma relação com o processo histórico da Internet, mencionado em capítulo anterior, e uma consequente centralidade do país nessa rede de redes. Os EUA possuem, em seu território, parte importante da arquitetura da rede, com grande número de provedores, servidores e conexões nos quais dados de diversos atores do mundo são armazenados no país ou ao menos fluem por suas conexões. Assim, oferecem condições de exercer uma vigilância de proporções incalculáveis. E por mais que esses dados não estejam necessariamente em contato direto com o governo, ele pode se valer de inúmeras táticas para haver uma disponibilização ao Estado – envolvendo intermediários locais, ativos e pessoas que operam no território. É sempre importante lembrar que a arquitetura da rede funciona, do ponto de vista geográfico, a partir de uma relação de interdependência entre territórios, os quais possuem

279 Relatório disponível em: . Acesso em 12 fev. 2019.

258

jurisdição estatal e são capazes intervir nessa arquitetura. Essas táticas diferem em conformidade com o país analisado e sua disposição em violar a privacidade dos atores a serem investigados, possuindo assim especificidades dentro de cada fronteira280. Segundo reportagem do The Guardian (Morozov, [2015]), no caso dos Estados Unidos, o governo faz requisições a empresas sediadas no país, como a Microsoft, pedindo conteúdos não necessariamente armazenados no país. Ou seja, o sistema de vigilância dos Estados Unidos possui um impacto global, como demonstra as declarações de Snowden. Como coloca Sunil Abraham ([2014]: online), “pode-se argumentar que os EUA são piores do que a China. Mais uma vez, como foi o caso da censura, a China somente realiza vigilância generalizada sobre seus cidadãos – diferentemente da vigilância estadunidense, a qual não apenas afeta seus cidadãos, mas tem como alvo todos os usuários da Internet por meio de uma abordagem em múltiplas camadas”281. É certo que não cabe aqui compreender qual dos dois países exerce maior vigilância em seus cidadãos ou mesmo fora de seu território. O ponto principal é o potencial de vigilância possibilitado pela Internet se comparado com outros meios de comunicação e transmissão de informação, além da possiblidade dos Estados se valerem da Internet para realizar essa vigilância e as consequências disso: “[p]ermitir que a vigilância crie raízes na internet significaria submeter quase todas as formas de interação, planejamento e até mesmo pensamento humanos ao escrutínio do Estado” (Greenwald, [2014]: 15). Sabemos que o governo dos Estados Unidos soube se utilizar dessa rede de redes para colaborar com a constituição de um complexo sistema de vigilância. E basta observar a organização de cabos submarinos, assim como o limite de tráfego de dados em cada um deles, para compreender o potencial vigilante desse país282. No que diz respeito à América Latina, Julien Assange coloca o seguinte, no Prefácio da obra Cypherpunks, publicada no Brasil em 2013: “[t]odos os dias, centenas de milhões de mensagens vindas de todo o continente latino- americano são devoradas por órgãos de espionagem norte-americanos e armazenadas para sempre em depósitos do tamanho de cidades. Dessa forma, os fatos geográficos referentes à

280 “[H]á um número limitado de situações em que o uso de tecnologias de vigilância pode ser justificado dentro de uma estrutura legal clara baseada nos direitos humanos e no estado de direito. Entretanto, mesmo nessas situações, a tecnologia de vigilância é fundamentalmente invasora de privacidade, tornando seu uso extensivo extremamente ameaçador para a privacidade na Internet” (Mendel et al., [2012]: 48). [“[T]here are a limited number of situations in which the use of surveillance technologies could be justified within a clear legal framework based on human rights and the rule of law. However, even in these situations surveillance technology is fundamentally privacy invasive, making their extensive use extremely threatening for privacy on the Internet”] 281 [“one could argue that the US is worse than China. Again, as was the case with censorship, China only conducts pervasive blanket surveillance upon its citizens – unlike US surveillance, which not only affects its citizens but targets every single user of the Internet through a multi-layered approach”]. 282 Cf. mais uma vez a rede de cabos submarinos fundamentais ao funcionamento da Internet disponível em: . Acesso em 18 fev. 2019.

259

infraestrutura da internet têm consequências para a independência e a soberania da América Latina” (Assange apud Assange et al., [2012]: 21). E nos Estados Unidos a entidade responsável por gerir esse esquema de vigilância é a NSA, a qual já foi mencionada em capítulos anteriores. A NSA é um braço do Pentágono e considerada a maior agência de inteligência do mundo, processando em 2012 mais de 20 bilhões de ocorrências de comunicação ao redor do mundo por dia. E, na medida em que o número aumentava progressivamente na agência, eram realizadas comemorações: “[a] fixação da NSA por coletar tudo é tamanha que o acervo de Snowden é permeado por memorandos comemorativos internos celebrando determinado marco de coleta” (Greenwald, [2014]: 107)283. Os Estados Unidos possuem diversos programas de coleta de dados em massa: por exemplo, PRISM, que envolve a captação de dados com servidores de empresas grandes de Internet no mundo, constituindo uma rede densa de atores e ancorando-se, principalmente, na aliança “Cinco Olhos”, constituída por Austrália, Canadá, Nova Zelândia, Reino Unido e Estados Unidos; o BULLRUN, realizado em parceria com o Reino Unido para burlar formas corriqueiras de criptografia; o EGOSTISTICAL GIRAFFE, o qual tem como alvo o navegador Tor; X-KEYSCORE, programa cuja utilização teve início em 2007, responsável por coletar informações sobre as atividades online de milhares de pessoas, permitindo um analista da NSA acessar bases de dados por endereço de e-mail, número de telefone, endereço IP, entre outros, e, inclusive, proporcionando monitoramento em tempo real284; e o MUSCULAR, utilizado para invadir redes pessoais do Google e do Yahoo! (Greenwald, [2014]). Nessas relações entre grandes empresas e Estados, não podemos colocá-las como reféns dos desejos de determinado governo porque precisam seguir as leis de um dado território, de maneira que elas não podem ser vistas como simples marionetes nas mãos de governos. Essas instituições têm um grande poder de vigilância e certamente recebem benefícios por seguirem determinadas diretrizes vigilantistas de Estados, possuindo cada uma seu próprio modelo de negócios e distintos projetos. Enfim, são variados os projetos de vigilância envolvendo o governo norte- americano, os quais não tomam como alvo simplesmente suspeitos de terrorismo e sim

283 Cf. a linha do tempo sobre a NSA de 1791 a 2015 disponível em: . Acesso em 28 jan. 2019. 284 “Mas o X-KEYSCORE permite um analista fazer exatamente o que Snowden falou: escolher qualquer usuário como alvo de um monitoramento extenso, que inclui a leitura do conteúdo de seus e-mails. Na verdade, o programa permite até que um analista busque todos os e-mails que incluírem um usuário-alvo na linha de ‘cc’ ou que o mencionarem no corpo do texto” (Greenwald, [2014]: 167).

260

variados escopos, como espionagem diplomática, econômica e mesmo de populações inteiras, conforme coloca Greenwald [2014] em Sem lugar para se esconder. Segundo ele, um elemento notável é o fato de diversos governos terem feito discretas objeções em relação às revelações de Snowden acerca da vigilância de seus cidadãos, surgindo uma indignação somente quando os chefes de Estado percebiam que eles mesmos tinham sido alvo de vigilância. Estas objeções discretas fazem sentido, pois o poder possui também positividade, apresentando benefícios para um determinado chefe de nação, pois vigiar seus cidadãos poderia inclusive beneficiar o governo de dado país. Como o fluxo informacional na Internet é elevado, mesmo agências como a NSA não possuem condições de varrer toda a informação que passa por dispositivos aptos a terem dados acessíveis a essas agências. Para contornar essa situação, a NSA coloca filtros eletrônicos ou computacionais em gargalos de conexão e deixa computadores programados para selecionar o que deve ser capturado, sendo esses filtros os mais variados, como um nome, certos e-mails, números de telefone, etc. Como coloca James Bamford (Barbosa, [2017]: online), especialista na história da NSA: “[e]les marcam o que querem, pode haver um nome ou milhões lá, ninguém sabe ao certo o quanto eles retiram deste fluxo global de informação”. E muitas vezes a NSA tem até mesmo salas dentro de algumas empresas: “[e]m São Francisco, há um ponto de conexão operado pela AT&T em cujo prédio há uma sala secreta na qual a NSA mantém computadores. Todas as informações que chegam passam por um filtro que tem um software que cria dois ‘caminhos’: um desce para os computadores na sala da NSA e outro segue adiante” (Bamford apud Barbosa, [2017]: online). Para além da cooperação com empresas, uma agência como a NSA pode realizar interceptação direta através de cabos de fibra óptica; redirecionar mensagens para repositórios da NSA que atravessam o sistema dos Estados Unidos; cooperar com agências de inteligência de outros países; cooperar com governos de outros países, como o programa Cinco Olhos; inserir malwares em computadores específicos para vigiar os usuários – conhecido como Exploração de Rede Computacional (CNE– Computer Network Explotation), conseguindo ver cada tecla digitada e tela visualizada; interceptar tráfegos informacionais por meio de equipamentos a serem enviados para determinadas instituições285; desenvolver técnicas para monitoramento inclusive durante voos286; desenvolver técnicas para acessar computadores

285 A NSA intercepta e interfere em roteadores e servidores fabricados pela Cisco, empresa transnacional estadunidense cuja atividade principal é a fabricação de equipamentos de redes e prestação de serviços relacionados a redes (Greenwald, [2014]). 286 Cf. programa de interceptação chamado “Thieving Magpie” (“pega-ladrão”) em Thieving Magpie allows NSA spies to snoop on in-flight mobile calls, disponível em:

261

que não estão conectados à Internet, sendo o espectro eletromagnético uma delas; e desenvolver inclusive técnicas de vigilância com efeito de paranoia constituídas por pessoas das ciências humanas para desestabilizar os alvos287. Assim, a NSA tem um escopo praticamente irrestrito para realizar a vigilância. Segundo Greenwald [2014], a tática que mais fornece os registros obtidos pela NSA é a de coletas pelos cabos e por meio de servidores das empresas de Internet através do programa PRISM. Nos últimos anos, o PRISM foi o programa que mais chamou a atenção da mídia em âmbito internacional, estabelecido com o monitoramento por meio de servidores da Internet, cabos submarinos de fibra óptica, sistema de telefonia, computadores pessoais e satélites, afetando atores dos mais diversos. Até mesmo cidadãos americanos foram afetados com o PRISM, de modo que ele infringiu a Quarta Ementa Constitucional dos Estados Unidos, colocando assim seus cidadãos sob vigilância generalizada e sem suspeita prévia: “O direito dos cidadãos à segurança de sua pessoa, de suas casas, de seus documentos e de seus bens contra revistas e confiscos não fundamentados não poderá ser violado, e só serão emitidos mandados mediante causa provável, sustentados por juramento ou declaração, e que descrevam em pormenores o local a ser revistado e as pessoas ou coisas a serem confiscadas”288. Em síntese, o PRISM é visto como um programa complexo e de alto impacto que contribui para evidenciar a vulnerabilidade da rede globalmente, permitindo a NSA realizar a coleta de comunicações feitas nas redes das maiores empresas de Internet do mundo, como Facebook, Yahoo!, Google e Skype. Mas é fundamental ter em mente que diversos outros materiais sobre vigilância em massa já haviam sido publicados antes de Snowden. Inclusive o livro Cypherpunks [Assange et al., [2012]] apontava inúmeros programas de vigilância espalhados pelo globo antes das publicações de Snowden, sendo o vazamento de maior grau de importância da NSA.

. Acesso em 30 jan. 2019. 287 “A agência de vigilância britânica [GCHQ] também usa uma equipe de cientistas sociais, que conta com alguns psicólogos, para desenvolver técnicas de ‘HUMINT (human intelligence, ou inteligência humana) na internet’ e ‘perturbação de influência estratégica’. O documento ‘A arte do engodo: como treinar uma nova geração de operações sigilosas na internet’ é dedicado a essas táticas. Preparado pelo setor da agência chamado HSOC (Cédula de Operações em Ciências Humanas), alega utilizar conceitos de sociologia, psicologia, antropologia, neurociência e biologia, entre outros, para maximizar as habilidades de engodo da GCHQ na internet” (Greenwald, [2014]: 206). 288 [“[t]he right of the people to be secure in their persons, houses, papers, and effects, against unreasonable searches and seizures, shall not be violated, and no Warrants shall issue, but upon probable cause, supported by Oath or affirmation, and particularly describing the place to be searched, and the persons or things to be seized]. Disponível em: . Acesso em 28 jan. 2019.

262

6.3 – Consequências da vigilância Ora, tendo em vista que essa rede de redes computacional se expande cada vez mais, possibilitando o aumento do número de usuários, passa-se a viver em um contexto onde quase tudo é potencialmente monitorado, registrado e analisado, havendo enormes implicações na privacidade, na influência na política, nas estruturas sociais e inclusive nas leis (Silveiras, [2014]). Com isso, a possibilidade de fazer determinadas leis se cumprirem aumenta ainda mais. E, como se sabe, a vigilância em potência contribui para uma sensação de ser constantemente vigiado, a qual, por sua vez, colabora para conduzir condutas. Isto porque a constância da potência de vigilância passa a marcar nosso cotidiano e acaba sendo internalizada, seja com a presença de câmeras nas ruas, nos colégios, dentro de salas de aula, consultórios, mercados, estacionamentos, elevadores, rodovias; seja com um celular que se desloca e, junto dele, um corpo humano, ou com uma conta de e-mail que é logada de uma localização e, após 40 minutos, logada novamente a 10 quarteirões dali. Em todos esses casos há uma possibilidade de perceber movimentos e condições de extrair informação disso. São incontáveis os rastros deixados no nosso cotidiano, rastros que dizem muito de nós e que tendem a ser cada vez mais acessíveis a certos atores, alimentando seus interesses e, junto com isso, condicionando nossos corpos e nossa relação com os ambientes e atores com os quais nos envolvemos. Nesse sentido, não precisamos ser constantemente vigiados para nos sentirmos assim, isto é, a vigilância que sairia da câmera começa a ser internalizada, na medida em que nós mesmos passamos a nos vigiar. O panóptico, apontado por Foucault, acaba aparecendo como o prenúncio de algo mais complexo e etéreo, posto que a vigilância não se limita às instituições, estando presente conosco em módulo e afetando a nossa mente. Como coloca Greenwald ([2014]: 190): “[m]as a vigilância em massa também elimina a dissidência em um lugar mais profundo e mais importante: na mente, que o indivíduo treina para pensar apenas de acordo com o que é esperado e exigido dele. A história não deixa dúvidas de que coerção e controle coletivos são ao mesmo tempo a intenção e o efeito de um Estado de vigilância”. E embora seja comum relacionar a vigilância com algo discreto, muitas vezes há a intenção de mostrar que se é vigiado, como ao acessar o site da empresa Grokster. Grokster foi uma empresa privada de software que, em 2001, criou um programa de compartilhamento de arquivos utilizando P2P. Em 2005, a Suprema Corte dos Estados Unidos decidiu bloquear a operação do programa no Windows, forçando o fechamento da empresa. Ainda hoje, aquele que tenha interesse de entrar no site da Grokster

263

() será recebido com a seguinte mensagem, indicando o endereço IP do usuário e também que o mesmo não é invisível:

Fig. 6.2 – Website grokster.com

Além desse tipo de estímulo para se perceber a presença da vigilância, ela aparece também nos debates sobre segurança com a roupagem de que vigilância, em realidade, seria uma forma de proteção. Ademais, a vigilância estabelece toda uma economia de vigilância e proteção, onde um mesmo ator pode trabalhar dos dois lados disso que também é visto como um comércio. Mas, no geral, a segurança não é o elemento mais marcante de nossas vidas, caso contrário nossa sociedade seria totalmente diferente. Contudo, essa concepção de segurança, atrelada necessariamente com as ferramentas de vigilância, nos coloca como reféns da perda de nossa privacidade. Perdemos espaços nos quais poderíamos agir livremente (ou ‘sem preocupações’) acerca do que queremos/podemos passar para os outros, especialmente quando está em jogo relações para além dos laços estáveis que possuímos. Pois sabe-se que em grande medida nossas ações são pautadas considerando o outro e aquilo que queremos representar para ele (Goffman, [1956]). Temos o potencial de perder também a nossa liberdade de expressão, a qual pode ser ameaçada não apenas por governos, mas por ISPs, mecanismos de pesquisa, mídias sociais, entre outros289. Mas a Internet é portadora do anonimato. A própria arquitetura da rede permite que os dados trafeguem nela sem a necessidade de identificação daquele que os envia. Pois

289 Em um trabalho realizado pela Unesco (Mackinnon et al., [2014]: 25), há uma tabela relevante sobre algumas possibilidades de restrição da liberdade de expressão que a Internet pode nos oferecer. Reproduzo essa tabela no Anexo VI.

264

parte dos protocolos responsáveis por esse serviço não exige a quebra do anonimato, o que certamente dificulta o exercício do controle nessa rede de redes. Isso possibilita que o amplo sistema de controle se torne uma rede vulnerável ao anonimato, uma vulnerabilidade constitutiva da rede. Há, pois, uma relação dialética constituindo essa rede acerca do controle e liberdade na rede: tem-se rastros dos usuários na rede e a possibilidade de estes não levarem à identidade de quem os deixou. Nesse sentido, concordo com a seguinte afirmação de Silveira ([2009]: 120-1): “[s]e a atual arquitetura lógica da rede é organizada de modo a garantir que toda a navegação deixe rastros digitais, simultaneamente os principais protocolos da Internet garantem a comunicação sem o necessário vínculo entre um IP de origem do fluxo de dados e uma identidade”.

***

Por mais que haja medidas de segurança, a vulnerabilidade estará presente do mesmo modo como o vidro de uma janela é vulnerável a um ataque. O risco, nesse caso, é o potencial de algum tipo de ataque acontecer, como a indisponibilidade de serviços, perda de privacidade, furto de dados, perdas financeiras, dano à imagem e a consequente desconfiança numa tecnologia. No entanto, a gestão de risco é recomendada a se praticar e a aprender desde jovens, como, por exemplo, ao olharmos para os dois lados da rua antes de atravessá-la. Nesse sentido, a gestão de risco no uso da Internet precisa ser algo do cotidiano de seus usuários, pois, caso contrário, podem inclusive fragilizar a segurança da própria rede com a qual estão conectados (Kurbalija, [2014]). É como se a tentativa de infiltrar nosso computador fosse um ruído de fundo da Internet, presente a todo momento. É interessante pensar na dificuldade de se estabelecer um sistema 100% seguro, mesmo porque os atores envolvidos no trânsito de determinada informação precisam de informações cruciais para que os dados trafeguem nessa rede de redes, de modo a se tornar difícil impedir que diversos atores tenham conhecimento da localização de um usuário, entre outras informações. Todos os atores envolvidos nesse processo possuem interesses, alguns se preocupam em manter esses dados invioláveis para não perder o prestígio de serem seguros, ao mesmo tempo em que outros estão preocupados em faturar capital econômico através da venda de dados dos usuários. Com o advento da Internet, há uma modificação no modo tradicional de vigilância realizada pelo Estado e outros atores. Mas ainda que o Estado possua condições de exercer uma soberania em parte dessa rede mundial, por mais que essa zona de influência esteja para além de seu território, não consegue alcançar a totalidade da rede, todos os nós. O modelo de

265

vigilância proporcionado pela Internet está para além do Estado, chegando nas mãos do crime organizado: “[o]s governos estão perdendo seus privilégios orwellianos de detecção de informações. O sensoriamento remoto e outros meios de espionagem estão disponíveis a um custo cada vez mais baixo, por exemplo, para a mídia”290 (Lenk, [1997]: 130). Os movimentos sociais também podem se apropriar dessa tecnologia. Surgem inúmeras questões para se debater nessa esfera de trânsito de informação, entre elas segurança versus vigilância. A resposta para essa questão talvez não seja escolher uma em detrimento da outra, mas sim questionar a própria oposição entre ambas. Dito de outro modo, a resposta para as aplicações e programas de vigilância contemporâneos não é direta, contra uma ou outra aplicação, ou mesmo um ou outro programa, pois são coisas efêmeras, possíveis de se dissolverem hoje e amanhã aparecerem com uma nova roupagem. Assim, uma resposta direta a essas questões tem um efeito prático e imediato que poderá ser tão efêmero quanto essas aplicações e programas. Eis aí a necessidade de entender o movimento, dar um passo para trás, para, em seguida, dar dois passos à frente, a fim de lidar com o espectro da vigilância na Internet e em nossas vidas. Nos próximos parágrafos apresento algumas respostas, sendo que parte significativa delas são datadas, de modo a ser mais crucial entender o movimento, o que as sustenta, para assim edificarmos sólidas e oscilantes estéticas da existência/resistência contextuais capazes de brincar com os pontos de fuga presentes nos mecanismos de vigilância.

6.4 – Contrapoderes No decorrer dos capítulos sobre arquitetura da rede ficou evidente a relevância de cada um dos dispositivos que fazem funcionar a Internet, a forma como se estabelece essa estrutura de governança, bem como os atores relevantes na mesma. Encontramos, nesses capítulos, o modo de operação e os atores envolvidos com isso. Mas, propositalmente, não mencionei o elemento fundamental para a existência da Internet e de toda sua dinâmica financeira: o usuário. Ele é a condição de existência da Internet como a concebemos. E, embora seja óbvia, essa relevância precisa ser reforçada para o usuário ter ciência de seu poder de influência, consciência de que se não houver mais usuário não haverá a Internet como conhecemos hoje. Segundo Burroughs ([1959]: 248): “[s]e você quiser alterar ou aniquilar uma pirâmide de números que possua uma relação em série, você altera ou remove o

290 [“[g]overnments are losing their Orwellian privileges of information detection. Remote sensing and other means of spying are available at increasingly low cost, for example to the media”].

266

último número (...) Quando não houver mais dependentes para comprar junk, não haverá mais tráfico de junk. Enquanto alguém precisar de junk, haverá quem ofereça o produto”. Com a Internet não é diferente, pois, ainda que exista um ator fulcral para a Internet como a compreendemos hoje, não há uma fórmula para resistir àquilo que afeta o uso dessa rede de redes, seja em relação à crítica ao modo como ela funciona ou mesmo à capacidade de captar informações e conduzir condutas dos usuários. Como colocado, a resposta é contextual e fugidia, pois “[é] ao nível de cada tentativa que se avaliam a capacidade de resistência ou, ao contrário, a submissão a um controle” (Deleuze, [1990]: 222). Diante disso, não se pode condicionar a possibilidade de resistência a ação oposta de confronto e apenas racionalizada. Pelo contrário, deve-se ter o corpo aberto para as múltiplas formas de resistir a algo, pois o humano é formado tanto por uma dimensão consciente quanto inconsciente, sendo o próprio inconsciente capaz de dar respostas aos conflitos presentes no âmbito consciente. A questão é que o corpo do humano e tudo aquilo que está presente nele sofre as consequências relacionadas ao modo como estamos lidando com as tecnologias. Como coloca Byung-Chul Han, em Sociedade do cansaço ([2010]: 33), acerca da atenção que devemos ao executarmos no contemporâneo várias tarefas simultaneamente: “Essa atenção profunda é cada vez mais deslocada por uma forma de atenção bem distinta, a hiperatensão. Essa atenção dispersa se caracteriza por uma rápida mudança de foco entre diversas atividades, fontes informativas e processos. E uma vez que ele tem uma tolerância bem pequena para o tédio, também não admite aquele tédio profundo que não deixa de ser importante para um processo criativo”. É certo que isso gera um esgotamento do humano e sua corporalidade, e ele precisa lidar com essa equação humana: se posicionar e agir frente a uma realidade cibernética que está com ele e, de certo modo, dentro dele. Portanto, ao pensarmos no humano e suas relações com o não humano, especialmente a Internet, há um debate por detrás que se associa na questão entre “eu”, corpo e tecnologia, onde o corpo é visto como algo poroso que tende a absorver as dinâmicas do social. Isto faz todo sentido ao considerarmos que a condição humana é corporal, mesmo que se desenvolvam inúmeros jogos e situações onde o virtual se apresenta com grandes doses de uma realidade virtual ou mesmo “realidade aumentada”. Nosso corpo responde a nossa relação com a Internet, com os delírios do mundo conectado, seja num movimento de incorporar, desincorporar, subjugar ou resistir diante dessa tecnologia. De um modo ou de outro, o corpo é afetado por tudo isso. Assim, apresento nos próximos parágrafos algumas práticas, de alguma maneira questionadoras do modo de funcionamento atual da Internet, incluindo a vigilância, e que de algum modo dialogam com essa relação entre Internet e corporalidade. Contudo, não se pode dizer que os atores dessas

267

práticas possuem plena ciência da relevância de si nesse funcionamento, bem como do potencial político e contestatório presente nesses usos da Internet. A criptografia é uma das respostas mais comuns e robustas para lidar com a vigilância, tendo já sido mencionada no decorrer deste trabalho. É praticamente consenso a importância da criptografia como uma ferramenta essencial para a segurança da informação, e de ela estar disponível para os usuários da Internet (Denning, [1997]). Além disso, é uma arma simples e acessível, podendo ser produzida até mesmo em computadores domésticos; capaz de resistir às investidas de superpotências; e considerada por Assange (Assange et al., [2012]: 28) como “a derradeira forma de ação direta não violenta”. Na etimologia da palavra, kryptós significa “escondido” e graphé “escrita”, sendo então qualquer mensagem que necessite de decifração para ser compreendida. De maneira sucinta, a criptografia pode ser entendida como uma ciência preocupada em proteger dados por meio de encriptação e processos relacionados (Schmeh, [2001]). Para isso, tanto a matemática quanto o computador têm se tornado fundamentais. Dada a simplicidade conceitual, sua versatilidade é dedutível, sendo utilizada para diversas atividades, entres elas a codificação de e-mails, tanto em intranets quanto na Internet; na web, para acesso a banco de dados, administração de sistema de computadores, centros comerciais, troca de informação entre empresas, etc.; em conexões cliente-servidor; nas redes privadas virtuais para auxiliar, por exemplo, no trânsito informacional entre as filiais de uma mesma empresa; em sistemas de pagamento; e no acesso remoto. Tomando como referência as camadas da rede, a criptografia pode ser implementada em todas, havendo seus prós e contras em cada uma. No geral, pode-se dizer o seguinte quanto à implementação da criptografia nas camadas da rede: quanto mais profunda for a camada com criptografia, menor a possibilidade de dados divulgados, pois endereços, informação de roteamento, entre outros dados da camada superior são protegidos pela implementação da criptografia em camada inferior; quanto mais alta é a camada implementada, mais o usuário pode influenciar no que é e como é criptografado; quanto mais elevada a camada na qual a criptografia é executada, mais facilmente as estações intermediárias podem ser conectadas, pois, em muitos casos, não é interessante um determinado pacote ser descriptografado por um roteador e então criptografado novamente; não há uma camada boa ou ruim para implementar a criptografia, pois a positividade ou negatividade aparecerá dependendo do contexto, sendo geralmente apropriada a utilização de diversos métodos de proteção de dados (Schmeh, [2001]).

268

Pode-se colocar como síntese algumas ponderações acerca da criptografia e seu uso: o atacante é mais experto do que se imagina; métodos de criptografia não precisam ser mantidos em segredo devido ao ponto relevante ser a chave criptográfica utilizada; os métodos mais recentes de criptografia são mais propensos ao erro, pois precisam ser devidamente testados a partir de seu uso e consequentes ameaças reais; as chaves criptográficas são comprometedoras; a criptografia em si é inútil, pois é necessário uma série de outras medidas de segurança para o funcionamento, como o não comprometimento das chaves criptográficas (Schmeh, [2001]). Por exemplo, se o sistema no qual a criptografia é executa for invadido, o intruso poderá ter acesso ao texto criptografado diretamente ou mesmo realizar procedimentos para ter acesso a chaves criptográficas, subvertendo o processo de criptografia. A criptografia também está presente no embate entre vigilância e segurança. Porque, assim como pode ser usada para proteger os dados dos usuários de governos, empresas, entre outros, é largamente utilizada por atores que realizam atividades delituosas. Dorothy Denning [1997] argumenta, em The future of cryptography, que seria importante chegar a um tipo específico de criptografia, por meio do qual o governo pudesse ter acesso às informações dos usuários para assim lutar contra o terrorismo e conseguir implantar a lei na Internet. Nesse sentido, há a defesa de que a criptografia deveria ser quebrada por certos governos, instituições, etc., na defesa dos cidadãos contra aqueles que cometem delitos e podem comprometer os “cidadãos de bem”. Ainda segundo Denning, a criptografia não poderia nos levar a uma desordem social. Inclusive, seria necessária, para isso, uma abordagem internacional, entre governos, de modo a minar a ameaça internacional da crypto anarquia. A sugestão da autora é a de que haja uma base forte de criptografia com uma chave de acesso para, em emergências, essa criptografia poder ser quebrada pelo governo. Um ponto não considerado por Denning em sua análise foi o de o Estado também possui interesses no acesso aos dados dos cidadãos, transcendendo a questão da segurança. Dessa forma, seria possível, a partir disso, o desenvolvimento de uma vigilância de grandes proporções, como se pudéssemos confiar no Estado enquanto entidade neutra. A questão é: confiamos ou não no Estado como o detentor da posse de nossas informações? Depois das revelações de Snowden, a resposta parece óbvia. No debate sobre o Marco Civil da Internet, a confiabilidade em relação ao Estado brasileiro foi discutida quando a então presidente Dilma considerou coagir grandes empresas, como Facebook, de armazenar os dados dos cidadãos brasileiros em data centers no território brasileiro, como já mencionado. Alguns dos participantes defenderam que haveria mais segurança no armazenamento em outros territórios do que no brasileiro, onde as

269

consequências do vigilantismo poderiam ser ainda piores caso fosse realizado pelo governo brasileiro. A militância é uma forma de resistência que tem sua marca na Internet, espraiando nas mais diversas temáticas, contribuindo para conscientizar a população sobre o que sustenta essa rede de redes. O WikiLeaks realiza um importante trabalho nesse sentido, disponibilizando mundialmente documentos secretos vazados, contribuindo para evidenciar os interesses dos mais diversos atores, incluindo o governo norte-americano e suas agências de “segurança”. Em decorrência do trabalho realizado por essa organização, tanto o site quanto os membros vêm sofrendo uma série de sanções e perseguições. Inclusive, o WikiLeaks se serve das características da Internet para conseguir manter o site no ar, de modo a ter seus dados em múltiplos servidores espalhados e distribuídos pelo globo, relativizando as fronteiras nacionais. É notável a presença do WikiLeaks na divulgação de informações confidenciais. Mas não se deve restringir a essa plataforma, dado que é possível pensar em outras ou mesmo sobre a prática política de atores inseridos em empresas consagradas na Internet. Há, pois, um amplo leque de possibilidades de militância relacionada à Internet. Em 2018, cerca de 3 mil funcionários do Google assinaram uma carta pedindo à empresa para deixar de participar com o Pentágono de um projeto chamado Maven, o qual tinha como objetivo acelerar o uso da inteligência artificial em aplicações militares. Como o Google não cedeu, alguns deles pediram demissão, pois desconfiavam que o desenvolvimento do projeto poderia contribuir para causar a morte de pessoas (Alecrim, [2018]). Em 2014, Tim Berners-Lee fez um chamado para uma Magna Carta da Internet com o objetivo de barrar o controle da rede mundial de computadores por corporações e outros atores, uma espécie de garantia dos direitos básicos e liberdade, preocupando-se também com a privacidade na rede de redes, uma Internet sem vigilância e sem censura:

Se uma empresa pode controlar seu acesso à Internet, se pode controlar para quais sites vai, então tem um grande controle sobre sua vida. (...) Se um governo pode bloquear seu acesso, por exemplo, a páginas políticas da oposição, então eles podem te dar uma visão limitada da realidade para se manterem no poder. (...) De repente, o poder de abusar da Internet aberta se tornou tão tentador tanto para o governo quanto para grandes empresas291 (Berners-Lee apud The Guardian, [2014]: online).

291 [“If a company can control your access to the internet, if they can control which websites they go to, then they have tremendous control over your life (...) If a government can block you going to, for example, the opposition’s political pages, then they can give you a blinkered view of reality to keep themselves in power (...) Suddenly the power to abuse the open internet has become so tempting both for government and big companies”].

270

Essa possibilidade se apresenta como relevante de um ponto de vista formal. Mas não se pode esquecer que formalmente governos e instituições não poderiam realizar uma série de práticas vigilantes nos usuários da Internet. Portanto, ainda que seja um chamado interessante, na prática esse documento seria proforma se não tivesse toda uma infraestrutura para acionar o que estivesse presente na magna carta. No âmbito da arquitetura, uma prática da resistência que depende de um coletivo, embora sua objetivação se dê de modo individual na conexão com a rede, é a utilização do navegador Tor. Ele opera a partir da rede Tor de usuários, que é mundial e descentralizada, realizando uma espécie de embaralhamento entre os IPs dos usuários dessa rede. Assim, se algum usuário estiver sendo vigiado, será possível apreender apenas ruídos da comunicação, mas não a identificação de onde veio certo pacote. É uma rede nebulosa de roteamento dos pacotes informacionais que visa eliminar os rastros deixados por um usuário ao navegar pela rede. As mensagens são repetidamente criptografadas e enviadas pelos nós das redes. Assim, o anonimato aparece como um dos elementos centrais da dinâmica operada nessa rede.

Fig. 6.3 – Modo de operação na rede Tor292

Como se pode observar, uma conexão na rede Tor (um circuito) utiliza pelo menos 3 nós da rede Tor. E sua dinâmica é distinta daqueles computadores que não fazem parte da rede Tor. É certo que esse sistema possui uma velocidade de acesso a determinado site mais reduzida e demorada do que por outra. E isso é um desestímulo para aqueles que consideram quanto mais rápida a velocidade de acesso, melhor. Nesse sentido, essa ferramenta serve como um exemplo quanto ao questionamento do que tomamos como referência quando pensamos na Internet, do que colocamos como mais relevante ao utilizarmos uma rede na

292 Material inspirado em Divulgação EFF/Creative Commons.

271

qual, muitas vezes, pagamos o preço alto de ter nossa privacidade comprometida para ter acesso a redes de relações, vídeos, maior velocidade de acesso, etc. Embora seja mais devagar que o uso tradicional da Internet, é importante salientar a melhoria da velocidade da rede Tor nos últimos anos. Ainda que possua um complexo sistema de embaralhamento de dados, o Tor possui brechas:

Entre o último ponto da rede e o servidor solicitado, a rede não é protegida, tornando assim o conteúdo e seus metadados vulneráveis ao chamado ataque man-in-the- middle. Por isso, as diversas entidades preocupadas com a privacidade dos usuários recomendam o uso do Tor aliado a uma série de programas que garantam a proteção mais próxima do ideal (como o Tails, que funciona como um Tor portátil que não deixa rastros na máquina) (Souza, [2014]: online).

Portanto, pode-se considerar que o Tor possibilita um alto e não total grau de anonimato. E é importante lembrar da necessidade, dependendo do tipo de serviço utilizado na rede, do usuário se identificar para ter acesso ao mesmo, estando mais uma vez vulnerável. Dado o caráter de anonimato, o Tor é bloqueado em alguns países. Mas não daria para pensarmos em grupos fechados de “amigos” e “inimigos” do Tor Project a partir de categorias, como governo, iniciativa privada, etc. Pois algumas forças armadas, jornalistas e mesmo o FBI utilizam essa rede. Mesmo com alguns governos se posicionando contra a rede Tor, ela é relativamente grande. Atualmente, possui cerca de 2 milhões de usuários, 6 mil servidores e tem um tráfego de cerca de 200 Gbits/s293.

Fig. 6.4 – Tráfego de dados na rede Tor considerando usuários diretamente conectados

293 Dados disponíveis em: . Acesso em 8 fev. 2019.

272

O Tor começa a se desenvolver em 2001 na marinha dos Estados Unidos, tendo seu uso aberto a partir do momento em que passou a ser administrado por várias entidades no ano de 2006. A rede Tor começou a ser administrada pelo Tor Project, o qual recebe financiamento de uma série de instituições, dentre elas o governo norte-americano. Chegou inclusive a receber financiamento do Departamento de Defesa americano (DoD), o qual abriga a NSA (Souza, [2014])294. Além do embaralhamento, o navegador do Tor possibilita ao usuário o acesso a sites com extensões não usuais, como “.onion”, geralmente entendidos como pertencentes à Deep web. Deep web se refere a qualquer conteúdo da Internet que, por algum motivo não foi indexado por mecanismos de pesquisa como Google, incluindo páginas dinâmicas, sites bloqueados, sites privados, entre outros, sendo chamada de “profunda” justamente por não ser alcançada pelos tradicionais buscadores. Entre esses sites, há inclusive aqueles não registrados no DNS da função IANA, não sendo gerenciados pela ICANN. Esses sites geralmente apresentam um TLD como o “.onion”, exigindo um servidor DNS específico para direcionar o usuário até o endereço desejado. O navegador Tor consegue alcançar esse tipo de DNS. Como coloca Giangaglini et al. ([2015]: 5): “[e]sses sistemas não apenas escapam dos regulamentos de nomes de domínios impostos pela ICANN; como também a natureza descentralizada de DNSs alternativos dificulta o acesso a esses domínios, caso necessário”295. Para se ter uma noção do tamanho da Deep web, pode-se dizer que 95% do conteúdo capaz de ser acessado pela Internet é protegido por senhas ou mesmo outros mecanismos de segurança (Afonso, [2016]). Assim, a Internet constitui-se muito mais de espaços fechados do que abertos. Nessa nebulosa da Internet, certamente existem copiosos casos de crimes cometidos pelos usuários, rede de tráfico, invasão de computadores alheios, etc. Mas dada a caracterização da Deep web realizada acima, não se pode vinculá-la a algo criminoso em si. É necessário colocar isso porque há uma narrativa de crime relacionada à Deep web, motivada pelo fato de as redes criadas ali poderem incomodar os modelos de negócio vigentes no que geralmente se entende como sendo a Internet. Outra forma de acesso a conteúdos criticados por instituições tradicionais de direitos autorais é o compartilhamento de arquivos, responsável por ferir esses direitos por meio da arquitetura P2P, como o Torrent. Já foi explicado aqui o modo de operação da

294 Conferir lista de instituições que financiam o Tor Project, disponível em: . Acesso em 8 fev. 2019. 295 [“[t]hese systems not only escape the domain name regulations imposed by the ICANN; the decentralized nature of alternative DNSs also makes it very hard to sinkhole these domains, if needed”].

273

arquitetura P2P e do BitTorrent, protocolo utilizado no Torrent. Assim, basta dizer que, mesmo representando cerca de 40% do tráfego diário na Internet (BitTorrent, online), o BitTorrent permanece como uma medida na contramão de uma economia voltada a preservar modelos tradicionais de distribuição de mídias. O BitTorrent força o estabelecimento de uma concepção de distribuição de dados distinta daquela adotada pelas formas tradicionais das grandes corporações do entretenimento, questionando por meio da prática esses modelos. Ainda dentro da lógica de compartilhamento de arquivos, há a possibilidade de estabelecer uma dinâmica de troca entre computadores a partir da arquitetura P2P, onde os dados dos usuários ficariam armazenados em computadores privados, de forma que cada um seria responsável pelos seus dados. É certo que, na prática, haveria grande dificuldade para implementação, mesmo porque somos estimulados a não compreender todo esse conjunto de elementos que sustentam a Internet. Contudo, esse tipo de exercício certamente colaboraria de maneira substancial não por suas consequências diretas na dinâmica da rede, mas pelo esclarecimento sobre o modo de funcionamento da Internet por parte do implementador dessa classe de projeto. Outra possibilidade nesse mesmo sentido é a construção de um servidor Web. A transformação do próprio computador em um servidor web é algo relativamente simples, mas sem as facilidades de se deixar os dados em plataformas tradicionais. As medidas necessárias para o estabelecimento de um servidor pessoal são várias; o desbloqueio da porta 80 (recepção do tráfego Web, HTTP), posto que serviços residenciais de banda larga costumam bloquear essa porta; a devida configuração de software de servidor web; a relativa estabilidade de conexão com a Internet – caso contrário o acesso ao conteúdo do servidor será inconstante; o monitoramento da estabilidade da rede; e mesmo a obtenção de um endereço para possibilitar o acesso do conteúdo presente no servidor por outros atores296. Permanecendo ainda no desenvolvimento de práticas relacionadas à arquitetura da rede, temos os servidores raiz alternativos, estruturas DNS alternativas. Para ser uma raiz alternativa, tecnicamente falando, basta a zona raiz não ter vínculo com a IANA. Um dos projetos alternativos é o OpenNIC, o qual oferece o registro de domínio de topo fora das diretrizes da ICANN e não reconhecido por ela – embora por questão de compatibilidade o projeto reconheça os domínios da ICANN. Assim como acontece em outros DNSs raiz alternativos, os domínios hospedados no OpenNIC não são acessíveis para um número expressivo de usuários da Internet porque exige uma configuração fora do padrão nos

296 Existem várias formas de criar o próprio servidor web. No link a seguir, há uma dessas: . Acesso em 11 fev. 2019.

274

computadores dos interessados em acessar esses domínios alternativos. Há ainda outros nomes de roots alternativos, como Namecoin, New Nations e ORSN, possuindo cada um sua particularidade, filosofia e modo de operação. Um dos grandes problemas relacionados aos servidores raiz alternativos refere-se à possibilidade de fragmentação da Internet, aumentando o número de redes e dificultando o acesso para o usuário. Outro problema diz respeito à potência de seu funcionamento, pois, ao contrário da ICANN e instituições vinculadas a ela por meio da função IANA, os servidores raiz alternativos geralmente não possuem um capital econômico tão elevado para suportar um trânsito substancial da Internet em suas arquiteturas. Desse modo, seu uso parece viável apenas para um número restrito de usuários. Por esse ângulo, não parece fazer sentido estabelecer servidores raiz alternativos para competir com a ICANN. Ademais, um root alternativo que quisesse competir com a ICANN sofreria dos mesmos problemas experimentador por Tim Berners-Lee com o início da Web: pessoas para utilizarem o sistema. “[a] questão essencial é quantos ‘seguidores’ terá um servidor alternativo ou, mais precisamente, quantos computadores na Internet apontarão para eles depois que eles se tornarem nomes de domínios resolvedores? Sem usuários, qualquer DNS alternativo torna-se inútil” (Kurbalija; Gewlbstein, [2005]: 52). Todavia, é uma possibilidade interessante para pensarmos a Internet além das instituições tradicionais, trabalhando em paralelo com as vias tradicionais de tráfego de informação. Mueller [2002b] afirma ainda que, dado o fato de a ICANN ter um processo lento e dispendioso para o registro de novos gTLDs, as raízes alternativas poderiam ser uma maneira de controlar esse gargalo. Além disso, essas raízes podem ser uma resposta às controvérsias geopolíticas com as quais a ICANN pode se envolver, concepção que está presente, por exemplo, no projeto Yeti-DNS, criado pelo operador da raiz F do sistema da ICANN, Paul Vixie. Para ele, “se algum país decidir algum dia que a ICANN não é confiável e desejar criar seu próprio sistema de DNS da Internet, quero que tenham o conhecimento necessário, a competência e a conscientização sobre as tradeoffs, no país, para seguirem seu próprio curso de soberania”297 (Vixie apud Brenden; Mueller, [2016]: online). Vixie argumenta também que a gestão de uma zona raiz não deve ser vista como algo apenas dos “sumos sacerdotes” da ICANN e atores que se envolvem diretamente com essa instituição.

297 [“if some country decides someday that ICANN cannot be trusted, and they want to create their own Internet DNS system, I want them to have the necessary expertise and competence and awareness of tradeoffs, in- country, to pursue their own sovereign course”].

275

Pelo contrário, qualquer um que queira criar uma zona raiz própria deve obter ajuda, independente do motivo. Ainda apontando alternativas para a atual infraestrutura da rede, há a proposta de uma nova Internet pautada na arquitetura P2P e defendida pela P2P Foundation298. Geert Lovink ([2012]: online) coloca o seguinte sobre essa possibilidade:

Proponho voltar à arquitetura original da Internet como uma infraestrutura pública com nós descentralizados. Pode ser romântico insistir na natureza distribuída de redes, mas é uma demanda política necessária. (...) Mesmo se a própria Internet tivesse uma origem militar na Guerra Fria, e fosse agora dominada por uma força igualmente destrutiva dos capitalistas ousados e gananciosos, apoiada por gurus libertários. Vamos repensar a esfera pública: outra internet é possível!299

Cheriton e Gritter [2000] também pensam numa nova geração para a Internet considerando a constituição de uma renovada arquitetura. No artigo de Balasubramaniam et al. [2011], por sua vez, defende-se a projeção de uma nova arquitetura da Internet mais dinâmica, modular e adaptável, sendo que esses recursos poderiam ser observados em processos biológicos, inspirando assim o design de novos conceitos para a arquitetura da rede. Já Zhou e Van Renesse [2004] defendem uma nova estrutura de rede capaz de resolver as crescentes tensões entre a infraestrutura de roteamento da Internet e os seus sites considerando o uso do P2P, propondo assim o P6P. É certo que os órgãos vinculados ao sistema hegemônico de operação da Internet fazem a defesa da necessidade de, para funcionar bem, a Internet precisar ter um único espaço de nome público reconhecido globalmente, não sendo tecnicamente viável ter mais de um DNS público, como colocado pelo IAB no RFC 2826 [2000]. Os instrumentos de resistência podem ser encontrados inclusive em aplicativos instaláveis em smartphones. Um exemplo disso é o Briar, aplicativo de comunicação de código-aberto e descentralizado que funciona por meio da rede Tor, onde a própria comunidade é o servidor do aplicativo. O Briar permite que usuários próximos continuem conversando através de Wi-Fi ou mesmo Bluetooth, caso a Internet não esteja operando. Devido ao fato de não haver uma centralidade nessa rede, esta fica menos vulnerável a ataques. Outra aplicação de comunicação é o Signal, o qual além de utilizar criptografia de ponta a ponta promete não obter acesso às mensagens dos usuários e também não armazenar

298 Diretório com uma série de links sobre os projetos da P2P Foundation disponível em: . Acesso em 11 fev. 2019. 299 [“I propose to go back to the original architecture of Internet as public infrastructure with decentralized nodes. It may be romantic to insist on the distributed nature of networks but it is a necessary political demand (…) Even if internet itself had a military origin in the Cold War, and is now dominated by equally destructive force of greedy venture capitalists, backed up by libertarian gurus. Let’s rethink the public sphere: another internet is possible!”].

276

nenhum de seus dados. O OONI é uma aplicação que serve para identificar bloqueios de sites e de aplicativos de mensagens instantâneas; avalia a velocidade e a performance da rede, e se há algum sistema responsável pela censura e vigilância no uso do smartphone – o que contribui para formular contrapoderes. No que concerne aos navegadores, o Orfox, concebido pelo Projeto Tor, é uma espécie de plataforma do Tor para Android, valendo-se de proteções de privacidade utilizadas no navegador Tor. O Projeto Tor possui também um aplicativo de proxy e utilização de caminhos alternativos para acessar a Internet sem ser identificado, o Orbot. Para além das aplicações de smartphones, o VeraCrypt se destaca entre os programas de criptografia. Funcionando em vários sistemas operacionais, ele consegue criptografar arquivos, partições de HD, pastas, etc. O problema dessas aplicações é o mesmo sofrido por Berners-Lee no início da Web: as pessoas precisam se sentir convencidas das vantagens dessas aplicações para começarem a utilizá-las. Com isso, terão mais atores que, por sua vez, tendem a chamar um número ainda maior de usuários para a aplicação. E deve-se estar atento ao fato de que, quando se ganha muito em segurança, perde-se em usabilidade. Existem ainda alguns websites que oferecem serviços relacionados à temática de vigilância e privacidade. O Panopticlick300, projeto da EFF (Eletronic Frontier Foundation) investiga se seu navegador está livre de rastreadores. Como extensão de um navegador, há o Ghostery301, capaz de informar o que acontece de modo invisível quando se acessa um site, detectando rastreadores, bugs, comportamento de rastreadores, entre outros. Já o Lightbeam é uma extensão utilizada apenas no navegador Mozilla, mostrando quais empresas estão monitorando seus dados de navegação por meio de cookies. No website My shadow302, é possível verificar quais rastreadores nos envolvem dependendo do tipo de dispositivo, serviço, modo de acesso à Internet e os serviços online utilizados. Basicamente, ele ajuda as pessoas a terem ciência dos rastros dos dados e a descobrir maiores informações sobre as indústrias de dados. Além disso, ensina o usuário a controlar os próprios dados e recomenda uma lista de aplicativos relacionados à privacidade a serem instalados nos dispositivos. No que concerne à compreensão do modo de atuar na rede, considerando os perigos enfrentados por qualquer usuário ao navegar na Internet, o NIC.br – mais especificamente um de seus braços, o CERT.br – realiza um trabalho relevante a partir de cartilhas didáticas. Elas possuem leitura acessível destinadas ao uso mais seguro da Internet,

300 Panoptclick: . Acesso em 05 fev. 2019. 301 Ghostery: . Acesso em 05 fev. 2019. 302 My shadow: . Acesso em 05 fev. 2019.

277

incluindo o público infantil e pessoas com idade mais avançada, atentando-se à segurança, privacidade, propriedade intelectual, boatos, spam, etc. Essas cartilhas dispõem também de links para outros materiais que dialogam com a abordagem adotada pelo CERT.br303. Num movimento semelhante, há o livro Security in-a-box (Tactical Technology Collective, [s.d.]), o qual contém distintas dicas relacionadas à segurança, caracterizando-se como uma espécie de caixa de ferramentas para organizações e ativistas dos direitos humanos. Junto com o livro há um DVD com uma série de softwares a serem instalados. Ademais, assim como as cartilhas do CERT.br, possui um material didático e com linguagem acessível. Há ainda outras maneiras de se lidar com o espectro vigilante ou mesmo de tornar a arquitetura da rede mais próxima do nosso cotidiano e mais consciente para os usuários, sem terem que lidar diretamente com a Internet, sem manuseá-la. A mineira Sara Lana criou um projeto para hackear as câmeras de segurança e revelar os dispositivos camuflados presentes nas paisagens urbanas. A partir de um capacete com diversos dispositivos, esta artista hacker conseguiu não só mapear câmeras por onde circulava, como também não ser identificada por elas pelo fato de utilizar no capacete uma tinta refletora de infravermelho que ofusca sua imagem nas câmeras. Um projeto seguinte ao mapeamento das câmeras de segurança seria o de criar uma ferramenta capaz de traçar rotas passando apenas por pontos cegos das cidades304. O problema relacionado a isso é que, na atual conjuntura, qualquer ator possuidor de um smartphone pode realizar a vigilância nas ruas, inclusive a partir da câmera desse dispositivo. Assim, mapeia-se as câmeras estáticas, mas não as móveis presentes em qualquer lugar, incluindo espaços privados. Outro material interessante sobre essa temática é o livro Networks of New York, escrito por Ingrid Burrington [2017]. A obra é uma espécie de guia ilustrativo sobre a infraestrutura urbana da Internet em Nova Iorque. Neste guia, cuja motivação foi a questão “Como você vê a Internet?”305, a artista desenhou uma série de elementos que compõem esse cosmos incluindo tampas de bueiros que escondem fragmentos dessa rede de redes. A partir disso, Burrington se aproveita das próprias habilidades para desnaturalizar a Internet e revelar a presença dessa rede em seu cotidiano: “Networks of New York é um guia para praticar a mágica cotidiana de ver a Internet como parte da paisagem e da

303 Algumas das cartilhas analisadas foram: Internet segura: divirta-se e aprenda a usar a Internet de forma segura!; Internet segura para seus filhos; e Internet com responsa +60: cuidados e responsabilidades no uso da Internet. 304 Site do projeto: . do projeto: . Acesso em 11 fev. 2019. 305 [“How do you see the Internet?”].

278

vida cotidiana de uma cidade”306 (Burrington, [2016]: 10). Ou seja, seu guia é um estímulo a um treinamento das próprias percepções para decodificar esse mundo das redes olhando de outro modo para aquilo que a cerca. Não podemos nos prender a pensar a resistência como algo dependente de aparelho, aplicação, magna carta, WikiLeaks, projetos de servidores raiz alternativos, capacete hacker, guia para percepção da arquitetura da rede numa cidade, etc. E, como colocado anteriormente, não é possível apreendermos o nível de consciência do caráter de resistência em cada um desses casos devido à situação temporária marcada por essas ações, pois, com o tempo, podem ser suplantadas por novos mecanismos de vigilância, novas redes, etc. Igualmente, é praticamente impossível perceber todos os mecanismos de vigilância que, de alguma maneira, acompanham nosso cotidiano. Assim, o ponto central é desenvolver a sensibilidade para perceber a Internet e esses mecanismos vigilantes, conhecê-los em profundidade, desnaturalizá-los para, a partir disso, selecionar uma ação – ou mesmo não ação – que leve em conta esse saber apreendido, e ser capaz de politizar tais mecanismos. A resistência pode não ser concebida exclusivamente a partir de uma ação de confronto. Pelo contrário, os exemplos acima evidenciam que uma resistência pode acontecer mesmo o objetivo não sendo o confronto. O simples fato de haver projetos que não convirjam com o hegemônico é, de certa forma, um modo de resistência, ainda que a mesma não pressuponha uma consciência em relação a isso, isto é, uma consciência quanto às consequências das práticas que divergem de um projeto dominante. No entanto, há também a possibilidade de uma resistência passiva, aparentemente mais consciente do objeto ao qual se opõe. Essa resistência pode ser até mesmo mais irritante do que a ativa, como é o caso de Bartleby, o escrivão (Melville, [1853]: 12): “[à]s vezes a passividade de Bartleby me irritava. Sentia um desejo estranho de que me confrontasse, trazendo à tona uma faísca de raiva que corresponde à minha. Mas era o mesmo que tentar atear fogo esfregando os nós dos dedos num pedaço de sabonete”. Bartleby conseguia exercer seu domínio de maneira persistente e branda, tranquila e constante. Já em A invenção de Morel (Casares, [1940]), temos o exemplo de ações cíclicas realizadas a partir da invenção de Morel, o qual aproveitando-se do devotado balançar das ondas do mar, conseguia reproduzir um determinado conjunto de relações humanas, independendo das adversidades e da ação de outros agentes. Resistia pelo simples fato de realizar o mesmo movimento “infinitamente”, uma sabotagem do devir.

306 [“Networks of New York is a guide for practicing the everyday magic of seeing the Internet as part of a city’s landscape and everyday life”].

279

Uma outra forma de resistência é o embate consciente e direto. Na obra Steal this Book, de Abbie Hoffman [1971], o autor mostra pleno domínio de como viver em grandes cidades dos Estados Unidos sem trabalhar, conseguindo alimentação, saúde, moradia, roupas, entre outros bens e serviços, de graça. Ele faz parte do pensamento contracultural norte- americano da década de 1970, oferecendo métodos de luta contra o governo e contra corporações de todas as formas possíveis. Desse modo, utiliza muitas de suas táticas cotidianas para compor o livro, escrito no formato de guia. Assim, a partir de um grande conhecimento diante do contexto no qual estava inserido, Abbie Hoffman estabelece meios de lidar com a realidade. Em outras palavras, no momento em que se conhece em profundidade determinado sistema, torna-se possível agir em relação a ele de maneira mais profícua, seja a favor ou contra. Hoffman optou por sabotar o sistema por meio da mentira, visto que o próprio sistema mentiria para seus cidadãos307. Para Bruce Sterling [1992], Steal this Book seria um ancestral espiritual dos vírus. Mas as possibilidades de respostas para esse mesmo sistema são inúmeras, como inclusive negar o uso da Internet, no caso de reflexões acerca dessa rede. Como coloca et al. ([2012]: 81):

307 Como exemplo das práticas realizadas por Hoffman ensinadas no guia, temos dois casos. O primeiro é sobre encher o tanque do carro com gasolina gratuitamente. O segundo diz respeito a utilizar do serviço privado de saúde sem pagar nada. “Você pode carregar um pedaço de tubo no porta-malas do carro e, quando o indicador do combustível baixar, parar perto de um Cadillac bonito em alguma rua escura e retirar um pouco do combustível dele. Basta ajeitar seu carro até o tanque de gasolina estar próximo ao do Caddy ou usar uma lata grande. Enfie a mangueira dentro do tanque, sugue o suficiente para iniciar o fluxo, e coloque a outra ponta no seu tanque. Tendo um nível baixo de líquido, o seu tanque puxará combustível até você e o Caddy estarem iguais. ‘De cada qual, segundo sua necessidade; a cada qual, segundo sua capacidade’, escreveu Marx. Aposto que não tinha percebido até agora que a lei da gravidade afeta a economia” (Hoffman, [1971]: 32-3). [“You can carry a piece of tubing in the trunk of your car and when the gas indicator gets low, pull up to a nice looking Cadillac on some dark street and syphon off some of his gas. Just park your car so the gas tank is next to the Caddy’s, or use a large can. Stick the hose into his tank, suck up enough to get things flowing, and stick the other end into your tank. Having a lower level of liquid, you tank will draw gas until you and the Caddy are equal. ‘To each according to his need, from each according to his ability’, wrote Marx. Bet you hadn’t realized until now that the law of gravity affects economics”] “Se você sofreu um acidente ou tem uma doença grave, até mesmo um resfriado, faça check-in na sala de emergência de qualquer hospital. Dê a eles uma história triste completa, com nome e endereço falsos. Após o tratamento, eles te dão um papel e o direcionam ao caixa. Apenas caminhe, como a situação sugere. Uma boa isca é perguntar pelo banheiro. Depois de esperar lá alguns momentos, vá embora. Se for pego fugindo, diga a eles que saiu de casa sem a carteira. Peça para cobrarem no seu endereço falso. Esse procedimento de cobrança funciona tanto nas salas de emergência quanto nas clínicas. Você pode continuar voltando para visitas repetidas por até três meses antes de o caixa informar ao médico sobre seus pagamentos fraturados” (Hoffman, [1971]: 58- 9). [“If you’ve had an accident or have an acute illness, even a bad cold, check into the emergency room of any hospital. Given them a sob story complete with phony name and address. After treatment, they present you with a slip and direct you to the cashier. Just walk on by, as the song suggests. A good decoy is to ask for the washroom. After waiting there a few moments, split. If you’re caught sneaking out, tell them you ran out of the house without your wallet. Ask them to bill you at your phony address. This billing procedure works in both hospital emergency rooms and clinics. You can keep going back for repeated visits up to three months before the cashier’s office tells the doctor about your fractured payments”].

280

E talvez tenhamos os últimos sobreviventes livres, aqueles que sabem usar a criptografia para se defender dessa vigilância total, e alguns outros que sumirão do mapa, que se isolarão totalmente, neoludistas que vão viver numa caverna ou aborígenes tradicionais que não contarão com nenhuma das eficácias de uma economia moderna, de forma que terão uma capacidade de ação bastante limitada. É claro que qualquer pessoa pode ficar fora da internet, mas aí é muito difícil exercer alguma influência.

De um modo ou de outro, são respostas a uma questão. Nesse sentido, não importa se as ações ou não ações são capazes de resistir a uma dada situação. A questão principal é o movimento, o diálogo estabelecido com isso, sua percepção. O grande problema aparece quando deixamos de nos surpreender, quando naturalizamos tudo isso que nos envolve. Mas é difícil resistir ao processo de naturalização.

6.5 – Fluxos e refluxos na rede Na obra Admirável mundo novo, de Huxley [1932], havia um estímulo às pessoas não lerem livros entre outros meios que poderiam politizá-las, de modo que os meios distrativos suplantariam a construção de um intelecto crítico. O próprio processo de excesso de informação poderia fazer com que as pessoas caíssem numa passividade; ou seja, a verdade estaria envolta em uma série de informações irrelevantes, o que torna difícil o acesso ao que é importante. Já em 1984, de Orwell [1949], a censura toma conta de praticamente todas as instâncias, incluindo o espaço da casa, onde os filhos eram condicionados pelos espaços de formação a serem delatores dos próprios pais. Em âmbito mais geral, no mundo de Orwell, as classes dominantes teriam condições de privar as classes dominadas de acesso à informação, modificando inclusive a história e ajudando na constituição de uma população alicerçada na dor e no medo. Os dois mundos trabalham com a distopia, conceito importante para pensarmos em que medida há um diálogo com a nossa realidade. Nessa circunstância, trazem um ápice da representação de processos de dominação das classes subalternas. E essas representações distópicas realizam uma ampliação das condições do nosso cotidiano, mas para as quais, muitas vezes, não estamos sensíveis o suficiente para percebê-las. De fato, há a presença desses dois mundos no nosso, ainda que não seja com a intensidade descrita por esses autores. No nosso contexto, há não apenas excesso de informação e dificuldade de alcançar o relevante no irrelevante, como também controle constante que transcende as instituições e alcançam espaços íntimos. Um ponto a ser ponderado em relação à vigilância em nossa realidade é o fato desse mecanismo se modificar com o tempo; fluir constantemente; ser descentralizado,

281

sem hierarquia estável; ter uma inclinação a ser geral; possuir uma diversidade de propósitos dos setores; ser praticamente indiscernível a polaridade entre vigilantes e vigiados; possuir uma vigilância distribuída entre humanos e não-humanos; ser presente no lazer e em situações de controle, bem como em modelos hierárquicos ou participativos. Esses mecanismos de vigilância, bem como os presentes nas obras de Huxley e Orwell, dialogam com nosso contexto e afetam a trama das relações de poder. No entanto, tais artifícios de poder constituídos em nossa conjuntura não podem ser compreendidos como se possuíssem a plenitude da eficiência. As resistências também fazem parte do nosso cotidiano, sejam elas a nível consciente ou não. Em entrevista concedida por Steve Santorelli (apud Souza, [2014]: 10) acerca da Deep web, assunto do qual é um dos grandes especialistas, ele responde o seguinte sobre as tentativas das autoridades de regular esse ambiente incomum: “[s]e elas conseguirem, esse ambiente será forçado a evoluir tecnicamente, e acabaríamos com uma nova corrida armamentista técnica, liderada por alguns programadores muito inteligentes que querem ajudar as pessoas a se manterem anônimas por razões positivas (não criminais)”. Mesmo na governança em âmbito nacional, há uma espécie de ineficácia: “a regulamentação nacional da Internet é inerentemente dispendiosa e ineficaz quando o objeto de regulação é a arquitetura da Internet ou o conteúdo que se origina fora das fronteiras nacionais. Assim, o modelo de regulamentação nacional por lei não pode fornecer uma solução completa para os problemas de governança da Internet”308 (Solum, [2009]: 75). Nesse sentido, a resistência em potência evidencia a ineficácia constitutiva dos mecanismos de poder. Portanto, não podemos encontrar em cada um dos dispositivos, projetos, aplicativos, etc. aqui mencionados elementos revolucionários, insurgentes em si. Pois o fato de utilizar µTorrent não me faz adotar um discurso de quebra da propriedade intelectual e liberdade de acesso à conteúdo online. Dessa mesma forma, ter acesso à rede Tor por meio de seu navegador não implica pensar a Internet politicamente e sequer que meu ato está pautado em questões políticas. Pode-se, no limite, dizer que cada um deles possui um potencial revolucionário, um potencial contestatório. Assim, o ponto central não está na coisa, mas no modo como nos relacionamos com ela. Por isso, é importante o conhecimento sobre como funciona algo e como politizá-lo, transformando esses elementos acima mencionados em tecnopolíticas libertárias que precisam estar em movimento. Pois os fluxos de poderes e

308 [“national regulation of the Internet is inherently costly and ineffective when the object of regulation is either the architecture of the Internet or content that originates outside of national boundaries. Thus, the model of national regulation by law cannot provide a complete solution to the problems of Internet governance”].

282

contrapoderes são constantes, e os dispositivos constituídos considerando isso seguem um ritmo semelhante. Como coloca Deleuze no texto O que é um dispositivo (1996: online):

Assim, todo o dispositivo se define pelo que detém em novidade e criatividade, e que ao mesmo tempo marca a sua capacidade de se transformar, ou de desde logo se fender em proveito de um dispositivo futuro, a menos que se dê um enfraquecimento da força nas linhas mais duras, mais rígidas, ou sólidas. E, na medida em que se livrem das dimensões do saber e do poder, as linhas de subjetivação parecem ser particularmente capazes de traçar caminhos de criação, que não cessam de fracassar, mas que também, na mesma medida, são retomados, modificados, até a ruptura do antigo dispositivo.

Não podemos entender a criptografia como a resposta para o problema da segurança. Conforme coloca Schneier, na obra Beyond fear [2003], a ideia de segurança tem a ver com pensar em termos de sistema e não apenas comprar um cofre para guardar dinheiro em um banco. Um cofre é apenas um cofre. É necessário fazer questionamentos básicos para o sistema de segurança funcionar, como, por exemplo: quem sabe a combinação do cofre?; o que acontece se o responsável pela combinação do cofre morrer?; quem movimenta dinheiro dentro e fora do cofre?; qual a segurança do cofre quando está aberto?; existem caixas de segurança dentro do cofre?; os clientes têm acesso direto ao cofre?; quem instalou o cofre?; essa pessoa conhece a senha? O sistema a ser montado não necessariamente é algo complexo. Mas para edificá-lo deve-se considerar o contexto, atores, etc. Em síntese, caso se queira pensar em segurança é fundamental pensá-la relacionada ao sistema. Ora, com as demais coisas e situações demandando segurança, o pensamento não deve ser muito diferente disso. E, no limite, a gestão da segurança está em nossas mentes, as quais vão objetivar ações preocupadas com a segurança, isto é, em ver as coisas como sistema, e não em um ou outro dispositivo. Isso se dá, pois um sistema pensa na conexão entre vários dispositivos, podendo operar para proteger nossos próprios dados, e pensa também no tipo de conexão estabelecida com a Internet e as potenciais consequências disso. Este capítulo evidencia como a vigilância é algo complexo na Internet, existindo nela em potência por envolver sua arquitetura, rede de governança e modo de operação. A Internet é apenas mais um espaço onde a vigilância age, na medida em que está disseminada nas relações sociais, sendo a Internet um meio de potencializar a prática da vigilância. Embora pareça ser um local aberto e democrático, essa rede mundial de computadores possui uma diversidade de espaços fechados, constituindo-se mais pelo “fechado” do que pelo “aberto”. Na Internet, cada ator envolvido nessa dinâmica pode apresentar um interesse em relação aos dados que circulam nessa rede mundial. A vigilância presente na rede tem a

283

potência de acontecer tanto de modo visível quanto praticamente imperceptível. Ao mesmo tempo, a própria arquitetura da Internet apresenta uma ineficácia constitutiva aos mecanismos de vigilância, especialmente quando o usuário passa a ter ciência desses elementos. Assim, o processo de desnaturalização da vigilância aparece como uma ação de extrema importância para politizarmos a Internet. Contudo, as práticas de resistência não são dependentes dessa consciência para se realizarem. Existem infinitas formas de resistência ao modo como a Internet opera e aqui apresentei apenas um fragmento disso. No entanto, o grande problema é que, caso o uso desses mecanismos de resistência for intensivo, poderá haver um aumento na segurança, mas, ao mesmo tempo, uma perda na usabilidade. Diante disso, o mais importante é estar atento ao movimento ao invés de se centrar em um ou outro mecanismo de resistência, mantendo um diálogo com as estéticas da existência/resistência. É necessário modificar assim o modo de lidar com a Internet, onde um “devir-louco que não se detém para sempre, elemento de atualização a partir de um ‘fora’ que não utiliza a estratégia do ‘adversário’” (Deleuze, [1969]: 1) pode se apresentar enquanto uma possibilidade de existência/resistência. Como já colocado, o mais elementar é compreender o movimento, o que o sustenta, para então sermos capazes de construir fortes e dançantes estéticas da existência/resistência. Tais estéticas levam em consideração o contexto e são capazes de se divertir com os registros de escape constituintes dos mecanismos de vigilância, abrindo, certamente, maiores possibilidades de fazer surgir espontaneidades rebeldes. Pois, como nos lembra Foucault ([1975]: 146), “[n]a realidade, a impressão de que o poder vacila é falsa, porque ele pode recuar, se deslocar, investir em outros lugares... e a batalha continua...”. Acredito que uma das principais formas de lidar com esse contexto é a partir da prática de politizá-lo. Pois assim temos condições de lidar com essa rede e nos posicionarmos em relação ao modo como vamos interagir com a mesma. Em outras palavras, não se quer aqui conduzir condutas quanto ao modo de interagir com a Internet, mas oferecer possibilidades de reflexões para que cada ator tenha condições de medir (ou não) suas práticas considerando uma série de elementos políticos, passados muitas vezes despercebidos no nosso envolvimento cotidiano com a Internet.

284

Considerações finais

[O] dentro será sempre o forro do fora. Mas, às vezes, como Roussel, imprudente, e buscando a morte, podemos querer desfazer o forro, desmanchar as dobras ‘como um gesto planejado’, para encontrar o lado de fora e seu “vazio irrespirável” Deleuze ([1986]: 108)

Ao entesar alguns fios da malha que constrói o “espectro” da Internet, percebe-se que ela é formada por elementos concretos, relações sociais e fluxos informacionais, os quais, muitas vezes, almejam passar desapercebidos. Não apenas a complexidade do sistema, mas também a própria noção de “nuvem” colabora com a desmaterialização da Internet, isto é, com seu desaparecimento. Em uma mesma perspectiva, a Internet tende a assumir um caráter imanente aos computadores na expressão “Internet das coisas”. Assim como outras tecnologias – como a energia elétrica que chega em nossas casas –, inclina-se a ser incorporada em nossas vidas, a entrar em nossos automatismos, onde a percebemos somente quando estamos desconectados dela. E é certo que, com esse automatismo, muitos elementos tecnopolíticos vão para a nuvem, isto é, para a abstração. No sentido contrário, a partir da compreensão do modo de funcionamento e do que está relacionado com as escolhas “técnicas”, potencializa-se o processo de politização da Internet e sua governança. E, com base no estudo da Internet e sua governança, apreende-se o fato de ela ser menos distribuída do que dizem e mais controlada do que parece. O estudo da arquitetura e governança da Internet, mais precisamente de seu funcionamento e de seus recursos críticos – incluindo a gestão de nomes de domínios e de endereços da Internet –, e a identificação das redes constituintes da Internet serviram para alargar a perspectiva sobre o que representa essa rede mundial de computadores, oferecendo condições para transcender inclusive aquilo concebido enquanto governança da Internet. Assim, ultrapassa-se as fronteiras desse ecossistema e compreende-se a Internet como uma biosfera. Esse desenvolvimento se deu considerando a pergunta previamente apresentada: o que tece essa teia capaz de conectar um número expressivo de humanos e não humanos? Para lidar com esse questionamento, o ponto de imersão foi a cibernética, enquanto a linha da trama selecionada para observar essa rede foi a do poder, do governo, da condução de condutas. Além das diversas contribuições para nosso contexto, a preocupação com a cibernética estava presente em todo o trabalho, já que se buscou compreender como os sistemas se regulam, organizam, reproduzem, evoluem e aprendem. O poder, em específico, não foi observado como se fosse uma linha à parte daquelas que compõem a governança da

285

Internet. Pelo contrário, apenas uma linha de navegação que cruzou com uma série de outras presentes na rede, de modo que a linha do poder ganhou significado justamente a partir desse entrecruzamento de linhas, auxiliando a entender uma reticulação computacional em sentido amplo, bem como o raio de ação dos poderes da rede. A partir do movimento seguido pela tese, nota-se a Internet dependente de um conjunto amplo de atores para além de governos e corporações privadas, os quais possuem interesses específicos no desenvolvimento dessa rede de redes, uma heterogeneidade, diferenças de perspectiva. Diante de acordos entre esses atores, a Internet consegue se manter; no entanto, esses acordos podem ser quebrados, fraturando a Internet ou possibilitando novas associações. No espaço multissetorial estabelecido na governança da Internet, há a defesa de ele ser aberto; essa abertura, porém, apresenta dificuldades na conquista de igualdade entre as partes na influência do objeto de disputa, da mesma forma que a diversidade está calcada em condicionantes para a efetiva participação nesses espaços de governança institucionalizados. Nesse sentido, concebe-se a Internet como uma espécie de resistência a um potencial entrópico de desarticulação em interações humanas, as quais, em grande medida, se centram em vontades particulares e não num bem comum, sendo assim a contradição do objetivo proposto nos primeiros passos dessa rede mundial de computadores. Por conta disso, a Internet se movimenta a fim de conseguir manter um equilíbrio diante da entropia, resistindo ao cabo de forças feito com os interesses que a compõe. Essa composição se estabelece como uma narrativa linear, mas não podemos nos esquecer que ela se constitui como uma possível configuração entre diversas outras. Dessa maneira, não há motivos para nos limitar a compreender a Internet assim como é hoje; ou seja, precisamos estar abertos para refletir sobre aquilo que ela pode ou deveria ser. No que se refere à estrutura participativa da governança da Internet, diversos elementos aqui apresentados corroboram com a crença da sua existência, o seu modo de funcionamento e a importância de sua operação. A governança da Internet se configura em um espaço com uma hierarquia relativamente penetrável, que se ascende por meio do envolvimento e engajamento nesse jogo de disputas de posições. Não se pode esquecer de como a barreira econômica contribui com a diversidade moderada nessas instâncias de governança da Internet, onde há processos de identificação, restrição, formação, educação, governo e inibição de críticas estruturais. Assim, o novo teria a tendência de ser restringido a variações que não causam fissuras estruturais à estabilidade, freando movimentos dissonantes. Contudo, é sempre importante lembrar que a Internet ultrapassa essa circunscrição presente nos debates sobre governança da Internet, desse ecossistema e sua entropia, o qual também se

286

fortalece ao se opor àquilo que estaria “fora” da gI na medida em que ela seria o “epicentro” – realimentando a existência dessa governança da Internet. Entretanto, nunca podemos nos esquecer do lado de fora, pois “[o] lado de fora não é um limite fixo, mas uma matéria móvel, animada de movimentos peristálticos, de pregas e de dobras que constituem um lado de dentro: nada além do lado de fora, mas exatamente o lado de dentro do lado de fora” (Deleuze, [1986]: 104). Esse olhar para além possibilita vermos a gI de outra maneira, a fim de repensá-la, não circunscrevendo nossa percepção a uma espécie de sistema fechado com regulações específicas e funções próprias. É importante observar a Internet como um sistema aberto e complexo, como um complexo de sistemas, uma composição de ecossistema, uma biosfera, sendo a governança da Internet um fragmento de algo maior. A partir disso, não cometeremos o mesmo erro dos seis sábios cegos que, ao tomarem contato, cada um, com uma parte de um elefante, afirmavam estar diante de algo específico, como uma parede, corda, lança, cobra, abano e tronco de árvore. Não confundiremos as partes com o todo. Não podemos pensar que a centralidade ou descentralidade da rede determina em si práticas mais ou menos democráticas na Internet. Concordo com o pensamento de Galloway e Thacker ([2007]: 13) sobre centralidade e descentralidade:

É tolice recorrer ao repetitivo mantra dos movimentos políticos modernos, os quais afirmam que as redes distribuídas são libertadoras e as redes centralizadas são opressoras. É possível que esse lugar-comum da Esquerda estivesse correto em décadas anteriores, porém hoje deve ser reconsiderado. Para ter uma rede, é preciso uma multiplicidade de “nós”. No entanto, a mera existência dessa multiplicidade de nós não implica, de forma alguma, uma ordem inerentemente democrática, ecumênica ou igualitária. Muito pelo contrário309.

Considerando essa fala e o estudo da composição arquitetônica da rede, observa-se que só é possível tratar de uma distribuição relativa da rede mundial de computadores; e que continua havendo uma relação vertical na Internet, embora haja um potencial de horizontalizar relações. Seguindo essa perspectiva, não se pode compreender a Internet como sinônimo de democracia e nem mesmo que o acesso à Internet em regiões periféricas conduza a uma sociedade plural e igualitária, onde o anteriormente invisível passa a ser visível (Inayatullah e Milojević, [2015]). O que ela potencializa é a possibilidade de comunicação entre os atores.

309 [“It is foolish to fall back on the tired mantra of modern political movements, that distributed networks are liberating and centralized networks are oppressive. This truism of the Left may have been accurate in previous decades but must today be reconsidered. To have a network, one needs a multiplicity of ‘nodes’. Yet the mere existence of this multiplicity of nodes in no way implies an inherently democratic, ecumenical, or egalitarian order. Quite the opposite”].

287

Entretanto, no que tange à categoria potência, a Internet potencializa também o controle, conforme colocado. Assim, a questão da liberdade e do controle certamente permanecem como elementos relevantes para debates contemporâneos. O papel da Internet não é o de resolver, mas sim ampliar esse embate, pois possibilita outras esferas de interação social no seu mais amplo sentido, incluindo a condução de condutas: “[a]ssim, no sonho de uma Gaia das civilizações, vimos a nova ecologia criando novos predadores, grandes corporações como a Fox e criaturas menores, semelhantes a raptores, capazes de usar a violência para moldar o debate global310” (Inayatullah e Milojević, [2015]: 63). A ultraespecialização é fator determinante para a existência dessa rede de redes tão labiríntica. Todavia, a complexidade desse sistema intricado, rizomático e ultraespecializado dificulta a compreensão de seu modo de funcionamento e a percepção dos elementos em jogo para a Internet operar como opera hoje, ou seja, ao observar a Internet, somos afetados por toda uma cadeia de elementos sociotécnicos que compõem os fios da rede mundial de computadores. De fato, um dos objetivos que fundamentam a constituição deste trabalho é a disponibilização de um material por meio do qual seja possível visualizar essa trama. Conforme colocado anteriormente, a preocupação aqui não é a de oferecer uma resposta definitiva sobre como lidar com a Internet ou mesmo com seu espectro vigilante. Pelo contrário, disseca-se o modo de operação de um ponto de vista específico para, com isso, ser possível compreender o movimento dessa rede e, em decorrência disso, ser possível estabelecer novas relações com a Internet, fazendo um deslocamento-inclusão e tornando-a muito maior e densa do que geralmente é concebida. Isso dissolve a simplicidade da rede, ancorada em uma composição reducionista. Aqui, houve o esforço pelo didático, mas sem ignorar o que concebo como fundamental para entender o modo de operação da Internet. Nesse ínterim, ficou evidente o fato de não haver o puramente técnico, mas sim um técnico conectado com decisões humanas, as quais podem estar orientadas por desejos, valores, discursos, agendas políticas daqueles que trabalham na arquitetura da rede, onde as escolhas “técnicas” possuem uma série de implicações políticas, econômicas, etc. E esses elementos afetam a vida social de seus usuários. Assim, escolhas, como entre TCP/IP e OSI; Ethernet, FDDI, ATM e toke ring; IP e X.25 (conjunto de protocolos); Internet e Minitel; navegadores web; utilização de cookies; e cliente-servidor e P2P, afetam nossa relação com a rede mundial

310 [“[t]hus, in the dream of a Gaia of civilizations, we have seen the new ecology creating new predators, large corporations like Fox, and smaller, raptor-like creatures who are able to use violence to shape the global debate”].

288

de computadores, condicionam condutas, realizam um governo. E a própria atuação dos usuários interfere na constituição considerada técnica dessa rede de redes. Portanto, esses elementos e a interação com a Internet corroboram com a constituição de subjetividades contemporâneas. Como já dito, vejo, neste trabalho, uma contribuição para o debate sobre a Internet e sua governança, representando uma peça de um grande mosaico cujo objetivo é compreender como nossa contemporaneidade é tecida a partir do desdobramento tecnológico, possibilitando refletir sobre as estéticas da existência e resistência nesta conjuntura, um “sumário topográfico e geológico da batalha”. Para isso, recorri ao passado levando em consideração o que ponderou Deleuze ([1986]: 127): “[p]ensar o passado contra o presente, resistir ao presente, não para um retorno, mas ‘em favor, espero, de um tempo que virá’ (Nietzsche), isto é, tornando o passado ativo e presente fora, para que surja enfim algo novo, para que pensar, sempre, suceda ao pensamento. O pensamento pensa sua própria história (passado), mas para se libertar do que ele pensa (presente) e poder, enfim, ‘pensar de outra forma’ (futuro)”. Dessa maneira, nesse trabalho, almeja-se estimular o surgimento de novas possibilidades de relação e constituição da Internet, a qual precisa estar num constante processo de politização, aliada a uma capacidade de lidar com temáticas presentes e emergentes, onde a vigilância esteja sempre em debate. Um dos pontos observados em relação à vigilância se valendo da Internet é o fato de ela se modificar com o tempo, fluir, ser escorregadia, se atualizar. Ora, qualquer prática objetiva ou reflexiva que vise lidar com a Internet não pode deixar de seguir essa ondulação. Apesar da criptografia ser uma resposta a isso, caracteriza-se como uma resposta relativa, contextual. Do mesmo modo, a resposta não está no uso da Deep web. A resistência parece estar mais no ímpeto de mudança do que em práticas isoladas, na compreensão do movimento do que no objeto em movimento. Isso se dá porque a ação pela ação não pode ser um elemento de resistência, a não ser quando a ação é politizada, isto é, quando se compreende o movimento daquilo contra o que se está posicionando. Essa ação pressupõe a constituição de uma série de elementos que configuram a subjetividade do indivíduo, formando sua subjetividade. Em outras palavras, é fundamental que haja uma politização de si e uma consequente alteração de si para um trato efetivo e consciente de resistência, a qual está intimamente vinculada a um saber sobre aquilo que nos envolve. Assim como no “desmonte” de um livro, precisamos absorver o que está por detrás daquelas práticas para assim dissolvê- las – caso se entenda como necessária a dissolução dessas práticas. Do contrário, há grande probabilidade de reproduzir as relações de opressão, como acontece com o escravo liberto de

289

Brás Cubas, em Memórias Póstumas de Brás Cubas (Assis, [1881]), o qual, após ser livre, estava açoitando na rua o escravo que havia adquirido. Nesse sentido, mitigar a opressão ou a vigilância nas relações de poder não é algo tão simples, ainda que fulcral para nosso contexto conectado. Há uma resistência no poder, assim como uma resiliência no Estado, na rede e nas relações que oprimem. Um dos grandes problemas é quando naturalizamos tudo ao nosso redor, quando deixamos de nos surpreender. E isso é um elemento fundamental para a liberdade nesse fluxo de poderes e contrapoderes que compõem a Internet. No que diz respeito aos contrapoderes, a partir das pesquisas realizadas para este trabalho, pôde-se apreender que as resistências também escorrem por esses mecanismos de poder, ressignificando espaços e interações; abalando estruturas estabelecidas, modos de gerar riquezas e etc.; incitando a transformação; tirando os estabelecidos do estado de imobilidade. Além disso, respondem a essas novas transformações dos mecanismos de poder, deixando claro para dispositivos de governo a impossibilidade de se ter a plenitude daquilo que muda de estado, que se solidifica e flui, flui e evapora. As práticas de resistência escorrem, respondendo aos mecanismos de condução de condutas do mesmo modo como a Moça- Fantasma espera, na Rua do Chumbo, o carro da madrugada311: “vós sois carne, eu sou vapor/ Um vapor que se dissolve/ quando o sol rompe na Serra” (Andrade, [1940]: 19). Segundo Fontana e Bertani (1999), Foucault defende que, se existem tantos poderes constituídos, tantas tecnologias de poder cujo intuito é o domínio e o controle do ser- humano para, assim, guiá-lo a fins determinados, é justamente porque estes representam uma “ineficácia constitutiva”. De fato, esse foi o resultado encontrado no estudo sobre a arquitetura da rede e a governança da Internet, os quais devem ser pensados também a partir do lado de fora, e não circunscritos a um conjunto de jogos a serem jogados por um número limitado de pessoas. Neste sentido, as colocações de Deleuze ([1986]: 108) ajudam a compreender nosso objeto de análise e aquilo que transcende a esfera da governança da Internet, pois torna a dimensão de biosfera mais palatável ao considerar que “o dentro será sempre o forro do fora. Mas, às vezes, como Roussel, imprudente, e buscando a morte, podemos querer desfazer o forro, desmanchar as dobras ‘como um gesto planejado’, para encontrar o lado de fora e seu ‘vazio irrespirável’”. Esta tese não se encerra com uma conclusão, com um lugar no qual se quer chegar. Pelo contrário, entendo-a enquanto um movimento de passagem, como um meio e não um fim, oferecendo condições para perceber esse emaranhado de redes com outros olhos e

311 Canção da Moça-Fantasma de Belo Horizonte, de Carlos Drummond de Andrade.

290

para, a partir disso, possibilitar a sensibilização perante essa rede. Assim, estimula-se a construção de fortes, fluidas e dançantes estéticas da existência/resistência, levando em consideração o contexto e sendo capazes de se divertir com os registros de escape constituintes dos mecanismos de vigilância. Compreendo esse trabalho como um movimento que considera a relação cada vez mais presente e praticamente invisível que estabelecemos com a rede mundial de computadores, corroborando em certa medida com a constituição de espontaneidades rebeldes, pautadas numa racionalidade ou não, onde os mecanismos de poder constituídos em nossa conjuntura não possam ser compreendidos como se possuíssem a plenitude da eficiência.

291

Referências312

Livros e artigos ABBATE, Janet. [1999] Inventing the Internet. Cambridge, Massachusetts: MIT Press, 2000. ABRAHAM, Sunil. [2014] Who governs the Internet? Implications for freedom and national security. Yojana, abr. 2014, online. Disponível em: . Acesso em 3 out. 2017. ADACHI, Tomi. [2011] Comitê gestor da internet no Brasil (CGI.br): uma evolução do sistema de informação nacional moldada socialmente. 2011. Tese de Doutorado em Administração. Faculdade de Economia, Administração e Contabilidade. Universidade de São Paulo, São Paulo, 2011. p. 192. Disponível em: . Acesso em: 26 set. 2017. ADORNO, Theodor. Tempo Livre. In. _____. Indústria cultural e sociedade. São Paulo: Paz e Terra, 2002. AFONSO, Carlos Alberto. [2002] Internet: a quem cabe a gestão da infraestrutura?. ILDES Policy Paper, 29 abr. 2002. AFONSO, Carlos Alberto. [2016] Prefácio à edição brasileira. In. KURBALIJA, Jovan. Uma introdução à governança da Internet. São Paulo: Comitê Gestor da Internet no Brasil, 2016. (Cadernos CGI.br, Referências, 3) p. 13-15 AFONSO, Carlos Alberto. [2016] Pósfacio: A estrutura brasileira de governança da Internet. In. KURBALIJA, Jovan. [2014] Uma introdução à governança da Internet. São Paulo: Comitê Gestor da Internet no Brasil, 2016. (Cadernos CGI.br, Referências, 3) p. 228-239 AGAMBEN, Giorgio. [2003] Estado de exceção. São Paulo: Boitempo, 2004. (Estado de sítio) ALMEIDA, Virgílio; GETSCHKO, Demi; AFONSO, Carlos. [2015] The Origin and Evolution of Multistakeholder Models. In. IEEE Internet Computing, jan./fev., 2015. p. 74-79. Disponível em: . Acesso em 11 jul. 2017. ALVESTRAND, Herald. [2004] RFC 3935: A Mission Statement for the IETF. In. IETF. RFC – Request for Comments, 2004. Disponível em: . Acesso em 16 out. 2017. ALVESTRAND, Herald; e LIE, Håkon Wium. [2009] Development of Core Internet Standards: The Work of IETF and W3C. In. BYGRAVE, Lee A.; BING, Jon. [2009] Internet Governance: Infrastructure and Institutions. Oxford: Oxford University Press, 2009. p. 126-146 AMPÈRE, André-Marie. [1834] Essai sur La Philosophie des Sciences, ou Exposition Analytique d’une classification natuerelle de toutes les connaissances. Bruxelas: Impression Anastaltique, 1966. ANDRADE, Carlos Drummond de. [1940] Canção da moça-fantasma de Belo Horizonte. In. _____ [1940] Sentimento do mundo. São Paulo: Companhia das Letras, 2012. p. 17-19

312 Coloco chaves para destacar o ano da primeira publicação da referência. O ano da versão utilizada está sem chaves.

292

ARNAUDO, Dan. [2017] Computational propaganda in Brazil: Social bots during elections. Computational Propaganda Research Project, Working Paper, n. 2017.8, 2017. ASHBY, William Ross. [1956] Introdução à cibernética. São Paulo: Perspectiva, 1970. (Estudos, 01) ASSANGE, Julian et al. [2012] Cypherpunks: liberdade e o futuro da internet. São Paulo: Boitempo, 2013. ASSANGE, Julian. [2013] Prefácio para a América Latina. In. ASSANGE, Julian et al. [2012] Cypherpunks: liberdade e o futuro da internet. São Paulo: Boitempo, 2013. ASSIS, Machado de. [1881] Memórias póstumas de Brás Cubas. Rio de Janeiro: Prazolivro, [s.d.]. BALASUBRAMANIAM, Sasitharan et al. Biological principles for future internet architecture design. IEEE Communications Magazine, v. 49, n. 7, 2011. BARABÁSI, Albert-László. [2002] Linked: a nova ciência dos networks: como tudo está conectado a tudo e o que isso significa para os negócios, relações sociais e ciências. São Paulo: Leopardo, 2009. BAROCAS, Solon; HOOD, Sophie; ZIEWITZ, Malte. [2013] Governing algorithms: A provocation piece. 2013. Disponível em: . Acesso em 16 out. 2017. BEAUDE, Boris. [2014] The Ends of The Internet. Amsterdam: Institute of Network Cultures, 2016. BELLI, Luca. [2015] A heterostakeholder cooperation for sustainable internet policymaking. Internet Policy Review, n. 2, v. 4, 2015, p. 1-21. BENDRATH, Ralf; MUELLER, Milton. The end of the net as we know it? Deep packet inspection and internet governance. New Media & Society, v. 13, n. 7, p. 1142- 1160, 2011. BENEDIKT, Michael. (ed.) [1991] Cyberspace: first steps. Cambridge, Massachusetts: The MIT Press, 1992. BENNATON, Jocelyn. [1984] O que é cibernética. São Paulo: Nova Cultural: Brasiliense, 1986. (Coleção primeiros passos; 90) BERNERS-LEE, Tim. [1999] Weaving the Web: the original of the World Wide Web by its inventor. Tim Berners-Lee with Mark Fischetti. New York: Harper, 2000. BLUM, Andrew. [2012] Tubes: A journey to the center of the Internet. New York: Ecco, 2013. BOOLE, George. [1847]. The Mathematical Analysis of Logic, Being an Essay Towards a Calculus of Deductive Reasoning. Cambridge: Macmillan, Barclay, & Macmillan, 1987. Disponível em: . Aceso em 5 mai. 2017. BOURDIEU, Pierre. [1988] É possível um ato desinteressado?. In. _____ [1994] Razões Práticas: sobre a teoria da ação. Campinas, SP: Papirus, 2011. p. 137-156 BOURDIEU, Pierre. [1991] Curso de 28 de novembro de 1991. In. _____ [2012] Sobre o Estado: Cursos no Collège de France (1989-92). São Paulo: Companhia das Letras, 2014. BOURDIEU, Pierre. [1994] Razões práticas: sobre a teoria da ação. Campinas-SP: Papirus, 2011.

293

BOYLE, James. [1997] Foucault in Cyberspace: Surveillance, Sovereignty, and Hard- Wired Censors, 1997. Disponível em: . Acesso em 25 mai. 2015. BROWN, Lesley. The new shorter Oxford English Dictionary: on historical principles. Oxford: Clarendon Press, 1993. BRUNO, Fernanda. [2013] Máquinas de ver, modos de ser: vigilância, tecnologia e subjetividade. Porto Alegre: Sulina, 2013. BURRINGTON, Ingrid. [2016] Networks of New York: an illustrated field guide to urban Internet infrastructure. Brooklyn, New York: Melville House, 2016. BURROUGHS, William. [1959] Almoço nu. Rio de Janeiro: Ediouro, 2005. BYGRAVE, Lee A.; MICHAELSEN, Terje. [2009] Governors of Internet. In. BYGRAVE, Lee A.; BING, Jon. Internet Governance: Infrastructure and Institutions. Oxford: Oxford University Press, 2009. p. 92-126 CANABARRO, Diego Rafael. [2014] Governança global da Internet: tecnologia, poder e desenvolvimento. Tese de Doutorado em Ciência Política. Departamento de Ciência Política. Universidade Federal do Rio Grande do Sul (UFRGS). Porto Alegre, RS. 2014. p. 433. Disponível em: . Acesso em 10 out. 2017. CASARES, Adolfo Bioy. [1940] A invenção de Morel. São Paulo: Cosac Naify, 2006. CASTELLS, Manuel. [1996] A sociedade em rede. São Paulo: Paz e Terra, 2000. (A era da informação: economia, sociedade e cultura; v. 1) CASTELLS, Manuel. [2001] A galáxia da Internet: Reflexões sobre Internet, Negócios e Sociedade. Lisboa: Fundação Calouste Gulbenkian, 2004. CASTRO, Edgardo. [2004] Vocabulário de Foucault: um percurso pelos seus lemas, conceitos e autores. Belo Horizonte: Autêntica, 2009. CERF, Vinton. [1990] Oral history interview with Vinton G. Cerf. Entrevista conduzida por Judy E. O’Neill em 24 abr. 1990. p. 1-32. Disponível em: . Acesso em 18 jun. 2017. CERF, Vinton; e CAIN, Edward. [1983] The DoD internet architecture model. Computer Network, v. 7, 1983. p. 307-318 CERF, Vinton; e KAHN, Robert. [1974] A Protocol for Packet Network Intercommunication. IEEE Trans on Comms, v. 22, n. 5, mai. 1974. CHAPELLE, Bertrand de la. [2007] The Internet Governance Forum: How a United Nations Summit Produced a New Governance Paradigm for the Internet Age. In. MÖLLER, Christian; e AMOUROUX, Arnaud. Governing the Internet – Freedom and Regulation in the OSCE Region. Viena, Austria: Organization for Security and Co- operation in Europe (OSCE), 2007. p. 19-26. Disponível em: . Acesso em 25 set. 2017. CHERITON, David R.; GRITTER, Mark. [2000] TRIAD: A new next-generation Internet architecture. CiteSeer, 2000. CHOMSKY, Noam; FOUCAULT, Michel. [1971] Natureza humana: justiça vs. poder: o debate entre Chomsky e Foucault. São Paulo: Editora WMF Martins Fontes, 2014. CLARK, David D.; SOLLINS, Karen R.; WROCLAWSKI, John; e BRADEN, Robert. [2005] Tussle in Cyberspace: Defining Tomorrow’s Internet. ACM SIGCOMM Computer Communication Review. ACM, 2002. p. 347-356. Disponível em: . Acesso em 7 jun. 2017. CUNHA, Antônio Geraldo da. [1982] Dicionário etimológico da língua portuguesa. Rio de Janeiro: Lexikon, 2010.

294

CUSUMANO, Michael A.; e YOFFIE, David B. [1998] Competing On Internet Time: Lessons From Netscape And Its Battle With Microsoft. New York: Touchstone, 2000. DAVID, Paul A.; GREENSTEIN, Shane. [1990] The economics of compatibility standards: an introduction to recent research. Economics of innovation and new technology, v. 1, n. 1-2, p. 3-41, 1990. DELEUZE, Gilles. [1969] Lógica do sentido. São Paulo: Perspectiva, Edusp, 1974. (Estudos, 35) DELEUZE, Gilles. [1973] Carta a um crítico severo. In. _____. Conversações (1972-1990). São Paulo: Editora 34, 2010. (Coleção TRANS) p. 11-22 DELEUZE, Gilles. [1980] Entrevista sobre Mille plateaux. In _____. Conversações (1972- 1990). São Paulo: Editora 34, 2010. (Coleção TRANS) p. 37-49 DELEUZE, Gilles. [1990] Controle e devir. In _____. Conversações (1972-1990). São Paulo: Editora 34, 2010. (Coleção TRANS) p. 213-222 DELEUZE, Gilles. O que é um dispositivo. In _____. O mistério de Ariana. Lisboa: Editora Veja, 1996. (Passagens) DELEUZE, Gilles. As dobras ou o lado de dentro do pensamento (subjetivação). In. _____ [1986] Foucault. São Paulo: Brasiliense, 2013. p. 101-130 DELEUZE, Gilles. & GUATTARI, Félix. [1980a] Mil platôs: capitalismo e esquizofrenia 2. (Vol. 1) São Paulo: Editora 34, 2011. (Coleção TRANS) DELEUZE, Gilles. & GUATTARI, Félix. [1980b] Mil platôs: capitalismo e esquizofrenia 2. (Vol. 4) São Paulo: Editora 34, 2012. (Coleção TRANS) DENARDIS, Laura. [2014] The global war for internet governance. New Haven: Yale University Press, 2014. DENARDIS, Laura; RAYMOND, Mark. [2013] Thinking Clearly About Multistakeholder Internet Governance. GigaNet: Global Internet Governance Academic Network, Annual Symposium, 2013. Disponível em: . Acesso em 27 set. 2017. DENNING, Dorothy E. The future of cryptography. [1997] In LOADER, Brian D. (Org.) [1997] The Governance of Cyberspace: Politics, technology and global restructuring. New York (USA): Routledge, 1997. p. 175-189 DRAKE, William J. (Ed.). [2015] The Working Group on Internet Governance: 10th anniversary reflections. Association for Progressive Communications (APC), 2015, online. Disponível em: . Acesso em 25 set. 2017. DURKHEIM, Émile. [1895] As Regras do Método Sociológico. São Paulo: Martins Fontes, 2007. (Coleção tópicos) DURKHEIM, Émile. [1897] O suicídio: estudo de sociologia. São Paulo: Editora WMF Martins Fontes, 2011. (Biblioteca do pensamento moderno) DUTTON, William H. [2013] The Oxford Handbook of Internet Studies. Oxford, Reino Unido: Oxford University Press, 2014. EIJK, Nico van; e MANIADAKI, Katerina. [2007] Institutional Aspects of Internet Governance. In. MÖLLER, Christian; and AMOUROUX, Arnaud. Governing the Internet – Freedom and Regulation in the OSCE Region. Viena, Austria: Organization for Security and Co-operation in Europe (OSCE), 2007. Disponível em: . Acesso em 13 set. 2016. p. 67-87 ELDERS, Fons. [2011] Noam Chomsky e Michel Foucault: um choque de paradigmas. In. CHOMSKY, N.; FOUCAULT, M. Natureza humana: justiça vs. poder: o debate

295

entre Chomsky e Foucault. São Paulo: Editora WMF Martins Fontes, 2014. p. V- XI ELTON, Martin C. J.; CAREY, John. [2013] The Prehistory of the Internet and its Traces in the Present: Implications for Defining the Field. In. DUTTON, William H. [2013] The Oxford Handbook of Internet Studies. Oxford: Oxford University Press, 2014. p. 27-47 EPSTEIN, Isaac. (Org.) [1973] Cibernética e Comunicação. São Paulo: Cultrix, Editora da Universidade de São Paulo, 1973. EPSTEIN, Isaac. [1966] Uma máquina que aprende (Gabriela I). In. _____. (Org.) [1973] Cibernética e Comunicação. São Paulo: Cultrix, Editora da Universidade de São Paulo, 1973. p. 165-179 FERNANDES, Florestan. [1981] O que é revolução. São Paulo: Brasiliense, 1981. (Coleção Primeiros Passos, 25) FONTANA, Alessandro e BERTANI, Mauro. Situação do Curso. In: FOUCAULT, Michel. Em defesa da sociedade: curso no Collège de France (1975-1976). São Paulo: Martins Fontes, 1999, p. 327-351. (Coleção Tópicos) FOUCAULT, Michel. [1966] As palavras e as coisas: uma arqueologia das ciências humanas. Lisboa: Edições 70, 2005. (Coleção signos, 47) FOUCAULT, Michel. [1969] A arqueologia do saber. Rio de Janeiro: Forense Universitária, 2008. (Campo Teórico) FOUCAULT, Michel. [1975] Poder-corpo. In. _____. Microfísica do Poder. Rio de Janeiro: Edições Graal, 2007. p. 145-152 FOUCAULT, Michel. [1977a] Poder e Saber. In. _____. Estratégia, poder-saber. Rio de Janeiro: Forense Universitária, 2010. (Ditos e escritos; IV) p. 223-240 FOUCAULT, Michel. [1977b] Sobre a História da Sexualidade. Microfísica do poder. Rio de Janeiro: Graal, 2007. p. 243-276 FOUCAULT, Michel. [1977c] Verdade e poder. In. _____. [1979] Microfísica do poder. Rio de Janeiro: Edições Graal, 2007. p. 1-14 FOUCAULT, Michel. [1980] Do governo dos vivos: Curso no Collège de France, 1979-1980: aulas de 09 e 30 de janeiro de 1980. São Paulo: Centro de Cultura Social, 2009. FOUCAULT, Michel. [1982] O Sujeito e o Poder. In: RABINOW, P.; DREYFUS, H. Michel Foucault, uma trajetória filosófica: para além do estruturalismo e da hermenêutica. Rio de Janeiro: Forense Universitária, 1995. p. 231-249 FREUD, Sigmund. [1926] A questão da análise leiga: diálogo com um interlocutor imparcial. In. _____. Obras completas, volume 17: Inibição, sintoma e angústia, O futuro de uma ilusão e outros textos (1926-1929). São Paulo: Companhia das Letras, 2014. p. 124-230 FREUD, Sigmund. A negação. São Paulo: Cosac Naify, 2014. FRUEDIGER, Marco Aurélio (Coord.) [2018] Robôs, redes sociais e política no Brasil. DAPP, FGV, v. 18, 2017. Disponível em: . Acesso em 05 jan. 2018. FULLER, Richard Buckminster. [1968] Manual de instruções para a nave espacial Terra. Porto: Via Optima, 1998. (Coleção Diversos Universos: 5) GALLOWAY, Alexander R. [2004] Protocol: How Control Exists after Decentralization. Cambridge: MIT Press, 2004. GALLOWAY, Alexander R.; THACKER, Eugene [2007] The exploit: A theory of networks. U of Minnesota Press, 2013.

296

GARREAU, Joel. [2005] Radical Evolution: The Promise and Peril of Enhancing Our Minds, Our Bodies – and What It Means to Be Human. New York: Doubleday, 2005. GATTO, Raquel F.; MOREIRAS, Antonio M.; e GETSCHKO, Demi. [2009] Governança da Internet: conceitos, evolução e abrangência. In. 27º Simpósio Brasileiro de Redes de Computadores e sistemas Distribuídos, 2009. p. 74-97 GEIST, Michael. [2002] Fundamentally Fair. com?: An Update on Bias Allegations and the ICANN UDRP. University of Ottawa, 2002. GETSCHKO, Demi. [2014] Prefácio. In. BRAGA, Julião… [et al.] (Orgs.). O livro do IETF = El libro del IETF. São Paulo: Comitê Gestor da Internet no Brasil, 2014. GIBSON, William. [1981] Johnny Mnemônico. In _____. Neuromancer. São Paulo: Aleph, 2014. p. 334-353 (Edição especial de 30 anos) GIBSON, William. [1982] Queimando cromo. In. _____. Neuromancer. São Paulo: Aleph, 2014. (Edição especial de 30 anos) p. 354-374 GIBSON, William. [1984] Neuromancer. São Paulo: Aleph, 2014. (Edição especial de 30 anos) GIBSON, William. [2014] Introdução exclusiva de William Gibson à edição brasileira de 30 anos. In. _____. Neuromancer. São Paulo: Aleph, 2014. (Edição especial de 30 anos) p. 20-21 GOFFMAN, Erving. [1956] A representação do eu na vida cotidiana. Rio de Janeiro: Vozes, 2014. GONÇALVES, Alcindo. [2005] O conceito de governança. XIV Encontro do Conpedi, 2005, p. 16. Disponível em: . Acesso em 26 set. 2017. GREENGARD, Samuel. [2015] The internet of things. Massachusetts: MIT Press, 2015. GREENWALD, Gleen. [2014] Sem lugar para se esconder. Rio de Janeiro: Sextante, 2014. HAN, Byung-Chul. [2010] Sociedade do cansaço. Petrópolis, RJ: Vozes, 2017. HARAWAY, Donna. [1983] Manifesto ciborgue: ciência, tecnologia e feminismo-socialista no final do século XX. In. TADEU, T. (Org. e Trad.) [2000] Antropologia do ciborgue: as vertigens do pós-humano. Belo Horizonte: Autêntica Editora, 2009. (Mimo) p. 33-118 HEMMATI, Minu. [2002] Multi-stakeholder processes for governance and sustainability: beyond deadlock and conflict. Londres: Earthscan Publications Ltd, 2002. HEYLIGHEN, Francis. [1994] World-Wide Web: a distributed hypermedia paradigm for global networking. Proceedings of Europe Spring Meeting. p. 355–368. Disponível em: . Acesso em 6 jun. 2017. HOFFMAN, Abbie. [1971] Steal this book. New York: For Walls Eight Windows, 2002. HOFFMAN, Paul (Ed.). [2004]313 O Tao do IETF: Guia para os novos participantes do Grupo de Trabalho de Engenharia da Internet. In. BRAGA, Julião… [et al.] (Orgs.). O livro do IETF = El libro del IETF. São Paulo: Comitê Gestor da Internet no Brasil, 2014. HOUAISS, Antônio; e VILLAR, Mauro de Salles. Dicionário Houaiss da Língua Portuguesa. Rio de Janeiro: Objetiva, 2001.

313 A primeira edição do documento de Hoffman foi publicada em 2004, cf. no seguinte link: . Acesso em 16 out. 2017. Contudo, a primeira versão do documento, o TAO do IETF, foi publicada como RFC 1391 em 1993, disponível em: . Acesso em 16 out. 2017. Como vários outros autores editaram o texto ao longo dos anos, preferi não colocar a referência da primeira versão do texto, mesmo porque foi Malkin o autor da primeira publicação e não Hoffman.

297

HUBBARD, Amanda; BYGRAVE, Lee A. [2009] Internet Governance Goes Global. In BYGRAVE, Lee A.; BING, Jon. Internet Governance: Infrastructure and Institutions. Oxford: Oxford University Press, 2009. HUXLEY, Aldous. [1932] Admirável Mundo Novo. São Paulo: Globo, 2014. INAYATULLAH, Sohail; e MILOJEVIĆ, Ivana. [2015] Power and the Futures of the Internet. In. WINTER, Jenifer; e ONO, Ryota (Eds.) [2015] The Future Internet: Alternative Visions. New York: Springer, 2015. (Public Administration and Information Technology, vol. 17) p. 59-73 KIM, Joo Ho. [2004] Cibernética, ciborgues e ciberespaço: notas sobre as origens da cibernética e sua reinvenção cultural. In. Horizontes Antropológicos, Porto Alegre, ano 10, n. 21, p. 199-219, jan./jun. 2004. KLEINROCK, Leonard. [1961] Information Flow in Large Communication Nets. Tese de Doutorado em Engenharia Elétrica. Departamento de Engenharia Elétrica. Massachusetts Institute of Technology. 1961. p. 35. Disponível em: . Acesso em 01 jun. 2017. KLEINWÄCHTER, Wolfgang. [2000] ICANN as the ‘United Nations’ of the Global Information Society? The Long Road towards Self-Regulation of the Internet. Gazette (Leiden, Netherlands), v. 62, n. 6, p. 451-476, 2000. Disponível em: . Acesso em 20 out. 2017. KLEINWÄCHTER, Wolfgang. [2007] The History of Internet Governance. In. MÖLLER, Christian; and AMOUROUX, Arnaud. Governing the Internet – Freedom and Regulation in the OSCE Region. Viena, Austria: Organization for Security and Co- operation in Europe (OSCE), 2007. p. 41-64. Disponível em: . Acesso em 9 out. 2017. KLEINWÄCHTER, Wolfgang. [2008] Multi-stakeholder internet governance: The role of governments. In. BENEDEK, Wolfgang; BAUER, Veronika; e KETTEMANN, Matthias (Eds.). Internet Governance and the Information Society: Global Perspectives and European Dimensions. The Netherlands: Eleven International Publishing, 2008. KLEINWÄCHTER, Wolfgang. [2015] Sharing decision making in Internet governance: the impact of the WGIG definition. In. DRAKE, William J. (Ed.). The Working Group on Internet Governance: 10th anniversary reflections. Association for Progressive Communications (APC), 2015, online. p. 66-88. Disponível em: . Acesso em 25 set. 2017. KNIGHT, Peter T. [2014] A Internet no Brasil: Origens, Estratégia, Desenvolvimento e Governança. Bloomington, IN: AuthorHouse, 2014. KURBALIJA, Jovan. [2016] An Introduction to Internet Governance. Online: DiploFoundation, 2016. Disponível em: . Acesso em 26 set. 2017. KURBALIJA, Jovan; GELBSTEIN, Eduardo. [2005] Governança da Internet: Questões, atores e cisões. Rio de Janeiro: Rits – Rede de Informações para o Terceiro Setor, 2005. KUROSE, Jim; ROSS, Keith. [2000] Computer Networking: A Top-Down Approach. New York: Pearson, 2013. (6a ed.) KRUEGER, Brian S. [2005] Government Surveillance and Political Participation on the Internet. Social Science Computer Review Winter, 23: 439-452, 2005. Disponível

298

em: . Acesso em 25 mai. 2015. LAM, Calvin K. M.; TAN, Bernard C. Y. [2001] The Internet is changing the music industry. Communications of the ACM, v. 44, n. 8. p. 62-8. LEÃO, Lúcia. (Org.) [2004] Derivas: cartografias do ciberespaço. São Paulo: Annablume; Senac, 2004. LEINER, Barry M.; Vinton G. Cerf, David D. Clark, Robert E. Kahn, Leonard Kleinrock, Daniel C. Lynch, Jon Postel, Larry G. Roberts, Stephen Wolff. [1997] Brief History of the Internet. Disponível em: . Acesso em 19 out. 2017. LENK, Klaus. [1997] The challenge of cyberspatial forms of human interaction to territorial governance and policing. In. LOADER, Brian D. (Ed.). The Governance of Cyberspace: Politics, technology and global restructuring. New York (USA): Routledge, 1997. p. 126-135 LÉVI-STRAUSS, Claude. [1978] Mito e significado. Lisboa, Portugal: Edições 70, 1997 (Perspectivas do Homem, 08) LÉVY, Pierre. [1997] Cibercultura. São Paulo: Ed. 34, 1999. (Coleção TRANS) LEWIS, Charlton T. A latin dictionary: founded on Andrews’ edition of Freund’s latin dictionary. Oxford: Clareondon Press, 1996. LISPECTOR, Clarice. [1977] A hora da estrela. Rio de Janeiro: Rocco, 1998. LOTH, Sebastian; BAUMANN, Susanne; LUTZ, Christopher P.; EIGLER, D. M.; HEINRICH, Andreas J. [2012] Bistability in Atomic-Scale Antiferromagnets. Science, v. 335, n. 6065, p. 196-199, 2012. LYON, David. [1998] The world wide web of surveillance: The internet and off-world power- flows. Information, Communication & Society, 1(1), 1998. MACHADO, João Pedro. [1952-59] Dicionário etimológico da língua portuguesa: com a mais antiga documentação escrita e conhecida de muitos dos vocábulos estudados. Lisboa: Confluência Editorial, 1952-59. MACHADO, Roberto. [1979] Introdução: Por uma genealogia do poder. In. FOUCAULT, Michel. Microfísica do poder. Rio de Janeiro: Graal, 2007. p. VII-XXIII MACIEL, Marilia. [2014] Creating a Global Internet Public Policy Space: Is There a Way Forward?. In. DRAKE, William J.; PRICE, Monroe. Beyond NETmundial: The Roadmap for Institutional Improvements to the Global Internet Governance Ecosystem, ago. 2014, online. p. 99-107. Disponível em: . Acesso em 28 set. 2017. MACLEAN, Don. [2004] Herding Schrödinger’s Cats: Some Conceptual Tools for Thinking about Internet Governance. In. _____. (Ed.) Internet Governance: a grand collaboration – An edited collection of papers contributes to the United Nations ICT Task Force Global Forum on Internet Governance, New York, March 25-26, 2004. New York: The United Nations Information and Communication Technologies Task Force, 2004. p. 73-99 MALECKI, Edward J. [2004] Fibre tracks: explaining investment in fibre optic backbones. Entrepreneurship & Regional Development, v.16, n.1, p. 21-39. MARX, Karl. [1867] O Capital: crítica da economia política: Livro I: o processo de produção do capital. São Paulo: Boitempo, 2013. (Marx-Engels) MARX, Karl. [1873] Posfácio da segunda edição. In _____. [1867] O capital: crítica da economia política: Livro I: o processo de produção do capital. São Paulo: Boitempo, 2013. (Marx-Engels)

299

MASARO, Leonardo. [2010] Cibernética: ciência e técnica. 2010. 213 f. Dissertação (Mestrado em Sociologia) – Departamento de Sociologia, Universidade Estadual de Campinas, Campinas-SP, 2010. Disponível em: . Acesso em 22 jan. 2016. MALCOLM, Jeremy. [2014] A Perspective from Civil Society. In. DRAKE, William J.; PRICE, Monroe [2014] Beyond NETmundial: The Roadmap for Institutional Improvements to the Global Internet Governance Ecosystem, ago. 2014, online. p. 38-46. Disponível em: . Acesso em 23 jun. 2017. MÁRQUEZ, Gabriel García. [1967] Cem anos de solidão. Rio de Janeiro: Record, 2012. MCCAFFERY, Larry. [1986] Entrevista com William Gibson. In. _____. Neuromancer. São Paulo: Aleph, 2014. (Edição especial de 30 anos) p. 390-416 MELVILLE, Herman. [1853] Bartleby, o escrivão. São Paulo: Cosac Naify, 2005. MÖLLER, Christian. [2007] Governing the Domain Name System: An Introduction to Internet Infrastructure. In. MÖLLER, Christian; and AMOUROUX, Arnaud. Governing the Internet – Freedom and Regulation in the OSCE Region. Viena, Austria: Organization for Security and Co-operation in Europe (OSCE), 2007, p. 29- 39. Disponível em: . Acesso em 13 set. 2016. MÖLLER, Christian; and AMOUROUX, Arnaud. [2007] Governing the Internet – Freedom and Regulation in the OSCE Region. Viena, Austria: Organization for Security and Co-operation in Europe (OSCE), 2007. p. 213-235. Disponível em: . Acesso em 24 out. 2017. MUELLER, Milton. [2000] Rough justice: An analysis of ICANN’s uniform dispute resolution policy. The Information Society, v. 17, n. 3, p. 151-163, 2000. MUELLER, Milton. [2002a] Ruling the Root: Internet Governance and the Taming of Cyberspace. Estados Unidos: MIT Press, 2004. MUELLER, Milton. [2002b] Competing DNS Roots: Creative Destruction or Just Plain Destruction?. Journal of Network Industries, n. 3, p. 313-334, 2002. MUELLER, Milton. [2010] Networks and states: the global politics of internet governance. Cambridge, Massachusetts: MIT Press, 2010. NEGROPONTE, Nicholas. [1995] A vida digital. São Paulo: Companhia das Letras, 1995. NEIL, Suzanne; MCKNIGHT, Lee; e BAILEY, Joseph. [1995] The Government’s Role in the HDTV Standards Process: Model or Aberration?. In. KAHIN, B.; e ABBATE, J. Standards Policy for Information Infrastructure. Cambridge: MIT Press, 1995. p. 276-288 NEIVA, Eduardo. [2013] Dicionário Houaiss de comunicação e multimídia. São Paulo: Publifolha, 2013. NORA, Dominique. [1995] Os Conquistadores do Ciberespaço. Lisboa, Portugal: Terramar, 1995. (Colecção Actualidades) NOVAK, Marcos. [1991] Liquid Architectures in Cyberspace. In. BENEDIKT, M. (ed.) [1991] Cyberspace: first steps. Cambridge, Massachusetts: The MIT Press, 1992. p. 225-254 NWAKANMA, Nnenna. [2014] Moving from the NETmundial of Today to the “NETmundial +” of Tomorrow. In. DRAKE, William J.; PRICE, Monroe. Beyond NETmundial: The Roadmap for Institutional Improvements to the Global Internet Governance Ecosystem, ago. 2014, online. p. 108-111. Disponível em: . Acesso em 2 out. 2017.

300

ORWELL, George. [1949] 1984. São Paulo: Companhia das Letras, 2009. PASQUALE, Frank. [2010] Beyond innovation and competition: The need for qualified transparency in internet intermediaries. Northwestern University Law Review, v. 104, p. 105-174, 2010. Disponível em: . Acesso em 16 jan. 2019. PASK, Gordon. [1964] Princípios de aprendizagem e de controle. In. EPSTEIN, Isaac (Org.) [1973] Cibernética e Comunicação. São Paulo: Cultrix, Editora da Universidade de São Paulo, 1973. p. 180-190 PIRES, Hindenburgo Francisco. [2014] O controle da governança da Internet: a rearticulação do discurso nas redes sociais. XIII Coloquio Internacional de Geocrítica: El control del espacio y los espacios de control. Barcelona, 5-10 de maio de 2014. PLATÃO. Político. In. _____. Diálogos: O Banquete – Fédon – Sofista – Político. São Paulo: Abril Cultural, 1979. p. 197-261 POSSEBON, Samuel (Ed.). [2015] Atlas Brasileiro de Telecomunicações. São Paulo: Converge Comunicações, 2015. REXFORD, Jennifer; e DOVROLIS, Constantine. [2010] Future internet architecture: clean- slate versus evolutionary research. Communications of the acm. Set, 2010, v. 5, n. 9, p. 36-40. RODRIGUES, Everton Teles. [2016] Governança da Internet e Transição IANA: ruptura ou continuidade?. Dissertação de Mestrado em Divulgação Científica e Cultural. Instituto de Estudos da Linguagem e Laboratório de Estudos Avançados em Jornalismo. Universidade Estadual de Campinas. Campinas, SP. 2016. p. 109. Disponível em: . Acesso em 24 out. 2017. ROSENAU, James N. [1992] Governance, order, and change in world politics. In. ROSENAU, James N. e CZEMPIEL, Ernst-Otto (Eds.) [1992]. Governance without government: order and change in world politics. Cambridge: Cambridge University Press, 1995. (Cambridge studies in international relations: 20). p. 1-29 SANDVIG, Christian. [2013] The Internet as Infrastructure. In DUTTON, William H. [2013] The Oxford Handbook of Internet Studies. Oxford, Reino Unido: Oxford University Press, 2014. p. 86-106 SANTOS, Laymert Garcia dos. [1981]. Questão de Método. In. _____ [1981]. Desregulagens: Educação, Planejamento e Tecnologia como Ferramenta Social. São Paulo: Brasiliense, 1981. p.10-49 SANTOS, Laymert Garcia dos. [1995] Considerações sobre a realidade virtual. In. _____. [2003] Politizar as novas tecnologias: o impacto sociotécnico da informação digital e genética. São Paulo: Ed. 34, 2003. SANTOS, Laymert Garcia dos. [2001] A informação após a virada cibernética. SANTOS, L. G.; KEHL, M. R.; KUCINSKI, B.; PINHEIRO, W. Revolução tecnológica, Internet e Socialismo. Editora Fundação Perseu Abramo, São Paulo, 2003. (Coleção “Socialismo em discussão”) p. 09-33 SANTOS, Vinícius Wagner Oliveira. [2016] Neutralidade da rede e o Marco Civil da Internet no Brasil : atores, políticas e controvérsias. Tese de Doutorado em Política Científica e Tecnológica. Instituto de Geociências. Universidade Estadual de Campinas. Campinas, SP. 2016. p.269. Disponível em: . Acesso em 4 mai. 2018. SARAIVA, F. R. dos Santos. Novíssimo dicionário latino-português. Belo Horizonte: Livraria Garnier, 2006. SCHIAVETTO, Stefano. [2014] Formas contemporâneas de relação entre capital e tecnicidade: estudo sobre a gênese de microprocessadores de licença

301

proprietária e livre. Dissertação de Mestrado em Sociologia. Instituto de Filosofia e Ciências Humanas. Universidade Estadual de Campinas. Campinas, SP. 2014. p.190. Disponível em: . Acesso em 25 mai. 2015. SCHMEH, Klaus. [2001] Cryptography and Public Key Infrastructure on the Internet. Chichester: John & Sons Ltd, 2003. SCHNEIER, Bruce. [2003] Beyond fear: Thinking sensibly about security in an uncertain world. Springer Science & Business Media, 2003. SIU, Kai-Yeung; JAIN, Raj. [1995] A brief overview of ATM: protocol layers, LAN emulation, and traffic management. ACM SIGCOMM Computer Communication Review, v. 25, n. 2, p. 6-20, 1995. Disponível em: . Acesso em 30 mai. 2017. SILVEIRA, Sérgio Amadeu da. [2000] Poder no Ciberespaço: O Estado-Nação, a regulamentação e o controle da Internet. Dissertação de Mestrado em Ciência Política. Departamento de Ciência Política. Universidade de São Paulo. São Paulo, SP. 2000. p. 169. SILVEIRA, Sérgio Amadeu da. [2009] Redes cibernéticas e tecnologias do anonimato. Comunicação & Sociedade, v. 30, n. 51, p. 113-134, 2009. SILVEIRA, Sérgio Amadeu da. [2017] Governo dos Algoritmos. Revista de Políticas Públicas, v. 21, n. 1, p. 267-181, 2017. SILVEIRAS, Raphael de Souza. [2012] Indivíduo, coerção e sociedade: estudo da coerção social a partir de Durkheim, Bourdieu e Foucault. Monografia de Graduação em Ciências Sociais. Instituto de Filosofia e Ciências Humanas. Universidade Estadual de Campinas. Campinas, SP. 2012. p. 113. Disponível em: . Acesso em: 26 fev. 2019. SILVEIRAS, Raphael de Souza. [2014] Consultas públicas para o Marco Civil da Internet e Reforma da Lei de Direito Autoral: a relação entre direito, Internet e Estado na contemporaneidade. Dissertação de Mestrado em Sociologia. Instituto de Filosofia e Ciências Humanas. Universidade Estadual de Campinas. Campinas, SP. 2014. p. 290. Disponível em: . Acesso em 16 jul. 2019. SILVEIRAS, Raphael; e SCHIAVETTO, Stefano. [2012] O acesso à informação e os direitos autorais: consulta pública para a reforma da Lei sobre propriedade intelectual no Brasil. Anais do III Encontro Internacional de Ciências Sociais, Pelotas-RS, 2012, p. 01-19. Disponível em: . Acesso em 25 mai. 2015. SOANES, Catherine; STEVENSON, Angus (Eds.). Oxford Dictionary of English. Oxford: Oxford University Press, 2003. SOLUM, Lawrence B. [2009] Models of Internet Governance. In. BYGRAVE, Lee A.; BING, Jon. Internet Governance: Infrastructure and Institutions. Oxford: Oxford University Press, 2009. p. 48-91 SOURDIS, Ioannis. [2007] Designs and algorithms for packet and content inspection. 2007. Tese de Doutorado em Engenharia da Computação. Faculdade de Engenharia Elétrica, Matemática e Ciência da Computação, Universidade de Tecnologia de Delft, Holanda, 2007. p. 185. Disponível em:

302

. Acesso em 22 jan. 2019. STERLING, Bruce. [1992] The Hacker Crackdown: Law and Disorder on the Electronic Frontier. New York: Bantam, 1993. TACTICAL Technology Collective; Front Line. Security in-a-box: caja de herramientas de seguridad. [s.d.]. TANENBAUM, Andrew S.; e WETHERALL, David J. [1981] Computer networks. Upper Saddle River, NJ : Prentice-Hall, 2011. (5a Ed.) TOWNSEND, Anthony. [2003] Wired / Unwired: The Urban Geography of Digital Networks. Tese de Doutorado em Filosofia no Plano Urbano e Regional. Departamento de Estudos Urbanos e Planejamento. MIT – Massachusetts Institute of Technology. Cambridge, Estados Unidos. 2003. p. 208 TURING, Alan Mathison. [1936] On computable numbers, with an application to the entscheidungsproblem. In. Proceedings of the London Mathematical Society, vol. 42, 1936-1937. p. 230-265 TURING, Alan Mathison. [1950] Computadores e inteligência. In. EPSTEIN, I. (Org.) [1973]. Cibernética e Comunicação. São Paulo: Cultrix, Editora da Universidade de São Paulo, 1973. p. 45-83 VARON, Joana. [2014] The NETmundial: An Innovative First Step on a Long Road. In. DRAKE, William J.; PRICE, Monroe. Beyond NETmundial: The Roadmap for Institutional Improvements to the Global Internet Governance Ecosystem, ago. 2014, online. p. 16-24. Disponível em: . Acesso em 26 out. 2017. VEYNE, Paul. [1971] Foucault revoluciona a história. In. _____. Como se escreve a história. Brasília: Editora da Universidade de Brasília, 1995. p.149-181 VOELKER, Geoffrey M.; e SHENKER, Scott (Eds.). [2004] Peer-to-Peer Systems III. Berlim: Springer, 2004. WEBER, Max. [1922] Economia e Sociedade: fundamentos da sociologia compreensiva. Brasília: Editora UnB, 2012 (2 vols.) WELLMAN, Barry. [2005] Lugar físico y lugar virtual: El surgimiento de las redes personalizadas. In: PORRAS, José Ignacio; ESPINOZA, Vicente. Redes: Enfoques y Aplicaciones del Análisis de Redes Sociales (ARS). Santiago: Editora Universidad Bolivariana, 2005. p. 69-116. WELLMAN, Barry; HOGAN, Bernie. [2004] The Internet in Everyday Life. In: BAINBRIDGE, W. Berkshire Encyclopedia of Human-Computer Interaction. Great Barrington, MA: Berkshire Publishing, 2004. p. 389-97. WIENER, Norbert. [1954] Cibernética e Sociedade: O uso humano dos seres humanos. São Paulo: Cultrix, 1968. WINNER, Langdon. [1980] Do artifacts have politics?. Dedalus, v. 109, n. 1 p. 121-136, 1980 WU, Tim. [2003] Network neutrality, broadband discrimination. J. on Telecomm. & High Tech. L., v. 2, p. 141-179, 2003. YAN, Yan; XIE, Guodong; LAVERY, Martin P. J.; HUANG, Hao; AHMED, Nisar; BAO, Changjing; REN, Yongxiong; CAO, Yinwen; LI, Long; ZHAO, Zhe; MOLISCH, Andreas F.; TUR, Moshe; PADGETT, Miles J.; WILLNER, Alan E. [2014] High- capacity millimetre-wave communications with orbital angular momentum multiplexing. Nature communications, v. 5, 2014.

303

ZHOU, Lidong; VAN RENESSE, Robbert. [2004] P6P: A peer-to-peer approach to Internet infrastructure. In: International Workshop on Peer-to-Peer Systems. Springer, Berlin, Heidelberg, 2004. p. 75-86. ZOURABICHVILI, François. [2004] O vocabulário de Deleuze. Rio de Janeiro: Relume Dumará, 2009. (Conexões; 24)

Documentos ANTONIALLI, Dennys; ABREU, Jacqueline de Souza. [2016] State Surveillance of Communications in Brazil and the Protection of Fundamental Rights, Março de 2016. Disponível em: . Acesso em 12 fev. 2019. AUERBACH, Karl. [2014] Letter about NTIA and ICANN, 21 abr. 2014. Disponível em: . Acesso em 16 out. 2017. BANCO MUNDIAL. [1992] Governance and Development. 30 abr. 1992. Disponível em: . Acesso em 25 set. 2017. BARLOW, John Perry. [1996] A Declaration of the Independence of Cyberspace. Disponível em: . Acesso em 2 out. 2017. BARAN, Paul. [1964] On Distributed Communication Networks – Memorandum RM-3420- PR. Santa Mônica, Estados Unidos: The Rand Corporation, 1964. Disponível em: . Acesso em 1 jun. 2017. BARTH, A. [2011] RFC 6265: HTTP State Management Mechanism. In. IETF. RFC – Request for Comments, 2011. Disponível em: . Acesso em 7 jun. 2017. BITTORRENT. About BitTorrent. Disponível em: . Acesso em 12 jun. 2017. BOUTELL, Thomas (Ed.). [1996] Png (portable network graphics) specification. Versão 1.0. Relatório técnico, World Wide Web Consortium (W3C), 1996. Disponível em: . Acesso em 19 out. 2017. BRADEN, R. [1989] RFC 1122: Requirements for Internet Hosts – Communication Layers. In. IETF. RFC – Request for Comments. 1989. Disponível em: . Acesso em 15 mai. 2017. BRADNER, S; e MANKIN, A. [1995] RFC 1752: The Recommendation for the IP Next Generation Protocol. In. IETF. RFC – Request for Comments, 1995. Disponível em: . Acesso em 31 mai. 2017. BRASIL. [1995] Uso de meios da rede pública de telecomunicações para acesso à Internet. Norma 004/95, 1995. Disponível em: . Acesso em 20 out. 2017. BRASIL. [2003] Decreto nº 4.829, de 3 de setembro de 2003. Dispõe sobre a criação do Comitê Gestor da Internet no Brasil – CGI.br, sobre o modelo de governança da Internet no Brasil, e dá outras providências. Brasília, DF, set. 2003. Disponível em: . Acesso em 23 out. 2017. BRASIL. [2014] Lei n° 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Brasília, DF, abr. 2014.

304

Disponível em: . Acesso em 2 out. 2017. BRASIL. [2016] Decreto n° 8.771, de 11 de maio de 2016. Regulamenta Lei n° 12.965, de 23 de abril de 2014. Brasília, DF, mai. 2016. Disponível em: . Acesso em 22 mai. 2018. CARPENTER, B. [2000] RFC 2850: Charter of the Internet Architecture Board (IAB). In. IETF. RFC – Request for Comments, 2000. Disponível em: . Acesso em 18 out. 2017. CARPENTER, B.; BAKER, F.; e ROBERTS, M. [2000] RFC 2860: Memorandum of Understanding Concerning the Technical Work of the Internet Assigned Numbers Authority. In. IETF. RFC – Request for Comments, 2000. Disponível em: . Acesso em 17 out. 2017. CERF, Vinton. [1994] RFC 1607: A view from the 21st Century. In. IETF. Request for Comments, 1994. Disponível em: . Acesso em 17 out. 2017. CERN – Organisation Européenne pour la Recherche Nucléaire. [1993] Statement Concerning CERN W3 software release into public domain, 30 abr. 1993. Disponível em: . Acesso em 06 jun. 2017. CGI.br – Comitê Gestor da Internet no Brasil. [2009] Princípios para a governança da Internet no Brasil. CGI.br, Resolução CGI.br/RES/2009/003/P, 2009, online. Disponível em: . Acesso em 23 out. 2017. CISCO. [2008] Multipath and Diversity. 21 jan. 2008. Disponível em: . Acesso em 16 mai. 2017. CLARK, D.; CHAPIN, L; CERF, V.; BRADEN, R.; HOBBY, R. [1991] RFC 1287: Towards the Future Internet Architecture. In. IETF. RFC – Request for Comments, 1991. Disponível em: . Acesso em 31 mai. 2017. CMSI – Cúpula Mundial sobre a Sociedade da Informação. [2005] Outcome Documents: Geneva 2003 – Tunis 2005, UIT (União União Internacional de Telecomunicações), Geneva, 2005, online. Disponível em: . Acesso em 24 out. 2017. CONFERENCIA Ministerial Regional Preparatoria de América Latina y el Caribe para la Cumbre Mundial sobre la Sociedad de la Información. [2003] Declaración de Bávaro. Online, 2003. Disponível em: . Acesso em 28 set. 2017. COTTON, M. et al. [2011] RFC 6335: Internet Assigned Numbers Authority (IANA) Procedures for the Management of the Service Name and Transport Protocol Port Number Registry. In. IETF. Request for Comments, 2011. Disponível em: . Acesso em 10 nov. 2017. CROCKER, Steve. [1969] RFC 1: Host Software. In. IETF. Request for Comments, 1969. Disponível em: . Acesso em 17 out. 2017. FIELDING, R.; RESCHKE, J. [2014]. RFC 7231: Hypertext Transfer Protocol (HTTP/1.1): Semantics and Content. In. IETF. RFC – Request for Comments, 2014. Disponível em: . Acesso em 6 out. 2017. FNC – Conselho Federal de Redes dos Estados Unidos. [1995] Definition of “Internet”, 1995. Disponível em: . Acesso em 26 ago. 2016.

305

GOOGLE. [2014] Termos de serviço do Google, versão arquivada com última modificação em 14 de abril de 2014. Disponível em: . Acesso em 12 fev. 2019. GREENSTEIN, Shane M. [2004] The Economic Geography of Internet Infrastructure in the United States. CSIO working paper / Northwestern University, Center for the Study of Industrial Organization, No. 0046. 2004. Disponível em: . Acesso em 12 set. 2016. GROSS, Phillip (Org.). [1986] Minutes of the Fourth DARPA Gateway Algorithms and Data Structures Task Force Meeting (First IETF). McLean, Virginia: MITRE Corporation, 1986. Disponível em: . Acesso em 17 out. 2017. GTGI – Grupo de Trabalho sobre Governança da Internet. [2005a] Report of the Working Group on Internet Governance, jun. 2005, online. Disponível em: . Acesso em 25 set. 2017. GTGI – Grupo de Trabalho sobre Governança da Internet. [2005b] Background Report of the Working Group on Internet Governance, jun. 2005, online. Disponível em: . Acesso em 18 jul. 2017. HAMBRIDGE, S. [1995] RFC 1855: Netiquette Guidelines. In. IETF. RFC – Request for Comments, 1995. Disponível em: . Acesso em 17 out. 2017. HAWKINSON, J.; e BATES, T. [1996] RFC 1930: Guidelines for creation, selection, and registration of an Autonomous System (AS). In. IETF. RFC – Request for Comments, 1996. Disponível em: . Acesso em 18 mai. 2017. HOUSLEY, R; CURRAN, J; HUSTON, G; e CONRAD, D. [2013] RFC 7020: The Internet Numbers Registry System. In. IETF. RFC – Request for Comments, 2013. Disponível em: . Acesso em 31 mai. 2017. HOVEY, R.; BRADNER, S. [1996] RFC 2028: The Organizations Involved in the IETF Standards Process. In. IETF. RFC – Request for Comments, 1996. Disponível em: . Acesso em 18 out. 2017. HUITEMA, C.; POSTEL, J.; e CROCKER, S. [1995] RF 1796: Not All RFCs are Standards. In. IETF. RFC – Request for Comments, 1995. Disponível em: . Acesso em 17 out. 2017. HUSTON, G. [2001] RFC 3172: Management Guidelines & Operational Requirements for the Address and Routing Parameter Area Domain (“arpa”). In. IETF. RFC – Request for Comments, 2001. Disponível em: . Acesso em 6 out. 2017. IAB, Network Working Group. [2000] RFC 2826: IAB Technical Comment on the Unique DNS Root. In. IETF. RFC – Request for Comments, 2000. Disponível em: . Acesso em 11 fev. 2019. IANA – Internet Assigned Numbers . Service Name and Transport Protocol Port Number Registry, online. [Lista constantemente atualizada]. Disponível em: . Acesso em 02 jun. 2017. ICANN – Internet Corporation for Assigned Names and Numbers. [2013a] Guia do Iniciante para participação na ICANN. Atualização em 2013. Disponível em: . Acesso em 10 out. 2017.

306

ICANN – Internet Corporation for Assigned Names and Numbers. [2013b] Guia do Iniciante para a Participação na Membresia Geral. Online: ICANN, nov. 2013. Disponível em: . Acesso em 10 out. 2017 ICANN – Internet Corporation for Assigned Names and Numbers. [2015a] As funções da IANA: uma introdução às funções da IANA (Autoridade para Atribuição de Números da Internet). Data de publicação: 18 dez. 2015. Disponível em: . Acesso em 6 out. 2017. ICANN – Internet Corporation for Assigned Names and Numbers. [2015b] The three layers of digital governance. Online, 3 ago. 2015. Disponível em: . Acesso em 27 set. 2017. ICANN – Internet Corporation for Assigned Names and Numbers. [2015c] Privatização de DNS: uma atualização sobre a transição de administração da IANA, abr. 2015, online. Disponível em: . Acesso em 17 jul. 2017. ISOC – Internet Society. [2015] Global Internet Report 2015: mobile evolution and development of the Internet. Disponível em: . Acesso em 11 jul. 2017. KUCHERAWY, M. [2015] RFC 7437: IAB, IESG, and IAOC Selection, Confirmation, and Recall Process: Operation of the Nominating and Recall Committees. In. IETF. Request for Comments, 2015. Disponível em: . Acesso em 18 out. 2017. MACKINNON, Rebecca; HICKOK, Elonnai; BAR, Allon; LIM, Hae-in. [2014]. Fostering Freedom Online: The Role of Internet Intermediaries, 2014, online. (UNESCO Series on Internet Freedom). Disponível em: . Acesso em 13 jul. 2017. MACRON, Emmanuel. [2018] IGF 2018 Speech by French President Emmanuel Macron. Discurso disponível em: . E vídeo com o discurso disponível em: . Ambos os links foram acessados em 03 jul. 2019. MENDEL, Toby; PUDDEPHATT, Andrew; WAGNER, Ben; HAWTIN, Dixie; TORRES, Natalia. [2012] Global survey on Internet privacy and freedom of expression, 2012, online. (UNESCO Series on Internet Freedom). Disponível em: . Acesso em 14 jul. 2017. MOTTA, Sérgio. [1995] Portaria Interministerial n° 147, de 31 de Maio de 1995. Ministério das Comunicações, Brasil, 1995. Disponível em: . Acesso em 23 out. 2017.

307

MOTTA, Sérgio; e VARGAS, José Israel. [1995] Portaria Interministerial n° 183, de 3 de Julho de 1995. Ministério das Comunicações, Brasil, 1995. Disponível em: . Acesso em 23 out. 2017. MUELLER, Milton. [2011] DPI Technology from the standpoint of Internet governance studies: An introduction. School of Information Studies, Syracuse University, Technical Report, 2011. NETMUNDIAL – Global Multistakeholder Meeting on the Future of Internet Governance. [2014] NETmundial Multistakeholder Statement, 24 abr. 2014. Disponível em: . Acesso em 26 out. 2017. NTIA – National Telecommunications & Information Administration. [2014] NTIA Announces Intent to Transition Key Internet Domain Name Functions. NTIA, 14 mar. 2014, online. Disponível em: . Acesso em 11 out. 2017. PADLIPSKY, M. A. [1982] RFC 871: A perspective on the ARPANET reference model. In. IETF. RFC – Request for Comments, 1989. Disponível em: . Acesso em 15 mai. 2017. POSTEL, Jon. [1981] RFC 801: NCP/TCP transition plan. In. IETF. RFC – Request for Comments, 1982. Disponível em: . Acesso em 15 mai. 2017. POSTEL, Jon. [1994] RFC 1591: Domain Name System Structure and Delegation. In. IETF. RFC – Request for Comments, 1994. Disponível em: . Acesso em 6 out. 2017. REYNOLDS, J. e POSTEL, J. [1990] RFC 1060: Assigned Numbers. In. IETF. RFC – Request for Comments, 1990. Disponível em: . Acesso em 9 out. 2017. ROSE, Karen; ELDRIDGE, Scott; CHAPIN, Lyman. [2015] The internet of things: An overview. The Internet Society (ISOC), 2015. SSAC – ICANN Security and Stability Advisory Committee. [2014] A Report from the ICANN and Security and Stability Advisory Committee (SSAC), 15 ago. 2014. Disponível em: . Acesso em 28 jun. 2016. TSCHOFENIG, H.; ARKKO, J.; THALER, D; MCPHERSON, D. [2015] RFC 7452: Architectural Considerations in Smart Object Networking. In. IETF. RFC – Request for Comments, 2015. Dosponível em: . Acesso em 25 jan. 2019. WAITZMAN, D. [1990] RFC 1149: A Standard for the Transmission of IP Datagrams on Avian Carriers. In. IETF. RFC – Request for Comments, 1990. Disponível em: . Acesso em 17 out. 2017. WEBER, Rolf H. [2015] Principles for governing the Internet: a comparative analysis, 2015, Online. (UNESCO Series on Internet Freedom). Disponível em: . Acesso em 28 set. 2017. WEITZNER, Daniel J. [2004] W3C Patent Policy. 5 fev. 2004 (atualizado em 1 ago. 2017). Política de Patente, World Wide Web Consortium (W3C), 2017. Disponível em: https://www.w3.org/Consortium/Patent-Policy-20170801/>. Acesso em 19 out. 2017. WILSON, Paul et al. [2013] Montevideo Statement on the Future of Internet Cooperation. Montevideo, 2013, online. Disponível em:

308

. Acesso em 26 out. 2017. WINTHER, Mark. [2006] Tier 1 ISPs: What They Are and Why They Are Important. [White Paper]. Disponível em: . Acesso em 18 mai. 2017.

Jornais e exposições ALECRIM, Emerson. [2018] Funcionários do Google se demitem em protesto contra projeto militar. Tecnoblog, junho de 2018. Disponível em: . Acesso em 15 ago. 2018. ASSANGE, Julian. [2014] Who Should Own the Internet? The New York Times, 04 dez. 2014. Disponível em: . Acesso em 11 fev. 2015. BARBOSA, Flávia. James Bamford: “A NSA pode entrar na mente das pessoas”. O Globo, 16 jul. 2017. Disponível em: . Acesso em 17 jul. 2013. BBC. [2015] Apple wins appeal over smartphone patents. BBC, 18 set. 2015. Disponível em: . Acesso em 18 dez. 2015. BBC. [2019] Internet na Rússia: país planeja se ‘desligar’ da rede mundial para fazer testes de segurança. BBC, 12 fev. 2019. Disponível em: . Acesso em 14 fev. 2019. BROAD, William J. [1994] Navy Has Long Had Secret Subs For Deep-Sea Spying, Experts Say. The New York Times, 7 fev. 1994. Disponível em: . Acesso em 15 jan. 2017. BRODKIN, Jon. [2014] BT testing 800Mbps broadband over fiber to the curb, copper to the home. ARStechnica. 26 set. 2014. Disponível em: . Acesso em 8 jun. 2017. BUCCO, Rafael. Cobre poderá entregar 10Gbps em dois anos, prevê Alcatel-Lucent. TeleSíntese. 12 nov. 2014. Disponível em: . Acesso em 8 jun. 2017. BUSH, Vannevar. [1945] As We May Think. The Atlantic Monthly, jul. 1945. Disponível em: . Acesso em 06 jun. 2017. CANABARRO, Diego Rafael. [2014] Cabos submarinos tupiniquins: a realidade é o que fazemos dela. Observatório da Internet, 12 nov. 2014. Disponível em: < http://observatoriodainternet.br/cabossubmarinostupiniquinsarealidadeeoquefazemos dela>. Acesso em: 10 fev. 2015. CANABARRO, Diego Rafael; RODRIGUES, Everton T. [2016] A Transição IANA chegou à outra margem do Rubicão. PoliTICs, mai. 2016. Disponível em: . Acesso em 11 out. 2016.

309

CHEHADÉ, Fadi. [2012] Outgoing CEO Praises Expansion of ICANN’s International Community. ICANN, 25 jun. 2012. Disponível em: . Acesso em 11 out. 2017. CIANCAGLINI, Vincenzo et al. [2015] Below the surface: Exploring the deep web. Trend Micro, p. 1-48, 2015. COISSI, Juliana. [2013] Julia, 17, e Giana, 16, tiveram imagens íntimas divulgadas. Folha de S. Paulo, 01 dez. 2013. Disponível em: . Acesso em 25 nov. 2015. CONVERGÊNCIA DIGITAL. [2015] Internet.org: 55% dos brasileiros confundem o Facebook com a Internet. Convergência Digital, 16 set. 2015. Disponível em: . Acesso em 6 jun. 2017. FÁBIO, André Cabette. [2018] A audiência de Zuckerberg no Congresso americano, em 5 pontos. Nexo, 11 abr. 2018, online. Disponível em: https://www.nexojornal.com.br/expresso/2018/04/11/A-audi%C3%AAncia-de- Zuckerberg-no-Congresso-americano-em-5-pontos>. Acesso em 19 out. 2018. FÁVERO, Bruno. [2014] América Latina é 'culpada' por bons ventos na internet, diz presidente da Icann. Folha, 14 abr. 2014, online. Disponível em: . Acesso em 11 out. 2017. FIGUEIREDO, Lucas. [2016] O grande irmão: Abin tem megabanco de dados sobre movimentos sociais. The Intercept, 5 dez. 2016. Disponível em: . Acesso em 12 fev. 2019. FLORANCE, Ken. [2016] Como a Netflix trabalha com provedores de acesso à internet no mundo todo para proporcionar uma boa experiência audiovisual. Netflix Media Center, 17 mar. 2016. Disponível em: . Acesso em 19 mai. 2017. FUNG, Brian; PETERSON, Andrea. [2016] America uses stealthy submarines to hack other countries’ systems. Washington Post, 29 jul. 2016. Disponível em: . Acesso em 20 já. 2017. GETSCHKO, Demi. [2014] A internet e seu desaparecimento adiado. In. ESTADÃO.COM.BR. Link, 08 abr. 2014, online. Disponível em: . Acesso em 08 abr. 2015. GLASER, Hartmut. [2015] “Os Estados Unidos podem hoje desligar a internet de qualquer país”, diz comitê brasileiro. BBC Brasil, 03 jul. 2015. Disponível em: . Acesso em 4 out. 2017. GROSSMANN, Luíz Osvaldo. [2016] 40 entidades protestam no México contra mudanças na internet brasileira. Convergência Digital, Internet, 12 dez. 2016, online. Disponível em: . Acesso em 24 out. 2017.

310

G1. [2010] Amazon nega pressão dos EUA em bloqueio a WikiLeaks. G1, 3 dez. 2017, online. Disponível em: http://g1.globo.com/tecnologia/noticia/2010/12/amazon-nega- pressao-dos-eua-em-bloqueio-a-.html>. Acesso em 26 set. 2017. G1. [2016] Justiça do RJ manda bloquear aplicativo em todo o Brasil. G1, 19 jul. 2016, online. Disponível em: . Acesso em 05 mai. 2017. INGHAM, Lucy. [2014] Scientists urge governments to turn old tv frequencies into free “super WiFi”. Factor-tech, 24 nov. 2014. Disponível em: . Acesso em 8 jun. 2017. JUNIOR, Sérgio Alves. [2015] A fragmentação da balcanização da Internet. poliTICs, abril, 2015, online. p. 2-11. Disponível em: . Acesso em 4 out. 2017. KLEINWÄCHTER, Wolfgang. [2017] Internet Governance Outlook 2017: Nationalistic Hierarchies vs. Multistakeholder Networks? CircleID, 06 jan. 2017, online. Disponível em: . Acesso em 17 jul. 2017. MAGAZINER, Ira. [2015] Fala de abertura da ICANN 52 em Cingapura no dia 9 mar. 2015. Disponível em: . Acesso em 10 out. 2017. MARKOFF, John. [1990] Programmed for Life and Death. The New York Times, 26 ago. 1990. Disponível em: . Acesso em 25 nov. 2015. MENDONÇA, F. [2012] Guerra das patentes: nos processos movidos pela Apple contra a Samsung, a estratégia é seguir o mantra de Steve Jobs e “destruir o Android”. Carta Capital, 17 set. 2012. Disponível em: . Acesso em 18 dez. 2015. MENN, Joseph. [2015] PCs podem ser alterados para enviar dados em ondas sonoras. Exame, 5 ago. 2015. Disponível em: . Acesso em 6 ago. 2015. MOREIRA, M.; FERNANDES, N.; COSTA, L.; e DUARTE, O. [2009] Internet do futuro: Um novo horizonte. Minicursos do Simpósio Brasileiro de Redes de Computadores- SBRC 2009, p. 1–59. Disponível em: . Acesso em 13 jul. 2016. MOREIRAS, Antonio M.; RIBEIRO, José Luis (Filho). [2014a] Como funciona a Internet: Camadas e Protocolos. Apresentação realizada na primeira turma do Curso de Curta duração da Escola de Governança da Internet no Brasil (EGI), 12 ago. 2014. MOREIRAS, Antonio M.; RIBEIRO, José Luis (Filho). [2014b] Como funciona a Internet: Interconexão. Apresentação realizada na primeira turma do Curso de Curta duração da Escola de Governança da Internet no Brasil (EGI), 12 ago. 2014. MOROZOV, Evgeny. [2015] Who’s the true enemy of internet freedom – China, Russia, or the US? The Guardian, 3 jan. 2015, online. Disponível em: . Acesso em 3 out. 2017. MOZUR, Paul. [2017] Facebook cria aplicativo que fura bloqueio da censura na China. Folha de S. Paulo, 12 ago. 2017. Disponível em:

311

. Acesso em 3 out. 2017. MÜLLER, Léo. [2015] Apple vence Samsung em “nova disputa” por patentes na justiça dos EUA. Tecmundo, 17 set. 2015. Disponível em: . Acesso em 18 dez. 2015. O GLOBO. [2015] Samsung recorre à Suprema Corte em disputa de patente contra Apple. O Globo, 14 dez. 2015. Disponível em: . Acesso em 18 dez. 2015. OBSERVATÓRIO DIGITAL. Crimeia e Cuba: dois atos sobre o futuro da internet. Observatório Digital, online. Disponível em: . Acesso em 11 fev. 2015. OLIVEIRA, Marcos de. [2011] Primórdios da rede: A história dos primeiros momentos da internet no Brasil. Revista Pesquisa FAPESP, 180, fev. de 2011. p. 17-22. OLIVEIRA, Marcos de. [2014] Um construtor da Internet. Revista Pesquisa FAPESP, 221, jul. 2014. p. 24-31 PURKAYASTHA, Prabir; BALEY, Rishab. [2014] U.S. Control of the Internet: Problems Facing the Movement to International Governance. Monthly Review, July-August 2014, n. 66, v.3, p.103-127. ROBERTS, Hal. [2010] Amazon’s terms of service and WikiLeaks' censorship. The Guardian, 3 dez. 2010. Disponível em: . Acesso em 26 set. 2017. ROBERTS, Michael M. [2001] Testimony of Michael M. Roberts Before U.S. Senate Committee on Commerce, Science, and Transportation, Subcommittee on Communications. 14 fev. 2001. Disponível em: . Acesso em 10 out. 2017. ROUSSEFF, Dilma. [2014] Discurso da Presidenta da República, Dilma Rousseff. Cerimônia de abertura do Encontro Global Multissetorial sobre o Futuro da Governança da Internet – NETmundial. São Paulo, 23 abr. 2014, online. Disponível em: . Acesso em 26 out. 2017. RT. [2014] Rusia y China idean un Internet independiente de EE.UU. RT, 19 ago. 2014. Disponível em: . Acesso em 4 out. 2017. SANKIN, Aaron. ‘Free’ is the curse of the Internet [2014] The Kernel Mag – Daily Dot. 21 set. 2014. Disponível em: . Acesso em 26 fev. 2019. SCHOFIELD, Hugh. [2012] Minitel: The rise and fall of the France-wide web. BBC News, Paris, 28 jun. 2012. Disponível em: . Acesso em 9 mai. 2017. SOUZA, Antônio. [2014] Deep web: abaixo da superfície. Revista.br, 6ª ed., ano 05, 2014. p. 05-11 SOUZA, Ramon de. [2018] Briar, um mensageiro seguro e descentralizado, ganha versão estável para Android. Canaltech, 11 mai. 2018. Disponível em:

312

. Acesso em 10 jun. 2018. THE GUARDIAN. [2014] Tim Berners-Lee calls for internet bill of rights to ensure greater privacy. The Guardian, 28 set. 2014. Disponível em: . Acesso em 10 fev. 2019. TOLEDO, Karina. [2015] A matemática traduzindo o cérebro. In. FAPESP. Agência FAPESP, 01 dez. 2015. Disponível em: . Acesso em 01 dez. 2015. WIZIACK, Julio. [2015] Justiça determina bloqueio do WhatsApp em todo o Brasil por 48 horas. In. FOLHA DE SÃO PAULO, Mercado, 16 dez. 2015, online. Disponível em: . Acesso em 05 mai. 2017. WONG, Julia Carrie. [2018] Congress grills Facebook CEO over data misuse – as it happened. The Guardian, 11 abr. 2018. Disponível em: . Acesso em 19 abr. 2018. ZOLNERKEVIC, Igor. [2013] Redemoinhos de luz. Revista Pesquisa FAPESP 211, set. 2013. p. 62-3

Sites CGI.br – Comitê Gestor da Internet no Brasil. Atribuições. CGI.br, [s.d.], online. Disponível em: . Acesso em 23 out. 2017. IAB – Internet Architecture Board. History, iab.org, online. Disponível em: . Acesso em 19 out. 2017. IBM. Port-A-Punch, online. Disponível em: . Acesso em 05 mai. 2017. IPNSIG – InterPlanetary Networking Special Interest Group. ipnsig.org, online. Website disponível em: . Acesso em 8 jun. 2017. IX.br. PTTMetro – Pontos de Troca de Tráfego Metropolitanos, online. Disponível em: . Acesso em 11 mai. 2016. OBSERVATÓRIO DA INTERNET. Sobre o Observatório, Observatório da Internet, [s.d.], online. Disponível em: . Acesso em 24 out. 2017. OCP – Open Compute Project. Página inicial, online. Disponível em: . Acesso em 19 mai. 2017. REGIONAL INTERNET REGISTRIES STATISTICS. World – Autonomous System Number statistics. Disponível em: . Acesso em 22 mai. 2018. XANADU. Project Xanadu: Founded 1960 * The Original Hypertext Project. Website. Disponível em: . Acesso em 6 jun. 2017.

313

Vídeos POITRAS, Laura. [2014] Citizenfour. Documentário histórico, 2014, 1h54min. HEILEMANN, John. [2008] Download: The True Story of the Internet. Programa de TV. 4 Episódios. Discovery Channel, 2008. HERZOG, Werner. [2016] Eis os delírios do mundo conectado. Documentário, 2016, 1h38min. KNAPPENBERG, Brian. [2014] O Menino da Internet: A História de Aaron Swartz. 2h. 2014. NIC.br. BR – Núcleo de Informação e Coordenação do Ponto BR. [2014a] Como funciona a Internet? Parte 4: Governança da Internet. NICbrvideos, 2014, online. Disponível em: . Acesso em 16 out. 2017. NIC.BR – Núcleo de Informação e Coordenação do Ponto BR. [2014b] CGI.br: Governança multissetorial e pluriparticipativa da Internet no Brasil. Publicado em 3 set. 2014, online. Disponível em: . Acesso em 4 jul. 2017. WINTER, Alex. [2013] Downloaded – A saga do Napster. Nova Iorque, 21 jun. 2013.

314

Anexos

Anexo I – Foucault e Deleuze na Internet: considerações teórico-metodológicas

Não se perguntará nunca o que o livro quer dizer, significado ou significante, não se buscará nada compreender num livro, perguntar-se-á com o que ele funciona, em conexão com o que ele faz ou não passar intensidades, em que multiplicidades ele se introduz e metamorfoseia a sua, com que corpos sem órgãos ele faz convergir o seu. Um livro existe apenas pelo fora e no fora (Deleuze; Guattari, [1980]: 18)314

I – Considerações para o estudo da governança da Internet315 A conexão global de redes de computação popularmente chamada de Internet é uma rede que passa por um período no qual aumenta constantemente sua infraestrutura e o número de usuários que a acessa316. E para essa rede funcionar há uma infinidade de dispositivos que a compõe – como fibras óticas, satélites, cabos coaxiais, servidores, roteadores, computadores, smartphones, etc. –, cuja dinâmica ou existência podem passar despercebidas a parte significativa dos usuários finais317. Junto a seu desenvolvimento, surgem diversos estudos sobre essa rede mundial de computadores, entre os quais pesquisas que refletem a respeito das consequências e novas possibilidades relacionais advindas com a Internet. A partir desses estudos é possível verificar que o desenvolvimento de novas tecnologias contribui com a atualização no âmbito relacional dos humanos envolvidos em alguma medida com as mesmas. Tendo em vista que a Internet pode ser dividia em camadas – como física, lógica e de aplicação –, de modo geral os estudos sobre Internet voltados às áreas de humanidades se preocupam com sua camada de aplicação. Esta camada é de superfície, aquela com a qual o usuário final tem contato. Por meio dela há a interação entre atores através de blogs, vídeos, e-mails, videoconferências, etc. No nível profundo existe a interface lógica e a física. Esta se relaciona com as telecomunicações em âmbito genérico, sendo uma

314 Para facilitar a visualização do período no qual determinado autor escreve, será colocado sempre que possível o ano da primeira publicação da referência, a qual será delimitada por chaves. Na parte das referências são colocados tanto o ano de publicação da referência quanto o ano da edição consultada, sendo que o primeiro está chaves. 315 Como colocado na Apresentação, este texto não tem como objetivo estabelecer parâmetros gerais sobre como lidar com um objeto de análise. Ele foi escrito no final de 2014 e seus links atualizado em junho de 2015. O texto serviu como orientação para lidar com um objeto investigativo tão fugidio como a Internet, sua governança e seu desenvolvimento. Além disso, alguns fragmentos dele estão presentes no corpo do texto da tese. 316 Para visualizar o aumento da infraestrutura dessa rede de redes, conferir (cf.) o mapa de seus cabos submarinos, disponível em: . Acesso em 14 jul. 2015. E à guisa de exemplo no que diz respeito ao aumento de usuários na Internet a partir de dados fornecidos pela União Internacional de Telecomunicações (ITU – International Telecommunication Union), nota-se que se em 2005 a porcentagem da população mundial utilizando Internet era de 15,8%, a previsão para 2015 é de 43,4%. Disponível em: . Acesso em 12 jun. 2015. 317 Sobre o “desaparecimento” da Internet, ler o texto A internet e seu desaparecimento adiado (Getschko, [2014]: online).

315

parte mais técnica – como fibras óticas, cabos coaxiais, cabos submarinos, etc. A camada lógica especifica e organiza a informação para tráfego dos dados na camada física com a finalidade de que determinada informação saia de um computador e chegue a outro. Embora a infraestrutura básica da Internet seja de 1969 (Wellman; Hogan, [2004]), somente em 1995 (Castells, [2001]) ela passa a ser efetivamente acessível para a sociedade civil, aumentando progressivamente o número de pessoas conectas a essa rede318 e, juntamente a isso, surgem diversas demandas jurídicas vinculadas a ela319 – como disponibilização de informações protegidas por direitos autorais sem a requerida solicitação; agressão verbal; ameaça de agressão física, entre outras; disponibilização de vídeos e imagens sem autorização dos atores envolvidos nos mesmos; controle por empresas na velocidade do tráfego de informações do usuário, dependendo do site acessado por ele; decisões judiciais que não levam em consideração o funcionamento da Internet. Isto posto, se torna necessário o desenvolvimento de uma regulamentação dessa rede mundial de computadores, algo objetivado em lei no Brasil somente no ano de 2014. Ora, para o desenvolvimento de uma governança da Internet a nível internacional é primordial haver o estabelecimento de parâmetros comuns. Nesse sentido, há um parâmetro sobre a concepção de governança da Internet que este trabalho utiliza como referência: “the development and application by Governments, the private sector and civil society, in their respective roles, of shared principles, norms, rules, decision-making procedures, and programmes that shape the evolution and use of the Internet” (WGIG320, [2005]: 04). Esta definição de 2005 foi concebida pelo Grupo de Trabalho sobre Governança da Internet, criado pelo IGF – Internet Governance Forum321. Essa definição demonstra que a governança da Internet é compreendida como algo extenso e moderadamente delimitado. De todo modo, por ora o importante é apontar que meu objeto de análise se encontra neste emaranhado, o qual envolve Internet, governos, setor privado e sociedade civil, a saber: o estudo da governança, arquitetura e resistência na Internet. O objetivo da pesquisa é compreender como se exerce a governança da Internet, tendo em conta seus limites nacionais e técnicos, atores centrais e a interação entre os mesmos para a construção de sua arquitetura contemporânea.

318 Para cf. o desenvolvimento da Internet a nível nacional a partir de gráfico interativo, acessar o seguinte link: . Acesso em 12 jun. 2015. 319 Diversos países estão realizando ou realizaram a regulamentação da Internet, inclusive o Brasil através do Marco Civil da Internet, Lei nº 12.965, de 23 de abril de 2014. 320 Working Group on Internet Governance (Grupo de Trabalho sobre Governança da Internet). 321 O IGF foi formado na primeira fase da Cúpula Mundial da Sociedade da Informação, patrocinada pela ONU (Organização das Nações Unidas).

316

Nesta pesquisa, dois países são tomados como referência: Brasil e Estados Unidos. Ela visa compreender quais são as linhas que conectam esses países na governança da Internet. Para isso, será realizado o estudo sobre a construção arquitetônica da Internet aspirando apreender seu modo de funcionamento, abordando o que ela proporciona e os limites de sua utilização, bem como de sua governança. A infraestrutura da Internet é escolhida como cerne investigativo pelo fato de, entre outros motivos, alterar pouco se comparado à camada de aplicação. A partir disso, a investigação avança para as camadas seguintes até alcançar a aplicação, uma espécie de movimento investigativo ascendente. Émile Durkheim não fez diferente no estudo das sociedades ao buscar compreender leis, regras estabelecidas, preceitos morais que se consubstanciam de maneira sólida, se comparado às regras de convívio social em vigor para um número reduzido de pessoas que pertencem a uma sociedade que transcende esse convívio – como as normas corriqueiras que podem surgir e sucumbir rapidamente numa brincadeira de crianças residentes em uma rua específica de uma metrópole. E o que realizava Karl Marx ao concentrar sua pesquisa na infraestrutura das sociedades ocidentais tendo em vista o elemento econômico ao invés de se preocupar primeiramente com a superestrutura, ciente da influência mútua entre essas duas instâncias, embora sejam influências desproporcionais? Ora, nos três casos a importância da superfície não é negada. Pelo contrário, estuda-se uma infraestrutura capaz de contribuir com a compreensão do que se encontra na exterioridade de um dado ecossistema, uma amarração que sofre influências mútuas dessas polaridades, possibilitando a dinâmica do ecossistema. E no caso da Internet, sua infraestrutura condiciona as demais camadas e seus modos de desenvolvimento. É preciso eleger pensadores capazes de oferecer ferramentais analíticos para o exercício dessa investigação acerca da governança da Internet – entendendo ferramentais analíticos como noções, conceitos, percepções do social fragmentadas ou não que contribuem com a análise de um objeto de estudo. Para isso, é importante ter em conta a referida natureza dinâmica existente nessa rede mundial de computadores. Portanto, parece relevante trabalhar o referido objeto de análise antes com ferramentais abertos, adaptáveis, atualizáveis, flexíveis, do que com sistemas, circuitos fechados322. A escolha desses autores ocorre ciente do limite de conhecimento do pesquisador em relação à diversidade de autores capazes de contribuir com a pesquisa e da potência dos ferramentais analíticos que os autores selecionados

322 Isso não quer dizer que é impossível trabalhar a Internet com sistemas fechados. Todavia, esse exercício nos parece árido para o momento, ao considerar o escopo da pesquisa de doutoramento vinculado ao tempo para sua realização.

317

oferecem para o estudo do objeto eleito. Os pensadores primários escolhidos são Foucault e Deleuze. Como eles não dissertaram diretamente sobre Internet, é necessário estar atento ao modo de utilização de seus ferramentais, dado que, em certas circunstâncias, a tentativa de sua utilização pode deturpar o objeto de análise. Ciente disso e do vínculo da seleção desses pensadores com meus limites teóricos, desenvolvo abaixo o que possibilita a objetivação de potentes ferramentais analíticos por parte desses autores. Não obstante, destaco que eles foram utilizados em estudo anterior, o qual também se vinculava à Internet (Silveiras, [2014]). Ademais, essa investigação se deu levando em consideração a utilização de Foucault e Deleuze por outros autores no estudo da Internet323, onde auxiliaram de maneira significativa no seu desenvolvimento. O primeiro ponto no argumento de que esses autores possibilitam potentes ferramentais analíticos para o estudo da Internet se assenta no fato de que ambos não desenvolveram uma teoria geral; e o segundo, decorrência do primeiro, na possibilidade de trabalhar seus pensamentos a partir de uma leitura em intensidade, e isso se relaciona com a concepção apresentada acima de ferramentais analíticos bem como ao caso de não possuírem uma teoria geral.

II – Teoria geral e método em Foucault e Deleuze Foucault não tem uma teoria geral porque para ele as teorias são provisórias, vinculadas a uma dada concretude, de modo que podem ser revistas – e essa revisão marca seu percurso intelectual. Por isso, vincula-se antes ao pensamento empirista do que ao racionalista324; e à multiplicidade do que à unidade325. Conforme Roberto Machado, na Introdução à versão brasileira de Microfísica do Poder: “[é] que, para ele, toda teoria é provisória, acidental, dependente de um estado de desenvolvimento da pesquisa que aceita seus limites, seu inacabado, sua parcialidade, formulando conceitos que clarificam os dados – organizando-os, explicitando suas interrelações, desenvolvendo implicações – mas que, em

323 Foucault e Deleuze aparecem como referência no estudo acerca da Internet em outros pensadores, como Boyle ([1997]), Krueger ([2005]) e Lyon ([1998]). Entretanto, os dois geralmente são articulados a partir de seus elementos conceituais ou mesmo para auxiliar na constituição de um ambiente societal do qual a Internet faria parte – a partir da noção de sociedade disciplinar em Foucault ou sociedade de controle em Deleuze. A utilização que faço desses autores e que pretendo aprimorar diz respeito a levar em consideração alguns de seus ferramentais analíticos para, a partir disso, construir uma estrutura teórico-metodológica para o estudo da Internet, estrutura essa que será ajustada e rearranjada no desenvolvimento da pesquisa. 324 Sobre a relação entre racionalismo e empirismo no autor, cf., Chomsky e Foucault ([1971]) e o texto introdutório de Fons Elders ([2011]) à transcrição desse debate. E em Poder e saber (Foucault, [1977a]), o próprio autor se considera um empirista cego por não ter uma teoria geral e um instrumento. 325 “Só a ilusão de objeto natural cria a vaga impressão de uma unidade; quando a visão se torna embaciada, tudo parece assemelhar-se; fauna, população e sujeitos de direito parecem a mesma coisa, isto é, os governados; as múltiplas práticas perdem-se de vista; são a parte imersa do iceberg” (Veyne, [1971]: 164).

318

seguida, são revistos, reformulados, substituídos a partir de novo material trabalhado” (Machado, [1979]: XI). Por isso, não se pode falar em teoria geral em Foucault, mesmo porque ele não tinha essa pretensão. Diante disso, é necessário ter o cuidado de não tratar seus pensamentos de maneira genérica e, por conseguinte, utilizá-los como teorias gerais. Da mesma forma, para o autor o sujeito não é uma substância, mas uma forma que nem sempre é idêntica a si, alterando-se no devir histórico. Em consonância com o que foi colocado, não é possível também pensar em método genérico nas análises de Foucault. Ele se valia de instrumentos encontrados ou forjados durante a objetivação da pesquisa; e esses instrumentos eram corrigidos através dos próprios objetos de análise que eram revistos a partir desses instrumentos: “Procuro corrigir meus instrumentos através dos objetos que penso descobrir e, neste momento, o instrumento corrigido faz aparecer que o objeto definido por mim não era exatamente aquele” (Foucault, [1977a]: 229). Ainda em busca de uma teoria geral em Foucault, se conclui que ele não possui uma teoria do poder. No que diz respeito aos estudos sobre o poder, pontua o seguinte: “Não tenho uma concepção global e geral do poder. Sem dúvida, depois de mim virá alguém que o fará. Eu, eu não faço isso” (Foucault, [1977a]: 227)326. E um dos motivos de não se ter uma teoria do poder nesse pensador deve-se a ele não acreditar em uma natureza do poder327. O poder são relações de poder328, as quais estão em todas as sociedades – “[u]ma sociedade sem ‘relações de poder’ só pode ser uma abstração” (Foucault, [1982]: 247) –, existem em formas distintas, se modificam constantemente e estão sempre presentes onde houver liberdade329.

326 É necessário destacar que em alguns momentos Foucault pode fazer aquilo que diz não fazer, sendo contraditório. Diante disso, ele afirmar algo não significa que não o tenha feito. O exemplo disso está em A arqueologia do saber [1969], onde Foucault defende que não utilizou nenhuma vez a expressão “estrutura” na obra As palavras e as coisas [1966]. Todavia, Edgardo Castro ([2004]) aponta que a referida expressão foi utilizada 79 vezes, incluindo o índice. Portanto, não tomo como fato aquilo que Foucault diz. Estou me valendo de seus escritos e falas sobre seus movimentos contrastando com aquilo que apreendi do autor a partir da leitura de seus escritos. 327 “Se o objetivo for construir uma teoria do poder, haverá sempre a necessidade de considerá-lo como algo que surgiu em um determinado ponto, em certo momento, de que se deverá fazer a gênese e depois a dedução. Mas se o poder na realidade é um feixe aberto, mais ou menos coordenado (e sem dúvida mal coordenado) de relações, então o único problema é munir-se de princípios de análise que permitam uma analítica das relações do poder” (Foucault, [1977d]: 248). 328 “Quase não emprego a palavra poder, e se algumas vezes o faço é sempre para resumir a expressão que sempre utilizo: as relações de poder” (Foucault, [1977a]: 276). 329 “Certamente é preciso enfatizar também que só é possível haver relações de poder quando os sujeitos forem livres. Se um dos dois estiver completamente à disposição do outro e se tornar sua coisa, um objeto sobre o qual ele possa exercer uma violência infinita e ilimitada, não haverá relações de poder (...). Mesmo quando a relação de poder é completamente desequilibrada, quando verdadeiramente se pode dizer que um tem todo poder sobre o outro, um poder só pode se exercer sobre o outro à medida que ainda reste a esse último a possibilidade de se matar, de pular pela janela ou de matar o outro. Isso significa que, nas relações de poder, há necessariamente possibilidade de resistência, pois se não houvesse possibilidade de resistência – de resistência violenta, de fuga,

319

Em um escrito de 1982, intitulado Sujeito e poder, Foucault faz uma descrição significativamente detalhada da justificativa e de como trabalhar o poder. Além da relevante contribuição para compreender o estudo do poder no autor, é curioso o fato de iniciar o texto com a seguinte frase: “[a]s ideias que eu gostaria de discutir aqui não representam nem uma teoria nem uma metodologia” (Foucault, [1982]: 231). Para além disso, embora tenha se debruçado sobre essa perspectiva diante do social, sua preocupação central era com os processos de subjetivação, os processos por meio dos quais os seres humanos se tornam sujeitos (Foucault, [1982])330, práticas de constituição do sujeito. Deleuze, em certa medida, não se distingue de Foucault ao afirmar que os conceitos se vinculam às circunstâncias e não à essência: “[p]ara nós [referindo-se a ele e Guattari], o conceito deve dizer ao acontecimento, e não mais a essência” (Deleuze, [1980]: 37). E com isso, Deleuze defende a noção de conceito – algo eminentemente filosófico. Não obstante, dá à noção de sistema uma dimensão aberta, posto que os conceitos não se constituem a partir de essências331. À vista disso, as contribuições filosóficas de Deleuze podem ou não servir para refletir sobre outras realidades. Por conseguinte, Foucault e Deleuze concebem um fazer filosófico que se em alguma medida cria um sistema, ele se apresenta de maneira aberta, de forma que não necessariamente esse fazer é aplicável a outros centros de análise. Pelo contrário, Foucault ([1977a]) afirma que fazia progressões por justaposição. Isto pode ser entendido também como deslocamento-inclusão ao tratar de arqueologia interessado na espiteme, genealogia preocupado com os dispositivos, e ética tendo em vista a prática, na medida em que uma frente investigativa não elimina a outra:

O deslocamento-inclusão das noções de episteme na noção de dispositivo responde à necessidade de incluir o âmbito do não discursivo na análise do saber. A formação das ciências humanas, por exemplo, já não será somente consequência de uma disposição epistêmica, mas encontrará nas práticas disciplinares sua condição histórica de possibilidade. Do mesmo modo, a importância das noções de governo e governamentalidade será uma consequência das insuficiências dos instrumentos teóricos para analisar o poder (Castro, [2004]: 190).

de subterfúgios, de estratégias que invertam a situação –, não haveria de forma algumas relações de poder (...). Mas há efetivamente estados de dominação” (Foucault, [1975a]: 276-7). 330 “Eu gostaria de dizer, antes demais nada, qual foi o objetivo do meu trabalho nos últimos vinte anos. Não foi analisar os fenômenos do poder nem elaborar os fundamentos de tal análise. Meu objetivo, ao contrário, foi criar uma história dos diferentes modos pelos quais, em nossa cultura, os seres humanos tornaram-se sujeitos” (Foucault, [1982]: 231). 331 “Um sistema é aberto quando os conceitos são relacionados a circunstâncias, e não mais a essências” (Deleuze, [1980]: 45).

320

No que se refere ao método em Deleuze a partir de seus escritos com Guattari, é apresentado uma espécie de antimétodo na obra Capitalismo e esquizofrenia; pois ali é colocada a negação de um método para lidar com o rizoma. O exercício proposto na utilização do rizoma se refere a seguir uma espécie de progressão por justaposição, uma espécie de deslocamento-inclusão, como em Foucault:

“Primeiro, caminhe até tua primeira planta e lá observe atentamente como escoa a água de torrente a partir deste ponto. A chuva deve ter transportado os grãos para longe. Siga as valas que a água escavou, e assim conhecerá a direção do escoamento. Busque então a planta que, nesta direção, encontra-se o mais afastado da tua. Todas aquelas que crescem entre estas duas são para ti. Mais tarde, quando estas últimas derem por sua vez grãos, tu poderás, seguindo o curso das águas, a partir de cada uma destas plantas, aumentar teu território” (Castañeda apud Deleuze e Guattari, [1980]: 29).

Portanto, o método nesses autores se circunscreve a dadas realidades, às circunstâncias, por meio das quais se constrói instrumentos para lidar com essa realidade. Isto posto, dada a mobilidade da prática investigativa bem como os objetos de análise que podem se modificar no estudo, se se pode falar em métodos nesses pensadores, esses métodos são circunscritos e criados a posteriori; o método é posterior à análise – como defende Marx ([1873])332. Se a discussão sobre método em Foucault e Deleuze parece árida e se em última instância este não é o centro deste trabalho, é inegável que apresentam ferramentas analíticas que podem ser consideradas numa análise sociológica333. E a leitura que realizo desses autores se dá por meio de uma análise sistemática de suas contribuições intelectuais sem me preocupar com a aplicação de seus “conceitos”, sem me preocupar em ser um de seus seguidores – evidente que quando estou me valendo de seus “conceitos” explicito isso. Em poucas palavras, realizo o que Deleuze, no texto Carta a um crítico severo ([1973]), intitula de leitura em intensidade, uma das duas maneiras de se ler um livro, segundo esse intelectual: “[o]u a outra maneira: consideramos um livro como uma pequena máquina a-significante; o único problema é: ‘isso funciona, e como é que funciona?’.

332 “Sem dúvida, deve-se distinguir o modo de exposição segundo sua forma, do modo de investigação. A investigação tem de se apropriar da matéria em seus detalhes, analisar suas diferentes formas de desenvolvimento e rastrear seu nexo interno. Somente depois de consumado tal trabalho é que se pode expor adequadamente o movimento real. Se isso é realizado com sucesso, e se a vida da matéria é agora refletida idealmente, o observador pode ter a impressão de se encontrar diante de uma construção a priori. Meu método dialético, em seus fundamentos, não é apenas diferente do método hegeliano, mas exatamente seu oposto. Para Hegel, o processo de pensamento, que ele, sob o nome de Ideia, chega mesmo a transformar num sujeito autônomo, é o demiurgo do processo efetivo, o qual constitui apenas a manifestação externa do primeiro. Para mim, ao contrário, o ideal não é mais do que o material, transposto e traduzido na cabeça do homem” (Marx, [1873]: 90). 333 Isto foi desenvolvido de maneira breve no mestrado, onde apresento em especial no segundo capítulo o que contribui com a orientação na investigação de dissertação.

321

Como isso funciona para você? Se não funciona, se nada se passa, pegue outro livro. Essa outra leitura é uma leitura em intensidade: algo passa ou não passa” (Deleuze, [1973]: 16-7). Portanto, uma leitura que toca, que movimenta, que possibilita a construção de um conhecimento que transcende a relação lógica e imediata, uma leitura que se deixa afetar, uma leitura com o corpo inteiro e não apenas com os olhos e com o raciocínio lógico. É perceptível que, em consonância com o primeiro ponto concernente ao argumento de que eles possibilitam potentes ferramentais analíticos para o estudo da Internet, dado o fato de Deleuze e Foucault não se preocuparem em constituir sistemas fechados, suas contribuições intelectuais permitem ser apreendidas enquanto ferramentas que podem auxiliar na percepção de um objeto de análise sem com isso ter a necessidade de adotar toda a maquinaria analítica que desenvolveram em seus percursos intelectuais. E essas ferramentas não constituem em si uma linearidade analítica. Esta pode ser constituída pelo próprio pesquisador. Postas as justificativas e o modo de utilização desses autores a partir da exposição de algumas de suas concepções, apresento abaixo contribuições de Foucault e Deleuze que levo em consideração no estudo da Internet, a qual se dá, como dito, a partir de sua infraestrutura. A eleição da infraestrutura enquanto escopo empírico inicial do desenvolvimento analítico se deu tendo em consideração a análise ascendente aplicada por Foucault, não sendo então uma escolha aleatória. Essa abertura teórica e a relação com a empiria proposta por Foucault e Deleuze possibilitam lidar com a movimentação do objeto de análise. O foco da exposição que segue é centrado nas concepções de poder e dispositivo em Foucault e de máquina e rizoma em Deleuze.

III – Ferramentais analíticos de Foucault Foucault [1977b] defende que a verdade é uma construção social, produto oriundo de um complexo coercitivo. Por sua vez, a verdade acaba por produzir efeitos de regulamentação de poder, os quais têm como referência uma determinada circunstância ou sociedade. Diante disso, seria possível dissertar não sobre uma verdade universal, mas antes acerca de regimes de verdade que se instauram em certa sociedade: “Cada sociedade tem seu regime de verdade, sua ‘política geral de verdade’: isto é, os tipos de discurso que ela acolhe e faz funcionar como verdadeiros; os mecanismos e as instâncias que permitem distinguir os enunciados verdadeiros dos falsos, a maneira como se sanciona uns e outros; as técnicas e os procedimentos que são valorizados para a obtenção da verdade; o estatuto daqueles que têm o encargo de dizer o que funciona como verdadeiro” (Foucault, [1977b]: 12). A verdade em

322

Foucault é poder, é algo que está em disputa e que pode dar ênfase de visualização para um elemento em detrimento de outro. Por sua vez, o regime de verdade tende a orientar a sociedade por determinados caminhos, sendo que nas sociedades ocidentais, uma das caraterísticas da “economia política” da verdade é a de que sua produção e transmissão estaria sob controle dominante, mas não exclusivo de alguns aparelhos políticos ou econômicos, como a universidade, o exército, a escritura e os meios de comunicação (Foucault, [1977b]). Seu posicionamento me remete à seguinte passagem de Nietzsche em Assim falou Zaratustra ([1883-4]), pensador relevante no percurso intelectual de Foucault e Deleuze:

Quando vim até os homens, encontrei-os sentados sobre uma velha presunção: todos eles presumiam, havia muito tempo, saber o que é bom e mau para o homem. Toda conversa a respeito da virtude lhes parecia coisa velha e surrada; e quem queria dormir bem falava ainda de “bem” e “mal” antes de ir deitar-se. Perturbei esta sonolência ao ensinar que ninguém sabe ainda o que é bom e mau – a não ser aquele que cria! – Mas esse é aquele que cria a meta para os homens e dá à terra seu sentido e seu futuro: apenas ele faz com que algo seja bom ou mau (Nietzsche, [1883-4]: 187).

A verdade numa dimensão moral é uma construção, uma criação, sendo “bom” ou “mal” algo que passa a existir no momento em que alguém os cria. Conforme colocado acima, Foucault aponta alguns aparelhos políticos ou econômicos que teriam certo controle da verdade. Ele dialoga com essa economia política da verdade. O que faz a partir da noção de genealogia parece uma resposta ao regime da verdade, visto que é uma anticiência. Pois realiza uma espécie de insurreição dos saberes locais, diversos, descontínuos, desqualificados, ilegítimos às instâncias que em alguma medida possuem certo monopólio sobre a verdade. “Chamemos, se quiserem, de ‘genealogia’ o acoplamento dos conhecimentos eruditos e das memórias locais, acoplamento que permite a constituição de um saber histórico das lutas e a utilização desse saber nas táticas atuais” (Foucault, [1976a]: 13). E adiante continua: “É exatamente contra os efeitos de poder próprios de um discurso considerado científico que a genealogia deve travar o combate” (Foucault, [1976a]: 14) e a partir disso questiona o estabelecimento de um saber enquanto científico334. Portanto, o espaço de visualização dos saberes está em disputa, onde Foucault, por meio da genealogia, visa destituir os diversos saberes de sua sujeição à hierarquia de poder presente no

334 Faz isso pensando no exercício realizado por alguns pensadores de enquadrar o marxismo enquanto ciência: “Não se deve antes interrogar sobre a ambição de poder que a pretensão de ser uma ciência traz consigo? (...) Que tipo de saber vocês querem desqualificar no momento em que vocês dizem ‘é uma ciência’? Que sujeito falante, que sujeito de experiência ou de saber vocês querem ‘menorizar’ quando dizem: ‘Eu que formulo este discurso, enuncio um discurso científico e sou um cientista’? Qual a vanguarda teórico-política vocês querem entronizar para separá-la de todas as numerosas, circulantes e descontínuas formas de saber?” (Foucault, [1976a]: 15).

323

científico, tornando-os livres para essa disputa. Saber e poder estão implicados, dado que não há relação de poder sem a constituição de um campo de saber e um saber que não suponha e constitua uma relação de poder (Foucault, [1975b]). Ainda sobre a genealogia, Foucault realiza em sua trajetória filosófica uma genealogia em três eixos: “uma ontologia de nós mesmos em nossas relações com a verdade (que nos permite constituir-nos como sujeito de conhecimento); uma ontologia histórica de nós mesmos em nossas relações com um campo de poder (o modo como nos constituímos como sujeito que atua sobre outros); e uma ontologia histórica de nós mesmos em nossas relações com a moral (o modo como nos constituímos como sujeito ético, que atua sobre si mesmo)” (Castro, [2004]: 185). A partir desse processo pretende explicar – como fez em Vigiar e punir [1975b] e História da sexualidade I – A vontade de saber [1976b] –, as condições necessárias para o surgimento de certo saber considerando um campo que transcende aquele do saber analisado, algo que se dá por meio de lutas. Haveria três tipos de luta, as quais se expressam na história: contra as formas de dominação; formas de exploração que separa os indivíduos do que produzem; e contra o que liga o indivíduo e o submete aos outros, como lutas contra a sujeição, subjetivação e submissão. Esses três tipos poderiam ser encontrados na história, isoladas ou unidas, onde na maior parte do tempo uma prevaleceria (Foucault, [1982]: 236). A partir disso é possível notar que em Foucault a história não segue como uma linearidade constante. Pelo contrário, está permeada por descontinuidades, sendo uma história belicosa, com conflitos, lutas. “Tudo gira em volta desse paradoxo, que é a tese central de Foucault, e a mais original: o que é feito, o objeto, se explica pelo que foi o fazer em cada momento da história; enganamo-nos quando pensamos que o fazer, a prática, se explica a partir do que é feito” (Veyne, [1971]: 164). Assim, não é contra as continuidades da história, apenas se atenta para o fato de haver descontinuidades nela. A história apenas como continuidade vincula-se a um processo de racionalização da mesma. Por isso, pode-se afirmar que a história é relação de poder e não relação de sentido. “A história não tem ‘sentido’, o que não quer dizer que seja absurda ou incoerente. Ao contrário, é inteligível e deve poder ser analisada em seus menores detalhes, mas segundo a inteligibilidade das lutas, das estratégias, das táticas” (Foucault, [1977b]: 05). E diante da complexidade que é a realidade social, com um emaranhado de tipos diferentes e planos diversos de acontecimentos distintos, é pertinente distingui-los, diferenciar as redes e níveis a que pertencem, para assim reconstituir os fios que os conectam e que faz com que surja uns a partir dos outros (Foucault, [1977b]). Dessa maneira, não há uma linha racional que percorre a história, uma Razão na história. O que se encontra são racionalidades no devir

324

histórico e processos de racionalização da história, ou seja, tentativas de torná-la uma linha, um plano. Como se sabe, Foucault passa parte significativa de sua vida intelectual estudando as relações de poder. No texto supracitado de 1982, sugere indicações para a análise do poder que estaria vinculado à sua situação presente. Para o momento, basta apontar que elas consistem em tomar as formas de resistência contra os diversos poderes que se exercem a níveis, domínios e extensões distintos na sociedade como ponto de partida para o estudo do poder, uma análise de poder por meio do antagonismo das estratégias (Foucault, [1982]). Em relação à resistência, Foucault a encara enquanto coextensiva ao poder, de modo que não há poder sem a possibilidade de resistência (Foucault, [1977c]; [1982]); e há uma luta perpétua e multiforme ao invés de uma dominação por um aparelho uniformizante (Foucault, 1977a). No que concerne à uma análise do poder pelo antagonismo das estratégias – sendo estratégia, em poucas palavras, a “escolha das soluções ‘vencedoras’” (Foucault, [1982]: 248)335 –, defende que para entender a sanidade é necessário estudar a insanidade, compreender a legalidade pela ilegalidade e assim sucessivamente. Em outras palavras, Foucault analisa o centro pela periferia ao invés de estudar a periferia pelo centro; faz uma análise ascendente. Esta análise do poder o enquadra enquanto algo que não tem um centro de difusão, como o Estado. O poder está presente nas microfísicas sociais, no cotidiano, nas relações que podem se estabelecer, em alguns casos, sem levar em consideração o Estado, permeando os locais mais recônditos, assumindo existência própria e formas específicas (Machado, [1979]). Por conseguinte, não se deve pensar que a resistência possui uma localidade e sim que são pontos móveis – como o poder – e que se disseminam pela sociedade. Esse exercício de análise ascendente é interessante para evidenciar a presença do Estado nas relações de poder, mas também para refletir sobre as condições que possibilitaram o exercício de determinado poder. Conforme Roberto Machado ([1979]: XIV):

O Estado não é o ponto de partida necessário, o foco absoluto que estaria na origem de todo tipo de poder social e do qual também se deveria partir para explicar a constituição dos saberes nas sociedades capitalistas. Foi muitas vezes fora dele que se instituíram as relações de poder, essenciais para situar a genealogia dos saberes modernos, que, com tecnologias próprias e relativamente autônomas, foram

335 No que concerne à relação entre poder e estratégia, Foucault [1982] defende que o desejo da estratégia de confronto é o de se tornar poder, ou seja, algo mais estabelecido. Ao mesmo tempo, a relação de poder inclina a seguir sua linha de desenvolvimento e ao se defrontar com resistências, a ser a estratégia vencedora. “De fato, entre relação de poder e estratégia de luta, existe atração recíproca, encadeamento indefinido e inversão perpétua. A cada instante, a relação de poder pode tornar-se, e em certos pontos se torna, um confronto entre adversários. A cada instante também as relações de adversidade, numa sociedade, abrem espaço para o emprego de mecanismos de poder” (Foucault, [1982]: 248-9).

325

investidas, anexadas, utilizadas, transformadas por formas mais gerais de dominação concentradas no aparelho de Estado.

Entretanto, não se pode negar que há, por parte do Estado, a tentativa de estatizar as relações de poder. No que concerne à estatização das relações de poder, tive a oportunidade de perceber e descrever esse movimento do Estado brasileiro a partir da regulamentação da Internet no país, no trabalho de mestrado em sociologia, movimento por meio do qual sua ação na Internet deixa de ter como centro fomentar o desenvolvimento da rede mundial de computadores para regulamentá-la. Se a partir de uma perspectiva hobbesiana a liberdade do súdito está onde o poder do soberano não pode chegar (Hobbes, [1651]), o movimento do Estado tende a explorar esse limite, estatizando as relações de poder. Conforme Foucault:

É certo que o Estado nas sociedades contemporâneas não é simplesmente uma das formas ou um dos lugares – ainda que seja o mais importante – de exercício do poder, mas que, de certo modo, todos os outros tipos de relação de poder a ele se referem. Porém, não porque cada um dele derive. Mas, antes, porque se produziu uma estatização contínua das relações de poder (apesar de não ter tomado a mesma forma na ordem pedagógica, judiciária, econômica, familiar). Ao nos referirmos ao sentido restrito da palavra “governo”, poderíamos dizer que as relações de poder foram progressivamente governamentalizadas, ou seja, elaboradas, racionalizadas e centralizadas na forma ou sob a caução das instituições do Estado (Foucault, [1982]: 247).

Assim como o poder não se prende ao aparelho de Estado, não possui em sua concepção uma negatividade ou positividade. Isto se apresenta de acordo com uma perspectiva diante de um caso específico. E o poder possui também efeitos positivos no nível do desejo e do saber (Foucault [1975a])336. Segundo Foucault ([1976c; 1982]), o poder funciona e se exerce em rede. Dessa maneira, o poder não é algo que se possui, que se detém; existe apenas em ato; não há também um princípio de poder que domina toda a sociedade, sendo uma diferença de potencial que está presente desde as microrrelações, forças desiguais e relativamente estabilizadas – já que onde há poder há liberdade. No complexo social há, como colocado, inúmeros exercícios de poder com os quais o indivíduo pode se envolver, múltiplas possibilidades de ações sobre ações do outro – algo que é coextensivo à relação social (Foucault, [1982]) –, disparidades, onde essas formas de ação, em uma dada sociedade, podem se superpor, entrecruzar, limitar e anular em alguns casos e se reforçar em outros (Foucault, [1982]); e “o poder transita pelos indivíduos, não se aplica a eles” (Foucault,

336 Cf. Vigiar e punir (Foucault, [1975b]).

326

[1976c]: 35), sendo o indivíduo um dos primeiros efeitos do poder: “[o] indivíduo é um efeito do poder e é, ao mesmo tempo, na mesma medida em que é um efeito seu, seu intermediário: o poder transita pelo indivíduo que ele constituiu” (Foucault, [1976c]: 35). Não há um “fora” do poder, dado que se disseminam inúmeras formas de poder pelo ambiente societal, e não existe a possibilidade de fugir do poder, mas apenas de resistir a ele ou a uma multiplicidade de relações de força. O poder não pode ser confundido com relações de comunicação e capacidades objetivas. Eles representam, respectivamente: “domínio das coisas, da técnica finalizada, do trabalho e da transformação do real; (...) dos signos, da comunicação, da reciprocidade e da fabricação do sentido; (...) dominação dos meios de coação, de desigualdade de ação dos homens sobre os homens. Trata-se de três tipos de relação que, de fato, estão sempre imbricados uns nos outros, apoiando-se reciprocamente e servindo-se mutuamente de instrumento” (Foucault, 1995: 240-1). E não há um equilíbrio geral entre esses domínios. Esta distinção entre esses domínios se vincula com o ato de tratar o poder a partir do “como”: “Abordar o tema do poder através de uma análise do ‘como’ é, então, operar diversos deslocamentos críticos com relação à suposição de um ‘poder’ fundamental. É tomar por objeto de análise relações de poder e não um poder; relações de poder que são distintas das capacidades objetivas assim como das relações de comunicação; relações de poder, enfim, que podemos perceber na diversidade de seu encadeamento com estas capacidades e estas relações” (Foucault, [1982]: 242). Seu foco investigativo com o poder era estudar procedimentos e técnicas de conduzir a conduta dos outros, o modo de ação de uns sobre a ação de outros, o qual pode se valer não só da violência como também de consentimentos (Foucault, [1983]). Ou seja, o poder se vincula com o governo, entendido como “a maneira de dirigir a conduta dos indivíduos ou dos grupos” (Foucault, [1983]: 244), governo enquanto estruturação do campo de ação dos outros. E dada a perspectiva de refletir sobre um poder de caráter empírico, atribui um privilégio às seguintes questões: “Como o poder se exerce? Como acontece quando os indivíduos exercem seu poder sobre os outros?”, ao invés de “O que é o poder?” e “De onde vem o poder?”. A partir disso, Foucault está pensando um poder que questiona a existência de um poder fundamental, tomando por objeto de análise relações de poder e não o poder em si. E sua preocupação com o “como” se inicia em 1970, conforme colocado por ele em suas primeiras palavras da aula do dia 14 de janeiro no Collège de France. Portanto, o poder em Foucault agrega uma série de considerações bem como se vincula a outras concepções – como verdade, saber, capacidades objetivas, etc. Em síntese,

327

com o poder Foucault visava o estudo de procedimentos e técnicas de conduzir condutas. Não tem uma teoria do poder, na medida em que o poder em Foucault não teria origem, princípio ou centro de difusão, mas uma diferença de potencial. Diante disso, o poder não é um Poder e sim relações de poder; ele é descontínuo, flexível, circunstancial, microfísico, transcende o Estado; não é algo que se possui ou se detém. O poder funciona e se exerce em rede, podendo ser pensado em diversos níveis. Por isso, pode-se falar tanto de um poder microfísico quanto da tentativa de estatização das relações de poder. Em última instância, o poder existe apenas em ato, como algo externo, ação sobre ação do outro, governo. E o poder gera, inclusive, sujeitos, como o sujeito moderno sobre o qual Foucault dissertou em Vigiar e Punir. Coextensivo ao poder se tem a liberdade, sendo ela condição da existência do poder, das relações de poder. Poder e saber estão implicados, do mesmo modo que verdade e poder. A verdade é encarada como não universal, um regime de verdade do qual se possui certo domínio de alguns aparelhos políticos ou econômicos. Ela aparece como uma forma de regulamentação do poder; contribui com a construção social, possibilitando a visualização de certos saberes em detrimento de outros a partir de uma hierarquização dos saberes. Foucault aponta a genealogia como uma ferramenta, uma espécie de insurreição dos saberes locais, combate contra os efeitos de poder dos discursos científicos, acoplamento dos conhecimentos eruditos e das memórias locais, contribuindo para entender as lutas na história – sendo esta não linear – para a utilização desse saber nas táticas contemporâneas. Sua análise do poder se dá por meio de uma análise ascendente preocupado com o “como”. E ainda que se misturem, capacidades objetivas e relações de comunicação não devem ser confundidas com as relações de poder. Essa exposição da perspectiva de Foucault sobre o poder bem como do que o envolve – como a relação poder-verdade, poder-saber, poder-estratégia, poder-liberdade e poder-Estado –, oferece condições de entender em maior profundidade como o poder se apresenta para o autor. Todavia, ainda que se tenha em mente a preocupação de Foucault com o “como” do poder, com o empírico, com a prática, não foram apontadas suas sugestões ao modo de lidar com o poder. Isto posto, serão apresentadas abaixo algumas indicações e precauções de método. E algo que também corrobora com o modo de lidar com o poder, com o exercício de separar algumas das linhas de força que se apresentam na sociedade, campos de influência, é sua noção de dispositivo, a qual será apresentada em seguida. Foucault ([1982]) indica cinco pontos a serem levados em consideração na análise das relações de poder: 1) Sistema das diferenciações; 2) Tipos de objetivos; 3) Modalidades instrumentais; 4) Formas de institucionalização; e 5) Graus de racionalização. Estes pontos

328

são entendidos sinteticamente do seguinte modo: 1) Sistema por meio do qual se permite agir sobre a ação do outro, sendo que essas diferenciações podem ser econômicas, culturais, políticas, de habilidade, localização no processo de produção, etc., ciente de que toda relação de poder tem como condição e efeito a diferenciação; 2) Objetivos seguidos por quem exerce o poder, como acúmulo de lucros, manutenção de privilégios, exercício de uma função, etc.; 3) Instrumentos utilizados para realizar o poder, como mecanismos de controle, sistemas de vigilância, disparidade econômica, dentre outros; 4) As formas de institucionalização do poder podem se combinar com estruturas jurídicas, dispositivos tradicionais; podem ter o aspecto de um dispositivo fechado sobre si – como escola, fábrica, hospital, caserna; enfim, trata-se de procedimentos do poder para dar continuidade em sua linha de desenvolvimento e numa situação de resistência ser a estratégia vencedora, tendo em mente que o poder se elabora, transforma, se ajusta, é flexível, ainda que possua uma ineficácia constitutiva, na medida em que a resistência é coextensiva ao poder; 5) O funcionamento das relações de poder poderia ser mais ou menos construído tendo em vista o efeito útil dos instrumentos utilizados e a certeza do resultado ou em função do custo ocasional, como o “custo” econômico dos meios utilizados, o custo de reação formado pelas resistências encontradas. Assim, são delineadas algumas indicações para o estudo a partir do poder, pontos a se observar numa análise do poder. Por outro lado, entendo que no decorrer de uma investigação podem se apresentar outros pontos a serem observados, de forma que a análise do poder não deve se restringir aos cinco itens apresentados, os quais devem levar em consideração algumas precauções de método. Em sua mencionada aula do dia 14 de janeiro de 1976, no Collège de France, Foucault indica algumas precauções de método no estudo do poder, sendo que algumas delas contribuem com a constituição da visão de poder do autor e, por isso, já foram apresentadas, como não analisar as formas regulamentares e legítimas do poder de seu centro, mas por meio de sua capilaridade, reentrâncias; captar o poder em sua extremidade, onde ultrapassa as regras do direito que o organiza e delimita, podendo se corporificar em técnicas, munindo de instrumentos de intervenção material e mesmo ser violento; o poder está para além das regulamentações. Não se deve analisar o poder no plano da intenção ou decisão, de seu lado interno, mas externo, num plano em que a intenção – se é que existe – se objetiva em práticas reais e efetivas, onde o poder se relaciona com seu campo de aplicação produzindo efeitos reais. “Pois bem, em vez de formular esse problema da alma central, eu acho que conviria tentar – o que eu tentei fazer – estudar os corpos periféricos e múltiplos, esses corpos constituídos, pelos efeitos do poder, como súditos” (Foucault, [1976a]: 34). O poder não deve

329

ser encarado como algo homogêneo e maciço, como uma coisa que se aplica de um em relação a outro, ou que se partilha entre os que têm e os que não têm; pelo contrário, deve ser visto como algo que circula, funcionando apenas em cadeia, não estando aqui ou ali, não sendo uma riqueza ou bem, o poder que transita pelo indivíduo que ele mesmo constituiu. Deve-se fazer uma análise ascendente do poder, a partir de seus mecanismos infinitesimais, os quais possuem suas próprias histórias, técnicas, táticas, etc., e ver como tais mecanismos são investidos, colonizados, utilizados, transformados, deslocados por mecanismos mais gerais e por modos de dominação globais. A partir disso, temos as condições para o desenvolvimento de dada coisa, as condições para determinado elemento histórico se fazer surgir. E, como colocado anteriormente, o poder se relaciona com o saber; nos mecanismos finos do poder há a formação, organização e circulação de um saber, “aparelhos de saber que não são acompanhamentos ou edifícios ideológicos”. Foucault passa a utilizar o termo “dispositivo” em suas aulas de 1973 no Collège de France (Foucault, [1973]). E em 1975 publica Vigiar e punir, livro no qual utiliza essa expressão. Apenas em 1977, numa entrevista intitulada Sobre a História da Sexualidade ([1977d]), faz o delineamento do que entende por isso. Nessa entrevista previne que o dispositivo era algo que ainda não havia resolvido. Como colocado, o dispositivo é o objeto de descrição genealógica, ao passo que a episteme é da arqueológica. O dispositivo assume proporções maiores do que a da episteme, de modo que ela pode ser considerada um dispositivo apenas discursivo, posto que o dispositivo se refere ao dito bem como ao não dito. Em poucas palavras, o dispositivo possui uma natureza essencialmente estratégica e sempre está inscrito num jogo de poder, sendo estratégias de relações de força que sustenta e é sustenta por tipos de saber. Foucault tenta demarcar o dispositivo 1) como uma rede que pode se estabelecer entre elementos heterogêneos, os quais podem ser ou não discursivos – como leis, medidas administrativas, instituições, discursos, proposições morais, organizações arquitetônicas, etc.; 2) há no dispositivo uma natureza de relação entre esse conjunto de elementos heterogêneos, uma dinâmica, um tipo de jogo que se estabelece entre eles, como uma mudança de posição, modificação de função, etc.; 3) tipo de formação que teve a função de responder a uma urgência em certo momento histórico, possuindo assim uma função estratégica dominante a qual pode, por sua vez, se modificar no devir. E no que concerne à gênese do dispositivo, há dois momentos essenciais: 4) a predominância de um objetivo estratégico num primeiro momento e um segundo momento no qual o dispositivo se constitui propriamente. 5) Ele permanece enquanto tal ao englobar uma sobredeterminação funcional, rearticulação, ajustamento dos elementos heterogêneos que surgem dispersamente em

330

decorrência dos efeitos do dispositivo. Além disso, há o preenchimento estratégico, onde o dispositivo também se modifica, como aconteceu com o caso da prisão337, o que corrobora com a concepção de que um dispositivo pode servir para coisas com sentidos distintos num devir histórico. É certo que para compreender um dispositivo deve-se penetrar em sua composição ou, nas palavras de Deleuze, construir um mapa: “Desenredar as linhas de um dispositivo, em cada caso, é construir um mapa, cartografar, percorrer terras desconhecidas, é o que ele chama ‘trabalho no terreno’. É preciso instalarmo-nos sobre as próprias linhas; estas não se detêm apenas na composição de um dispositivo, mas atravessam-no, conduzem-no, do norte ao sul, de leste a oeste, em diagonal” (Deleuze, 2005: 89). E no estudo dos dispositivos é necessário ter em mente a separação entre o que é o passado recente e o futuro próximo; o que é história e o que é atual, o que somos e deixamos de ser e o esboço daquilo que estamos nos tornando (Deleuze, 2005). Segundo Deleuze, a obra completa de Foucault deve levar em consideração suas entrevistas, na medida em que nos livros ele tratava dos estratos e nas entrevistas das atualidades (Deleuze, [1986]).

Devemos separar em todo o dispositivo as linhas do passado recente a as linhas do futuro próximo; a parte do arquivo e a do atual, a parte da história e a do devir, a parte da analítica e a do diagnóstico. Se Foucault é um grande filósofo é porque se serviu da história em proveito de outra coisa: como Nietzsche dizia, “agir contra o tempo, e assim, sobre o tempo, em favor, espero-o, de um tempo futuro” (Deleuze, [1986]: 93-4).

Portanto, no estudo do poder é fundamental identificar seus sistemas das diferenciações, os tipos de objetivos, as modalidades instrumentais empregadas, formas de institucionalização e os graus de racionalização. Isso se faz considerando a concepção de poder apresentada pelo autor bem como algumas precauções de método, como não analisar o poder pelo centro, mas por suas reentrâncias pelo fato de o poder estar para além das regulamentações; investigar o poder em ato e não por seu lado interior, analisando seus efeitos e não suas causas; ter em consideração que o poder circula, se exerce em rede; realizar uma análise ascendente, observando como os mecanismos de poder se relacionam com os mecanismos de poder mais gerais e com os modos de dominação globais; considerar quais foram as condições para fazer acontecer dado elemento histórico; estar ciente de que poder e

337 “O sistema carcerário produziu um efeito que nem estava previsto de antemão, nem tem nada a ver com a astúcia estratégica de um sujeito meta ou trans-histórico que o houvesse querido ou planejado. Esse efeito foi a constituição de um meio delinquente diferente dos ilegalismos do século XVIII. A prisão serviu como filtro, concentração e profissionalização do meio delinquente. Mas, a partir de 1830, assistimos a uma reutilização desse efeito involuntário e negativo; o meio delinquente é utilizado para diversos fins políticos e econômicos (por exemplo, a organização da prostituição)” (Castro, [2004]: 124).

331

saber estão implicados, não sendo aparelhos de saber acompanhamentos ou edifícios ideológicos. O dispositivo é um complexo com características próprias, sendo essencialmente estratégico, sempre inscrito num jogo de poder; estratégia de relações de força que sustenta e é sustentada por tipos de saber. Trata-se de um conjunto de elementos heterogêneos – podendo ser ditos ou não ditos – que serviu para responder a uma dada urgência num determinado momento histórico. Deve-se estar atendo à natureza de relação desse conjunto de elementos heterogêneos. Dado o fato de ser essencialmente estratégico, se modifica no devir histórico, devendo ser maleável, flexível, para se manter. Sua permanência se dá ao englobar uma sobredeterminação funcional. E também há o preenchimento estratégico. Além de suas características, possui uma gênese, onde tem importância a predominância de um objetivo estratégico num momento e a constituição do dispositivo propriamente dito. E no estudo sobre os dispositivos é importante estar atendo ao que é passado recente e futuro próximo. Ora, ciente das noções de Foucault em relação ao poder e com o que ele se relaciona, das indicações sobre o que deve ser identificado no poder, quais precauções de método se deve tomar e ciente da manifestação de dispositivos no devir histórico, esses ferramentais analíticos podem contribuir com a análise do poder em meu objeto de estudo, levando os pontos acima abordados enquanto algo aberto e a partir de uma leitura em intensidade. A partir disso, se tem ferramentais teóricos que podem ser testados, descartados ou reestruturados. De todo modo, eles servem como referência para o desenvolvimento da pesquisa. E após esse percurso por Foucault em busca desses ferramentais, percorro Deleuze.

IV – Ferramentais analíticos de Deleuze Como já colocado, em Deleuze os conceitos se vinculam às circunstâncias. E se há um sistema em seu pensamento, este pode ser considerado um sistema aberto. É a partir disso e tendo em vista sua espécie de antimétodo apresentado acima bem como ciente da possibilidade de se realizar uma leitura em intensidade sobre os escritos do autor que serão explorados os ferramentais analíticos de Deleuze com vistas ao estudo da Internet. Dada a centralidade dos conceitos em seu pensamento, abaixo serão explorados alguns deles. Assim como realizado com as noções de Foucault apresentadas acima, neste trabalho os conceitos de Deleuze não serão aprofundados e, ademais, não será feito a concatenação dos conceitos dele expostos neste texto, uma vez que este não é o escopo deste estudo. Isto parece legítimo não apenas ao considerar a leitura em intensidade como também o caráter aberto que percorre o desenvolvimento intelectual de Deleuze. Pelo contrário, é laborioso e prejudicial apresentar o

332

conceito de habitus e poder simbólico de Bourdieu sem dissertar acerca dos conceitos que se vinculam aos mesmos, visto que eles se constituem de maneira interligada. Antes de tratar dos conceitos é importante destacar a presença do devir no pensamento de Deleuze. Para esse pensador, as coisas assim como as pessoas estão num devir, estão se modificando, transformando, entrecruzando (Deleuze; Parnet, [1996]). A vista disso, fazer o estudo de algo se assemelha a realizar uma captura do concreto que está fadado a se modificar, uma captura, fotografia, que pode influir no objeto de análise; e é algo que se relaciona com um passado, ainda que presente e que em alguma medida dialogue com o futuro. Conforme Deleuze, na obra Foucault (Deleuze, [1986]: 127), “[o] pensamento pensa sua própria história (passado), mas para se libertar do que ele pensa (presente) e poder, enfim, ‘pensar de outra forma’ (futuro)”. Compreende-se, pois, que o movimento e estudo das coisas colabora no exercício de nosso próprio movimento, na medida em que esse estudo pode nos modificar e também pode contribuir com a modificação da realidade social num sentido amplo. Deleuze oferece conceitos que contribuem com esse tipo de estudo. Serão apresentados nas próximas linhas três desses conceitos: máquina e vinculado a ela máquina desejante, e rizoma. As máquinas338 possuem como definição um sistema de cortes, os quais operam em dimensões variáveis segundo a característica considerada (Deleuze, Guattari[1972]). E a máquina está em relação material com o fluxo material contínuo que Deleuze e Guattari intitulam de hylê339. À frente, entende-se como hylê a “continuidade pura que uma matéria possui em ideia” (Deleuze; Guattari, [1972]: 55), sendo que os cortes operam extrações sobre um fluxo associativo, e esse fluxo associativo deve ser visto como algo ideal. Além disso, o corte não se opõe à continuidade, pelo contrário, a condiciona, de modo que corte e conexão se confundem num só. Os cortes são sínteses e as sínteses que produzem as divisões (Deleuze; Guattari, [1972]). A condição para a realização de corte-fluxo se dá tendo como pressuposto que uma máquina que corta está conectada a outra que produz fluxo, sendo a máquina de fluxo também o corte de uma que a antecede: “Em suma, toda máquina é corte de fluxo em relação àquela com que está conectada, mas ela própria é fluxo ou produção de fluxos em relação àquela que lhe é conectada” (Deleuze; Guattari, [1972]: 55). Sendo assim, é possível

338 Em o Anti-Édipo, o próprio Deleuze confunde máquina com máquina desejante. O exemplo claro disso é no cap. I quando está delimitando o que seria máquina e ao começar o terceiro tópico sobre os cortes da máquina diz “o terceiro corte da máquina desejante...” (60). 339 No Dicionário grego-português e português-grego (Pereira, 1990: 587), Ύλη quer dizer madeira, matéria, lastre.

333

extrair da máquina essa relação de corte e fluxo, onde o fluxo se apresenta como uma suposição. A máquina não se restringe a uma concepção popular de máquina, como uma betoneira que é usualmente utilizada para misturar areia, água, brita e cimento em proporções previamente estabelecidas com o intuito de formar um bolo de concreto. Pelo contrário, Deleuze e Guattari colocam como exemplo a máquina boca e o fluxo de leite. E um mesmo órgão pode se relacionar a vários fluxos tendo em vista conexões diferentes, pode ter vários regimes e ainda adotar o regime de outros órgãos. Por exemplo, a boca que corta o fluxo do leite pode beber, comer, mastigar, chupar, regurgitar ou simplesmente adotar um regime de anorexia. Portanto, Deleuze e Guattari excedem os limites de uma dimensão convencional de máquina, tornando a máquina um modo de apreender a própria realidade, sendo que há inúmeras possibilidades de utilização e acoplamento entre as máquinas. “Há em toda parte máquinas produtoras ou desejantes, as máquinas esquizofrênicas, toda a vida genérica” (Deleuze; Guattari, [1972]: 12). E observa-se o mundo a partir de uma posição que se ocupa nessa complexidade maquínica de corte e fluxo através do fluxo que passa pela máquina: “[s]em dúvida, cada máquina-órgão interpreta o mundo inteiro segundo seu próprio fluxo, segundo a energia que flui dela: o olho interpreta tudo em termos de ver – o falar, o ouvir, o cagar, o foder...” (Deleuze; Guattari, [1972]: 16). Com isso é perceptível a presença do relacional na dimensão de máquina nesses autores. O fluxo, continuidade, também está presente nessa relação maquínica e o mundo é observado a partir da posição que se ocupa, a partir de seu próprio fluxo. Essa visualização do real pode se dar a partir de diversas perspectivas, sendo a máquina apenas uma delas. Assim, pode-se falar sobre o mundo a partir da perspectiva da máquina, de códigos – como John Forbes Nash –, som – como faz Hermeto Pascoal ao defender que todo som é música e que tudo é som –, etc.340. E as máquinas se relacionam a sociedades específicas, não porque as máquinas sejam determinantes e sim porque as máquinas exprimem as formas sociais capazes de lhes

340 À guisa de exemplo, menciono uma passagem curiosa de Deleuze ([1973]: 13) no texto Carta a um crítico severo, onde mostra a pluralidade interpretativa em relação ao fato de ele não cortar as unhas das mãos: “Sempre dá para dizer que minha mãe as cortava, e que tem a ver com Édipo e a castração (interpretação grotesca, mas psicanalítica). Também dá para notar, observando a extremidade dos meus dedos, que me faltam as impressões digitais normalmente protetoras, de tal modo que tocar um objeto com a ponta dos dedos, e sobretudo um tecido, me dá uma dor nervosa que exige a proteção de unhas longas (interpretação teratológica e selecionista). Dá para dizer ainda, e é verdade, que o meu sonho é ser não invisível, mas imperceptível, e que compenso esses sonhos com unhas que posso enfiar no bolso, pois nada me parece mais chocante do que alguém olhando para elas (interpretação psicossociológica). Enfim, dá para dizer: ‘não precisa comer as unhas só porque são suas; se você gosta de unha, coma a dos outros, se quiser ou puder’ (interpretação política, Darien) (...) De qualquer modo, é curioso que de todos os meus amigos nenhum jamais tenha notado minhas unhas, achando-as inteiramente naturais, plantadas aí ao acaso, como que pelo vento, que traz as sementes e não faz ninguém falar”.

334

darem nascimento e utilizá-las. As sociedades de soberania utilizavam máquinas simples, como alavancas, roldanas, relógios, etc.; as disciplinares se valiam de máquinas enérgicas, tendo como perigo passivo a entropia e ativo a sabotagem; já nas sociedades de controle as máquinas de informática e de computadores. E para Deleuze isso representaria também a mutação do capitalismo. Todavia, as máquinas em si não explicam nada. O importante é analisar os agenciamentos coletivos dos quais as máquinas são uma parte (Deleuze, [1990a]). É possível acrescentar que em certos grupos sociais uma máquina pode ter uma configuração distinta ainda que possa servir para uma mesma finalidade, conforme observa Mauss ([1935]), em As técnicas do corpo, ao apontar a diferença das pás francesa e inglesa e as técnicas para utilizá-las. Deleuze e Guattari amplificam a noção de máquina ao trabalharem com máquinas sociais. Estas poderiam ser o mercado capitalista, Estado, Igreja, Exército, família, etc. (Zourabichvili, [2004]). Ademais, eles se contrapõem à oposição entre homem e máquina, defendendo que a preocupação não deve ser a de avaliar as correspondências, prolongamentos, substituições possíveis ou impossíveis entre ambos, mas levar homem e máquina a se comunicar para mostrar como o homem compõe peça com a máquina ou com outra coisa para constituir uma máquina, como homem-cavalo-arco, formando uma máquina guerreira nômade nas condições da estepe (Deleuze; Guattari, [1972]). Desse modo, o humano pode vir a compor uma máquina que o transcende, uma estrutura superior a ele e que o vincula com aquilo que não necessariamente se uniria. Em relação ao humano, o artista representa uma entidade relevante, sendo considerado o senhor dos objetos pelo fato de integrar em sua arte objetos partidos, queimados, estragados, para submetê-los ao regime de máquinas desejantes, onde o desarranjo faz parte de seu funcionamento. Segundo eles, a própria obra de arte é vista como uma máquina desejante (Deleuze; Guattari, [1972]: 59-60), a qual será apresentada a seguir. Deleuze e Guattari dissertam sobre diversas máquinas, como a máquina celibatária, máquinas técnicas sociais, máquinas desejantes, máquina de guerra, máquinas miraculantes, máquinas paranoicas, etc. Aqui, o foco é a máquina desejante, a qual é definida pelo seu poder de conexão ao infinito em todos os sentidos e direções, e isto faz com que possa atravessar e dominar várias estruturas simultaneamente. Duas potências a compõe: corte e fluxo, ou corte-fluxo341. E “[t]udo funciona ao mesmo tempo nas máquinas desejantes, mas

341 Como se pode observar, a seguinte passagem está em conformidade com o que foi colocado acima sobre a máquina: “É que a máquina tem duas características ou potências: a potência do contínuo, o phylum maquínico, em que tal peça se conecta com uma outra, o cilindro e o pistão na máquina a vapor, ou mesmo, segundo uma

335

nos hiatos e rupturas, nas avarias e falhas, nas intermitências e curtos-circuitos, nas distâncias e fragmentações, numa soma que nunca reúne suas partes num todo” (Deleuze; Guattari, [1972]: 61-2), de maneira que as máquinas desejantes funcionam fazendo não funcionar necessariamente num sentido normativo. Portanto, é criticada a perspectiva de normatividade em relação a uma coisa, um dever ser de determinada coisa, de tal maneira que não se deve encarar certo objeto a partir de uma perspectiva normativa. Pelo contrário, um objeto pode possuir regimes distintos, como uma faca servir para cortar, perfurar, arremessar, equilibrar, brincar, machucar... Essa série binária corte-fluxo seria linear em todas as direções (Deleuze; Guattari, [1972]: 16). E os cortes maquínicos geram sínteses que, por sua vez, constroem as divisões. Nota-se a complexidade que é observar o mundo a partir de uma perspectiva maquínica. Entretanto, esse tipo de perspectiva evidencia a complexidade que é apreender a realidade, dado que ela está em movimentos de cortes e fluxos, relações onde coisas que são distintas e normativamente distintas podem se acoplar e a partir disso produzir, gerar, criar. Ora, ao não se ter em mente uma linearidade histórica senão como uma concepção do social, essa dimensão de apreensão da realidade parece não apenas uma crítica a uma perspectiva racional do mundo como também chama a atenção para o fato de que o movimento está nas coisas, o corte-fluxo nas coisas. Assim, escrever sobre um acontecimento já pressupõe a anulação, ou melhor, a incapacidade de apreender tudo que o envolve. Assim como as relações de poder estão igualmente nas microfísicas, o corte-fluxo opera para além de uma perspectiva normativa, o que estimula a lidar com o mundo a partir de uma perspectiva aberta ao impossível, imprevisível, indeterminado. E a noção de rizoma não se distancia da perspectiva maquínica. O rizoma é encarado como um modelo de realização da multiplicidade. Ao invés de pensar o mundo a partir de uma origem, se pensa ele pelo meio. Por conseguinte, “gênese” readquire no pensamento de Deleuze e Guattari seu valor etimológico de “devir”, sem relação com uma origem. O rizoma se opõe à busca de raízes ou ancestrais, a situar a chave da existência na infância mais remota, ao culto da origem, do nascimento, de modo que genealogistas tradicionais, psicanalistas e femonenólogos não seriam amigos do rizoma (Zourabichvili, [2004]). Se há uma palavra fundamental que se relaciona com o rizoma é linhagem germinal mais longínqua, a roda na locomotiva; mas também a potência de ruptura de direção, a mutação tal que cada máquina é corte absoluto em relação à que ela substitui, como o motor a gás em relação à máquina a vapor” (Deleuze; Guattari, [1972]: 514). Em relação ao termo phylum, deve-se destacar a seguinte nota do tradutor na página 510: “[e]mbora o termo phylum leve a pensar em procedimentos empregados em classificações biológicas relacionadas à evolução, é preciso mantê-lo como indicador de conexões maquínica irredutíveis a uma perspectiva evolucionista”.

336

multiplicidade, na qual se coloca o múltiplo, adjetivo, na figura de substantivo342. Da relação opositiva entre uno e múltiplo, Deleuze e Guattari defendem que o uno é a subtração do múltiplo, o uno faz parte do múltiplo estando subtraído dele, o n-1. O rizoma se distingue de árvores ou raízes que fixam um ponto, uma ordem, ele conecta um ponto qualquer com outro qualquer. E seus traços não remetem necessariamente a uma mesma natureza, colocando em jogo regimes de signos distintos ou estados de não signos. Não é uno e nem múltiplo; não é o múltiplo que deriva do uno e nem ao qual o uno se acrescentaria (n+1), mas multiplicidade – ou seja, quando o múltiplo é tratado como substantivo343. O rizoma é feito de dimensões e não unidades, sendo que essa multiplicidade não varia suas dimensões sem se metamorfosear, de forma que um agenciamento é este crescimento das dimensões do rizoma numa multiplicidade que muda de natureza em conformidade com o aumento de suas conexões. Diante disso, o fora é elemento indispensável para o rizoma. O rizoma não possui começo e nem fim e sim um meio por meio do qual cresce e transborda. Ele pode ser quebrado em qualquer lugar tendo rupturas assignificantes – diferente de cortes demasiado significantes que separam as estruturas –, retomando em uma ou outra de suas linhas e segundo outras linhas, algo que se constitui ao mesmo tempo em que escorre344. Num rizoma não há pontos e posições como há em estruturas, árvores, raízes, mas apenas linhas: “Os fios da marionete, considerados como rizoma ou multiplicidade, não remetem à vontade suposta una de um artista ou de um operador, mas à multiplicidade das fibras nervosas que formam por sua vez uma outra marionete seguindo outras dimensões conectadas às primeiras” (Deleuze, Guattari, [1980]: 23-4). Para esses autores, as linhas são os elementos constitutivos das coisas e dos acontecimentos, e por isso cada coisa possui sua

342 “Um devém dois: cada vez que encontramos esta fórmula, mesmo que enunciada estrategicamente por Mao Tsé-Tung, mesmo compreendida o mais ‘dialeticamente’ possível, encontramo-nos diante do pensamento mais clássico e o mais refletido, o mais velho, o mais cansado. A natureza não age assim: as próprias raízes são pivotantes com ramificação mais numerosa, lateral e circular, não dicotômica. O espírito é mais lento que a natureza. Até mesmo o livro como realidade natural é pivotante, com seu eixo e as folhas ao redor” (Deleuze; Guattari, [1980]: 19-20). Ainda com os autores: “Estamos na idade dos objetos parciais, dos tijolos e dos restos. Já não acreditamos nesses falsos fragmentos que, como os pedaços de uma estátua antiga, esperam ser completados e reagrupados para comporem uma unidade que é, também, a unidade de origem. Já não acreditamos numa totalidade original nem sequer numa totalidade de destinação. Já não acreditamos na grisalha de uma insípida dialética evolutiva, que pretende pacificar os pedaços arredondando suas arestas. Só acreditamos em totalidades ao lado. E se encontramos uma totalidade ao lado das partes, ela é um todo dessas partes, mas que não as totaliza, uma unidade de todas essas partes, mas que não as unifica, e que se junta a elas como uma nova parte composta à parte” (Deleuze; Guattari, [1972]: 62). 343 “É somente quanto o múltiplo é efetivamente tratado como substantivo, multiplicidade, que ele não tem mais nenhuma relação com o uno como sujeito ou como objeto, como realidade natural ou espiritual, como imagem e mundo” (Deleuze, Guattari: [1980]: 23). 344 “Todo rizoma compreende linhas de segmentaridade segundo as quais ele é estratificado, territorializado, organizado, significado, atribuído, etc.; mas compreende também linhas de desterritorialização pelas quais ele foge sem parar. Há ruptura no rizoma cada vez que linhas segmentares explodem numa linha de fuga, mas a linha de fuga faz parte do rizoma” (Deleuze; Guattari, [1980]: 25-6).

337

geografia, cartografia, diagrama. Além disso, um rizoma não pode ser justificado por nenhum tipo de modelo estrutural ou gerativo, vinculando-se a um mapa, já que o mapa é versátil, aberto, reversível, desmontável, consegue se adaptar a montagens de qualquer natureza, pode ser rasgado, etc., possui múltiplas entradas. E o mapa ou diagrama, é um conjunto de linhas funcionando concomitantemente (Deleuze; Guattari: [1980]).

Oposto a uma estrutura, que se define por um conjunto de pontos e posições, por correlações binárias entre estes pontos e relações biunívocas entre essas posições, o rizoma é feito somente de linhas: linhas de segmentaridade, de estratificação, como dimensões, mas também linha de fuga ou de desterritorialização como dimensão máxima segundo a qual, em seguindo-a, a multiplicidade se metamorfoseia, mudando de natureza (...) O rizoma procede por variação, expansão, conquista, captura, picada. Oposto ao grafismo, ao desenho ou à fotografia, oposto aos decalques, o rizoma se refere a um mapa que deve ser produzido, construído, sempre desmontável, conectável, reversível, modificável, com múltiplas entradas e saídas, com suas linhas de fuga (Deleuze; Guattari, [1980]: 43).

Em primeira instância pode-se dizer que o rizoma antes de ser um conceito é um método. De fato, os autores tratam o rizoma como um método na Introdução de Mil platôs. Todavia, após a exposição acerca do rizoma, é possível notar que se o rizoma é um método, ele se delineia numa dimensão de método que combate diversas noções caras a algumas vertentes do pensamento contemporâneo, entre essas noções a de método, na medida em que ao invés de entabular um como fazer, restringir o real a uma estrutura, a uma racionalidade, os autores transbordam essas concepções. Dessa maneira, concordo com a colocação de que o rizoma se configura como um antimétodo que parece tudo autorizar (Zourabichvili, [2004]). Diante disso, indica que se deve “[n]ão julgar previamente qual caminho é bom para o pensamento, recorrer à experimentação, erigir a benevolência como princípio, considerar enfim o método uma muralha insuficiente contra o preconceito, uma vez que ele conserva pelo menos sua forma (verdades primeiras)” (Zourabichvili, [2004]: 99). E se há uma verdade primeira, é a de que ela é ampla, complexa, multifacetada. Ainda com Zourabichvili, autor de O vocabulário de Deleuze, na mesma página: “[o] mínimo que se pode dizer é que não é fácil manter-se nesse ponto: sob essa relação, o rizoma é o método do antimétodo, e seus ‘princípios’ constitutivos são regras de prudência a respeito de todo vestígio ou de toda reintrodução da árvore e do Uno no pensamento”. Como se pode observar, o rizoma se relaciona à multiplicidade, conexão, linhas, heterogeneidade, flexibilidade, aceita segmentação, se constitui constantemente, possui múltiplas entradas, conecta um ponto qualquer com outro qualquer, possui dimensão e não unidades, é versátil, possuindo linhas e não estruturas. Enfim, o rizoma possui uma série de

338

características que transcende estruturas normativas, se mostrando escorregadio. E se em alguma medida se vincula a um sistema, esse sistema deve ser visto enquanto aberto. Assim como uma perspectiva maquínica, o rizoma demonstra um desconforto às estruturas normativas, evidenciando uma realidade mais complexa e lodosa do que essas estruturas supõem, visto que as coisas se movimentam e que não dá para abarcar tudo para além de uma normatividade, de tal maneira que se deve ter em conta o acaso, a realização do impossível, imprevisto, inalcançável, modificação, metamorfose, revolução – bem como uma dimensão de modificação constante. O rizoma não consegue ser controlado por uma estrutura normativa, escorre por ela. Ora, isso não significa que o mapa e a amplitude que ele oferece não pode ser decalcado345. Pois se o rizoma possui múltiplas entradas, uma dessas pode ser o decalque (Deleuze; Guattari, [1980]). A partir dessa relação entre decalque e rizoma e a possibilidade de realizar o rizoma no decalque, se estabelece a quebra de um dualismo maniqueísta, quebra que os autores propõem:

O que conta é que a árvore-raiz e o rizoma-canal não se opõem como dois modelos: um age como modelo e como decalque transcendentes, mesmo que engendre suas próprias fugas; o outro age como processo imanente que reverte o modelo e esboça um mapa, mesmo que constitua suas próprias hierarquias, e inclusive ele suscite um canal despótico (...) Trata-se do modelo que não para de se erigir e de se estranhar, e do processo que não para de se alongar, de romper-se e de retomar (Deleuze, Guattari, [1980]: 42).

Deleuze, em especial Deleuze que produz com Guattari, apresenta possibilidades de apreensão da realidade tendo em vista conexões e multiplicidades que a permeiam. Realizar um estudo sobre a mesma é, em certa medida, objetivar um decalque na multiplicidade, de modo que o decalque não abarca a totalidade da realidade. Levando isso em consideração, a questão parece ser a de encontrar um ângulo do objeto que diga mais do que o momento no qual foi registrado, que ofereça condições de refletir sobre seu passado, presente e suas tendências. Para além disso, a partir de uma diversidade de fotografias do objeto de análise, espera-se constituir uma cartografia que nos leve a um diagrama, a um mapa do objeto investigado, uma tentativa de escrever a n ciente da impossibilidade de escrever n a partir de uma projeção do decalque sobre o mapa. “A memória curta é de tipo

345 Decalque é entendido como uma espécie de fotografia, imitação, um limite que se cria frente à multiplicidade do rizoma, redundância. Nas palavras de Deleuze e Guattari ([1980]: 31): “Ele [o decalque] é antes como uma foto, um rádio que começaria por eleger ou isolar o que ele tem a intenção de reproduzir, com a ajuda de meios artificiais, com a ajuda de colorantes ou outros procedimentos de coação. É sempre o imitador quem cria seu modelo e o atrai. O decalque já traduziu o mapa em imagem, já transformou o rizoma em raízes e radículas. Organizou, estabilizou, neutralizou as multiplicidades segundo eixos de significância e de subjetivação que são os seus”.

339

rizoma, diagrama, enquanto que a longa é arborescente e centralizada (impressão, engrama, decalque ou foto)” (Deleuze; Guattari, [1980]: 35). Neste caso, o livro é uma espécie de decalque, mas um decalque que faz rizoma com o mundo: “o livro é forçosamente um decalque: de antemão, decalque dele mesmo, decalque do livro precedente do mesmo autor, decalque de outros livros sejam quais forem as diferenças, decalque interminável de conceitos e de palavras bem situados, reprodução do mundo presente, passado ou por vir” (Deleuze; Guattari, [1980]: 47). Portanto, o fato de o livro ser um limite não deve servir como justificativa para desconsiderá-lo. Deve-se, pelo contrário, valer-se do livro para defender aquilo que o transcende, valer-se do decalque para dissertar sobre o rizoma. E se faz esse livro concebendo a relação colocada acima entre passado, presente e futuro: agindo com o livro e a pesquisa implicada para sua constituição contra o tempo, e assim, sobre o tempo, em favor de um tempo futuro, onde os ferramentais máquina e rizoma como suas “regras de prudência” serão levados em consideração.

V – Por um estudo da governança da Internet com a presença de Foucault e Deleuze Ora, o meio no qual o humano está inserido pode ser visto como possuindo uma constituição por meio de emaranhados de tramas de linhas, onde as relações de poder pode ser uma dessas linhas que corroboram com a configuração da realidade. É certo que o poder não pode ser observado como uma linha à parte no emaranhado de linhas que compõem a governança da Internet e sim como uma linha por meio da qual se pretende penetrar, deslizar com vistas a compreender as linhas que tecem o mapa da governança da Internet. Nesse sentido, não se olha uma linha – no caso, a do poder – com a crença de que ela é a mais importante, a estrutural para a apreensão da realidade. Pelo contrário, uma linha é apenas uma linha. Ela ganha significado quando se relaciona a algo, como a confecção de um mapa. Ao mesmo tempo, não se pode dizer que a linha do poder não tem relevância no estudo do social senão desconsiderando as contribuições de Michel Foucault no momento em que sua preocupação investigativa estava centrava no poder. E é tendo isso em consideração bem como a perspectiva de Deleuze de leitura em intensidade que seleciono o poder como centro investigativo para a composição, ou melhor, para a projeção de um mapa sobre a governança da Internet, tomando como referência heurística Brasil e Estados Unidos (EUA). Cada uma dessas referências contribui com a composição da governança da Internet. Os EUA possuem importância ímpar no desenvolvimento da Internet e o Brasil assume progressivamente uma posição de referência no desenvolvimento da rede mundial de computadores. É a partir dessas zonas que do meu ponto de vista se apresentam como mais frouxas, permeáveis, que vou

340

deslizar no estudo sobre a governança da Internet a partir da linha de poder. Para isso, são considerados os ferramentais analíticos de Foucault e Deleuze aqui apresentados.

Referências BOYLE, James. [1997] Foucault in Cyberspace: Surveillance, Sovereignty, and Hard- Wired Censors, 1997. Disponível em: . Acesso em 25 mai. 2015. CASTELLS, Manuel. [2001] A galáxia da Internet: Reflexões sobre Internet, Negócios e Sociedade. Lisboa: Fundação Calouste Gulbenkian, 2004. CASTRO, Edgardo. [2004] Vocabulário de Foucault: um percurso pelos seus lemas, conceitos e autores. Belo Horizonte: Autêntica, 2009. CHOMSKY, Noam; FOUCAULT, Michel. [1971] Natureza humana: justiça vs. poder: o debate entre Chomsky e Foucault. São Paulo: Editora WMF Martins Fontes, 2014. DELEUZE, Gilles. [1973] Carta a um crítico severo. In. _____. Conversações (1972-1990). São Paulo: Editora 34, 2010. (Coleção TRANS) p. 11-22 DELEUZE, Gilles. [1980] Entrevista sobre Mille plateaux. In _____. Conversações (1972- 1990). São Paulo: Editora 34, 2010. (Coleção TRANS) p. 37-49 DELEUZE, Gilles. [1986]. Foucault. São Paulo: Brasiliense, 2005. DELEUZE, Gilles. [1990a] Controle e devir. In _____. Conversações (1972-1990). São Paulo: Editora 34, 2010. (Coleção TRANS) p. 213-222 DELEUZE, Gilles. [1990b] Post-scriptum sobre as sociedades de controle. In _____. Conversações (1972-1990). São Paulo: Editora 34, 2010. (Coleção TRANS) p. 223-230 DELEUZE, Gilles. O que é um dispositivo?. In _____. O Mistério de Ariana: Cinco textos e uma entrevista de Gilles Deleuze. Lisboa: Veja, 2005. (Passagens) p. 83-96 DELEUZE, Gilles; GUATTARI, Félix. [1972] O anti-Édipo: capitalismo e esquizofrenia 1. São Paulo: Editora 34, 2010. (Coleção TRANS) DELEUZE, Gilles; GUATTARI, Félix. [1980] Mil platôs: capitalismo e esquizofrenia 2. (Vol. 1) São Paulo: Editora 34, 2011. (Coleção TRANS) DELEUZE, Gilles; PARNET, Claire. [1996]. Diálogos. Lisboa, Portugal: Relógio D’Água, 2004. ELDERS, Fons. [2011] Noam Chomsky e Michel Foucault: um choque de paradigmas. In. CHOMSKY, Noam; FOUCAULT, Michel. Natureza humana: justiça vs. poder: o debate entre Chomsky e Foucault. São Paulo: Editora WMF Martins Fontes, 2014. p. V-XI FOUCAULT, Michel. [1966] As palavras e as coisas: uma arqueologia das ciências humanas. Lisboa: Edições 70, 2005. (Coleção signos, 47) FOUCAULT, Michel. [1969] A arqueologia do saber. Rio de Janeiro: Forense Universitária, 2008. (Campo Teórico) FOUCAULT, Michel. [1973] O poder psiquiátrico: curso dado no Collège de France (1973-1974). Rio de Janeiro: Forense Universitária, 2006. FOUCAULT, Michel. [1975a] Poder-corpo. In. _____. Microfísica do poder. Rio de Janeiro: Graal, 2007. p. 145-152 FOUCAULT, Michel. [1975b] Vigiar e punir: nascimento da prisão. Petrópolis: Vozes, 2008. FOUCAULT, Michel. [1976a] Aula de 7 de Janeiro de 1976. In. ______. Em defesa da sociedade: curso no Collège de France (1975-1976). São Paulo: Martins Fontes, 1999. (Coleção Tópicos) p. 03-26

341

FOUCAULT, Michel. [1976b] História da sexualidade I: vontade de saber. Rio de Janeiro: Edições Graal, 2007. FOUCAULT, Michel. [1976c] Aula de 14 de Janeiro de 1976. In. ______. Em defesa da sociedade: curso no Collège de France (1975-1976). São Paulo: Martins Fontes, 1999. (Coleção Tópicos) p. 27-48 FOUCAULT, Michel. [1977a] Poder e Saber. In. _____. Estratégia, poder-saber. Rio de Janeiro: Forense Universitária, 2010. (Ditos e escritos; IV) p. 223-240 FOUCAULT, Michel. [1977b] Verdade e poder. In. _____. Microfísica do poder. Rio de Janeiro: Graal, 2007. p. 01-14 FOUCAULT, Michel. [1977c] Não ao sexo rei. In. _____. Microfísica do poder. Rio de Janeiro: Graal, 2007. p. 229-242 FOUCAULT, Michel. [1977d] Sobre a História da Sexualidade. Microfísica do poder. Rio de Janeiro: Graal, 2007. p. 243-276 FOUCAULT, Michel. [1982] O Sujeito e o Poder. In: RABINOW, P.; DREYFUS, H. Michel Foucault, uma trajetória filosófica: para além do estruturalismo e da hermenêutica. Rio de Janeiro: Forense Universitária, 1995. p. 231-249 FOUCAULT, Michel. [1983] Aula de 5 de janeiro de 1983. In _____. O governo de si e dos outros: curso no Collège de France (1982-1983). São Paulo: Editora WMF Martins Fontes, 2010. (Obras de Michel Foucault) p. 03-39 GETSCHKO, Demi. [2014] A internet e seu desaparecimento adiado. In ESTADÃO.COM.BR. Link, 08 abr. 2014, online. Disponível em: . Acesso em 08 abr. 2015. HOBBES, Thomas. [1651] Leviatã: ou matéria, forma e poder de uma república eclesiástica e civil. São Paulo: Martins Fontes, 2003. (Clássicos Cambridge de filosofia política) KRUEGER, Brian. [2005] Government Surveillance and Political Participation on the Internet. Social Science Computer Review Winter, 23: 439-452, 2005. Disponível em: . Acesso em 25 mai. 2015. LYON, David. [1998] The world wide web of surveillance: The internet and off-world power- flows. Information, Communication & Society, 1(1), 1998. MACHADO, Roberto. [1979] Introdução: Por uma genealogia do poder. In. FOUCAULT, M. Microfísica do poder. Rio de Janeiro: Graal, 2007. p. VII-XXIII MARX, Karl. [1873] Posfácio da segunda edição. In _____. [1867] O capital: crítica da economia política: Livro I: o processo de produção do capital. São Paulo: Boitempo, 2013. (Marx-Engels) MAUSS, Marcel. [1935] As técnicas do corpo. In _____. Sociologia e antropologia. São Paulo: Cosac Naify, 2003. p. 399-422 NIETZSCHE, Friedrich. [1883-4] Assim falou Zaratustra: um livro para todos e para ninguém. São Paulo: Companhia das Letras, 2011. PEREIRA, Isidro. Dicionário grego-português e português-grego. Braga: Apostolado da Imprensa, 1990. SILVEIRAS, Raphael. [2014]. Consultas públicas para o Marco Civil da Internet e reforma da Lei de Direito Autoral: a relação entre direito, Internet e Estado na contemporaneidade. 2014. 314 f. Dissertação (Mestrado em Sociologia) – Instituto de Filosofia e Ciências Humanas, Universidade Estadual de Campinas, Campinas-SP, 2014. Disponível em: . Acesso em 25 mai. 2015.

342

VEYNE, Paul. [1971] Foucault revoluciona a história. In. _____. Como se escreve a história. Brasília: Editora da Universidade de Brasília, 1995. p.149-181 WELLMAN, Barry; HOGAN, Bernie. [2004] The Internet in Everyday Life. In: BAINBRIDGE, W. Berkshire Encyclopedia of Human-Computer Interaction. Great Barrington, MA: Berkshire Publishing, 2004. p. 389-97. WGIG – Working Group on Internet Governance. [2005] Report of the Working Group on Internet Governance, Châteu de Bossey, June 2005. Disponível em: . Acesso em 25 mai. 2015. ZOURABICHVILI, François. [2004] O vocabulário de Deleuze. Rio de Janeiro: Relume Dumará, 2009. (Conexões; 24)

343

Anexo II – Tabela para análise dos atores

1 – Dados gerais346 347 A) Nome do ator → B) Função na arquitetura → a. Relevância disso numa dimensão sistêmica → b. Atividade a nível nacional ou internacional? → C) Momento em que assumiu essa função → D) Algum autor realizava isso antes?348 → E) Hierarquia na arquitetura a. Subordinação a outra empresa → b. Empresas subordinadas a ela → F) Limite do que pode ser realizado pelo ator → G) Existe ou existiu? Concorrência para o exercício da atividade → H) Modo alternativo para essa função → I) Faturamento anual → J) Em qual momento o usuário pode captar a realização dessa atividade? → K) Qual o limite de operação, até onde ele pode ir, até onde pode operar? Limite, margem de determinação e controle de um mecanismo. Qual o limite e as determinações para ação de determinado ator? →

2 – Conexões A) Conexão desse ator com os demais, do micro ao macro → B) Conexão hierárquica apontada a partir do item 1.E → C) Atores que desempenham funções similares →

3 – Poder → descrição detalhada 3.1 – Modo de análise A) Sistema das diferenciações [sistema pelo que se permite agir sobre o outro ciente de que todo poder tem como condição e efeito a diferenciação (política, econômica, etc.)] → B) Tipos de objetivos [objetivo perseguido por quem exerce o poder (manutenção de privilégios, exercício de uma função, etc.)] → C) Modalidades instrumentais [instrumentos utilizados para realizar o poder (mecanismos de controle, disparidade econômica, etc.)] → D) Formas de institucionalização [procedimentos do poder para dar continuidade em sua linha de desenvolvimento e numa situação de resistência ser a estratégia vencedora (dispositivo fechado sobre si, dispositivos tradicionais, estruturas jurídicas)] → E) Graus de racionalização [funcionamento do poder ser mais ou menos construído tendo em vista o efeito útil dos instrumentos utilizados e a certeza do resultado ou do custo adicional (como “custo” econômico dos meios utilizados)] →

346 Assim como o Anexo I, este material não tem pretensões de servir como um modelo geral de como realizar uma pesquisa. Constituí ele a partir do Anexo I para desenvolver esta pesquisa, considerando as especificidades dos atores envolvidos com meu objeto de doutorado. 347 Muito do que está aqui bate com a ideia de cibernética presente principalmente no texto O que é cibernética, especialmente ao pensar nos seguintes tópicos: sistema, entrada e saída; sistemas equivalentes. 348 Possível pensar em sistemas equivalentes. “De antemão, devem ser classificados como equivalentes todos os sistemas passíveis de substituírem-se mutuamente no desempenho de determinada função. Isto, independentemente de serem máquinas ou organismos, pois não existe razão para fazermos restrições quanto à sua constituição. Pode haver equivalência mesmo em situações onde a natureza dos objetos envolvidos é bastante distinta” (Bennaton: 23).

344

3.2 – Considerações sobre o Dispositivo A) Estratégia de relações de força que sustenta e é sustentada por tipos de saber; complexo com características próprias, sendo essencialmente estratégico, sempre inscrito num jogo de poder; B) Conjunto de elementos heterogêneos (ditos e/ou não ditos) que serviu para responder a uma dada urgência num determinado momento histórico. Deve-se estar atento à natureza de relação desse conjunto de elementos heterogêneos; C) Dado o fato de ser essencialmente estratégico, se modifica no devir histórico, devendo ser maleável, flexível, para se manter. D) Sua permanência se dá ao englobar uma sobredeterminação funcional. E também há o preenchimento estratégico. E) Além de suas características, possui uma gênese, onde tem importância a predominância de um objetivo estratégico num momento e a constituição do dispositivo propriamente dito. F) E no estudo sobre os dispositivos é importante estar atendo ao que é passado recente e futuro próximo.

3.3 – Elementos teórico-investigativos → Pontos fundamentais para o exercício da pesquisa  As coisas podem se conectar de maneiras imprevisíveis – onde a racionalidade não necessariamente tem vez (ainda que seja importante tentar encontrá-la)  As coisas podem ser utilizadas de maneiras imprevisíveis.  Mapa ou diagrama como um conjunto de linhas funcionando concomitantemente.  O poder circula, se exerce em rede.  Poder e saber estão implicados, não sendo aparelhos de saber acompanhamentos ou edifícios ideológicos.  Análise ascendente a partir de seus mecanismos infinitesimais e observância de como são investidos por mecanismos mais gerais e por modos de dominação globais.  Não analisar o poder pelo centro, mas por suas reentrâncias pelo fato de o poder estar para além das regulamentações.  Investigar o poder em ato e não por seu lado interior, analisando seus efeitos e não suas causas.  Considerar as condições que propiciaram o acontecimento de dado elemento histórico.  Captar o limite das possibilidades na infraestrutura.  Não confundir poder (“domínio das coisas, da técnica finalizada, do trabalho e da transformação do real”) com relações de comunicação (domínio “dos signos, da comunicação, da reciprocidade e da fabricação do sentido”) e capacidades objetivas (“dominação dos meios de coação, de desigualdade de ação dos homens sobre os homens”).  Sistema (cibernética) relaciona-se a um dentro e fora, onde há entrada e saída, sendo o interior o sistema. Este pode ser meu objeto de análise, onde a principal preocupação também política é saber o trânsito de informação, o esquema de controle existente e seus pontos de fuga (o último acrescentado para politizar). O sistema seria processador de mensagem ou informação.

345

Anexo III – Camada lógica da governança digital (ICANN, [2015]: online)

346

347

Anexo IV – Taxonomia desagregada da governança da Internet (DeNardis e Raymond, [2013]: 4-5)

Functional Area Tasks Primary Institutional Actor Central Oversight of Names and Numbers ICANN, IANA, US DoC Technical Design of IP Addresses IETF New Top-Level Domain Approval ICANN Domain Name Assignment Internet Registrars I. Critical Oversight of Root Zone File US DoC/NTIA Internet IP Address Distribution IANA, RIRs, LIRs, NIRs, ISPs Resources (allocation/assignment) Management of Root Zone File IANA Autonomous System Number Distribution IANA, Regional Internet Registries Operating Internet Root Servers VeriSign, Cogent, others Resolving DNS Queries (Billions per Day) Registry Operators (Verisign, others) Protocol Number Assignment IANA II. Setting Designing Core Internet Standards IETF Internet Designing Core Web Standards W3C Standards Establishing Other Communication Standards ITU, IEEE, MPEG, JPEG, ISSO, others Facilitating Multilateral Network Internet Exchange Point Operators Interconnection Peering and Transit Agreements to Private Network Operators, Content Networks, III. Access and Interconnect CDNs Interconnection Setting Standards for Interconnection (e.g. IETF Coordination BGP) Network Management (Quality of Service) Private Network Operators Setting End User Access and Usage Policies Private Network Operators Regulating Access (e.g. Net Neutrality) National Governments/Agencies ISPs, Network Operators, Private End User Securing Network Infrastructure Networks Designing Encryption Standards Standards-Setting Organizations Cybersecurity Regulation/Enforcement National Statutes/Multilateral Agreements IV. Correcting Software Security Vulnerabilities Software Companies Cybersecurity Software Patch Management Private End Users Governance Securing Routing, Addressing, DNS Network Operators, IETF, Registries Responding to Security Problems CERTs/CSIRTs Trust Intermediaries Authenticating Web Certificate Authorities (CAs) Sites Commercial Transaction Facilitation E-Commerce Sites, Financial Intermediaries Mediating Government Content Removal Search Engines, Social Media Companies, Requests (Discretionary Censorship) Content Aggregation Sites App Mediation (Guidelines, Enforcement) Smartphone Providers (e.g. Apple) V. Information Establishing Privacy Policies (via End User Social Media, Advertising Intermediaries, Intermediation Agreements and Contracts) Email Providers, Network Operators Responding to Cyberbullying and Defamation Content Intermediaries Regulating Privacy, Reputation, Speech Statutory and Constitutional Law Mediating Govt. Requests for Personal Data Content Intermediaries, Network Operators ICANN UDRP, Registrars, Accredited Dispute Domain Name Trademark Dispute Resolution Resolution Providers Removal of Copyright Infringing Content Content Intermediaries Algorithmic Enforcement (e.g. Search VI. Architecture- Search Engine Companies Based Rankings) Intellectual Blocking Access to Infringing Users Network Operators/ISPs Property Rights Domain Name System IPR Enforcement Registries/Registrars Enforcement Regulating Online IPR Enforcement National Statutes, International Treaties Standards-Based Patent Policies Standards-Setting Organizations Enacting Trade Secrecy in Content Search Engines, Reputation Engines Intermediation

348

Anexo V – Tipos de governança multissetorial (DeNardis e Raymond, [2013]: 12)

Stakeholder Types Nature of Authority Relations Polyarchy Hierarchy Anarchy Homogeneous Heterogeneous States, IGOs, Firms, NGOs ITU ICANN NA States, IGOs, Firms IOSCO NA IGOs, Firms, NGOs Global Compact NA States, IGOs, NGOs NA States, Firms, NGOs IETF, W3C NA States, IGOs NA States, Firms NA States, NGOs NA IGOs, Firms NA IGOs, NGOs NA Firms, NGOs NA

349

Anexo VI – Tabela com exemplos de restrições que podem ser realizadas pelos intermediários (Mackinnon et al., [2014]: 25 ) ISPs Search Engines Social Media Network-level * Filtering Restrictions * Service shutdown * Non-neutral service Platform-level * Manipulation of search * Removal of content from the restrictions ranking platform * Removal or “de- * Blocking of content, and listing” of links to free expression opportunities, specific web pages or by restricting access of categories of web pages particular categories of users (including geographical location) * Account limitation or deactivation Privacy-related * Collection and * Collection and * Collection and retention of chilling effects retention of user data for retention of user data for user data for commercial commercial or commercial purposes purposes government mandated * State requests for user * “Real-time” identity purposes data requirements * “Real name” account * Catalogue of * State requests for user data registration requirements individuals’ personal * State requests for user individual via searches data on their name * Real-time state surveillance

350

Anexo VII – Google Maps Timeline 2018 E-mail recebido no dia 03 de janeiro de 2019

351

352

353

354

355

Anexo VIII – Tráfego de bots comparado com o total de tráfego entre 2012 e 2016349

349 Material disponível em: https://www.statista.com/statistics/670782/bot-traffic-share/. Acesso em 26 fev. 2019.

356

Anexo IX – Pontos de vulnerabilidade da rede Internet Control Points Susceptible to Intentional or Unintentional Disruptions (DeNardis, [2014]: 209)

Institution-Level Outage ISP Service Termination (BGP/DNS) Cellular Service Disruption Application-Level Blocking Social Media Email SMS Web Skype Sites Content-Specific Blocking Search Terms User-Generated News Media Social Media Content Content Network Management-Level Disruptions Performance DDoS Attacks Latency DPI-Filtering Throttling Protocol-Level Blocking BitTorrent VoIP SMTP HTTP IPv6 FTP Financial and Transactional Service Outages Credit Card Transactions Online Payment Services Transactional Services Domain Name System DNS Filtering Hosting Services Registries Registrars Switching-Level Infrastructures Routing Infrastructures Internet Exchange Points Network Switches Physical Infrastructure Undersea Cables Power Systems Transnational Trunk Outside Plant