Pontifícia Universidade Católica de São Paulo

PRPG - Secretaria Acadêmica da Pós-Graduação

Alberto Cabral Fusaro

Inteligência Artificial e a Ilusão do Percepto Afetivo

Mestrado em Tecnologias da Inteligência e Design Digital

Dissertação apresentada à Banca Examinadora da Pontifícia Universidade Católica de São Paulo, como exigência parcial para obtenção do título de Mestre em Tecnologias da Inteligência e Design Digital sob a orientação do Prof a. Dra. Maria Lucia Santaella Braga

São Paulo 2018 2

Banca Examinadora

______

______

______

______

______

3 4

Esta pesquisa teve o suporte da CAPES / PROSUC – Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Programa de Suporte à Pós-Graduação de Instituições Comunitárias de Ensino Superior – mediante concessão de bolsa de Mestrado modalidade II, objeto do processo nº 88887.149845/2017-00, o que permitiu a realização do curso de Mestrado e a conclusão da Dissertação, que consolida a pesquisa realizada durante o curso.

5 6

AGRADECIMENTOS

Em especial à Prof a. Dra. Maria Lucia Santaella Braga, por seu inspirador brilhantismo intelectual, pelas generosas demonstrações de respeito e compreensão compartilhadas ao longo dessa jornada e, principalmente, pela liberdade investigativa decorrente do voto de confiança depositado em minha pesquisa.

À Márcia, pelo amor e pelo companheirismo sempre incondicionalmente oferecidos a cada um de meus passos, incentivando-me com o calor de seu afeto e com a luz clara de sua mente.

A todos os professores do programa de estudos pós-graduados em Tecnologias da Inteligência e Design Digital da PUC-SP, em especial ao Prof. Dr. Winfried Nöth, ao Prof. Dr. Sergio Basbaum, ao Prof. Dr. Marcus Bastos e ao Prof. Dr. Nelson Brissac Peixoto, pelas importantes contribuições em meu trajeto de pesquisa, ampliando meus horizontes e apresentando novos caminhos possíveis de investigação.

À Prof a. Dra. Ana Maria Haddad Batista e ao Prof. Dr. Gustavo Rick Amaral, pelos gentis e significativos comentários e sugestões oferecidos em minha Qualificação.

Esta pesquisa teve o suporte da CAPES / PROSUC – Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Programa de Suporte à Pós-Graduação de Instituições Comunitárias de Ensino Superior – mediante concessão de bolsa de Mestrado modalidade II, objeto do processo nº 88887.149845/2017-00, o que permitiu a realização do curso de Mestrado e a conclusão da Dissertação, que consolida a pesquisa realizada durante o curso.

7 8

RESUMO

Nossa pesquisa se enquadra em um segmento do ramo de estudos de Inteligência Artificial, mais especificamente o das IAs Fracas, investigando o modo como são utilizadas no desenvolvimento de games – jogos que operam em uma plataforma de tecnologia eletrônica. Focalizamos a investigação em um sistema de simulação restrita de comportamento humano nomeado comercialmente como Drivatar, uma entidade virtual controlada pelo sistema que opera com base em aprendizagem de máquina, desenvolvida em parceria pelas empresas Turn10 Studios e Microsoft para atuar como simulações de pilotos humanos nos games do gênero de corrida de carros da franquia Forza Motorsport . Nosso objetivo é a identificação dos principais elementos de IA, bem como das estratégias utilizadas em sua aplicação, que habilitam esses agentes inteligentes a causar nos jogadores humanos a ilusão de que os Drivatars são os próprios indivíduos que estão simulando.

PALAVRAS-CHAVE : inteligência artificial, games, aprendizagem de máquina, simulação comportamental, computação afetiva

9 10

ABSTRACT

Our investigation fits into a branch of Artificial Intelligence research, namely the Weak AIs subset, aiming to figure out the way that these AIs are applied in videogames development – we call it just “games”, referring to all games that run on any form of electronics platform. Our focus bears on a strict human-behavior simulation system that goes on the market by the name of Drivatar, a system-controlled virtual-entity whose operation is based on machine- learning technology. They were developed by Microsoft and Turn10 Studios to perform as “simulated human” pilots in their Forza Motorsport automotive-racing franchise games. Our goal is to identify the main AI elements and their application strategies that enable them to create the illusion of humanity, making the players believe that they are their human counterparts instead of simulations.

KEYWORDS : artificial intelligence, games, machine learning, behavioral simulation, affective computing

11 12 SUMÁRIO

AGRADECIMENTOS ...... 7

RESUMO ...... 9

PALAVRAS-CHAVE ...... 9

ABSTRACT ...... 11

KEYWORDS ...... 11

INTRODUÇÃO ...... 15

CAPÍTULO 1 – Preparando a Pista para a Corrida ...... 21

1.1 Definições ...... 22

1.1.1 Game ...... 22

1.1.2 Sistema ...... 23

1.1.3 Inteligência ...... 25

1.1.4 Inteligência Artificial ...... 26

1.1.5 Aprendizagem de máquina (machine learning) ...... 32

1.1.6 Algoritmo ...... 33

1.1.7 Interatividade ...... 34

CAPÍTULO 2 – Começando o Game ...... 37

2.1 Desenvolvimento de Games ...... 37

2.1.1 Respeitando a memória analógica ...... 37

2.1.1.1 Computadores Analógicos ...... 39

2.1.2 Respeitando a Memória Digital ...... 40

2.1.2.1 A odisseia da ...... 41

13 2.1.2.2 O movimento decisivo da Atari ...... 43

2.1.2.3 A cartada da Nintendo ...... 47

2.1.2.4 O sucesso espinhoso da SEGA ...... 51

2.1.2.5 A visão ousada da NEC ...... 53

2.1.2.6 Avanços geracionais e diversificação ...... 53

2.1.2.7 Surge a dita “quinta geração” dos consoles de games ...... 56

2.1.2.8 A guerra das “três gigantes” e a sexta geração ...... 57

2.1.2.9 A longeva “sétima geração”, os avatares e os raios azuis ...... 61

2.1.2.10 “Oitava geração”, ultra alta definição, tecnomutações intrageracionais ...... 65

2.2 Modelos e estruturas fundamentais ...... 70

2.2.1 Elementos de games em geral ...... 70

2.2.2 Elementos básicos dos games de corrida ...... 75

2.3 Games e as entidades controladas pelo sistema ...... 78

2.3.1 Diversos gêneros de games = diversos tipos de N.P.C.s ...... 78

2.4 Bots ...... 80

2.4.1 Bots demandam recursos adicionais ...... 81

2.4.2 Os bots e os games de corrida ...... 82

CAPÍTULO 3 – IAs Fracas e Emoções Fortes ...... 85

3.1 O jogo da ilusão: IA aplicada em games ...... 85

3.1.1 Conjunto de IAs fracas: especialização como estratégia de ilusão ...... 86

3.1.2 Representação do conhecimento ...... 90

3.1.3 Aprendizagem de máquina, bots e Drivatars ...... 93

3.2 Inteligência artificial e emoção real ...... 99

CONSIDERAÇÕES FINAIS ...... 105

REFERÊNCIAS BIBLIOGRÁFICAS ...... 109

14 INTRODUÇÃO

O campo de estudos de Inteligência Artificial (IA) é extremamente amplo e tem evoluído vorazmente ao longo do tempo, desde seu surgimento, em torno da década de 1940, concomitantemente à Segunda Guerra Mundial. Voltada inicialmente para mecanizar processos e tarefas que cabiam então exclusivamente aos raros indivíduos considerados como os mais inteligentes da espécie humana – aqueles que agilmente faziam cálculos balísticos, quebravam códigos complexos e realizavam as complicadas operações de Física e Matemática envolvidas na criação de armas nucleares – a IA começou “secreta e militarizada”, mas foi se tornando mais corriqueira e pública nas décadas seguintes ao pós-guerra, conforme os avanços tecnológicos permitiam a proliferação de computadores pelo mundo.

Com o advento dos supercomputadores, da internet, da computação compartilhada e outros avanços, acompanhados da sempre crescente necessidade de obter, armazenar e controlar informações, vimos a área de IA prosperar enormemente, entrando com sutileza no cotidiano das pessoas nas mais diversas formas e funções, desde televisores que se desligam sozinhos, ao final da programação, até sistemas que entendem a fala humana, fazem traduções entre idiomas, dirigem veículos pelas estradas, reconhecem não apenas rostos e indivíduos, mas identificam também comportamentos e “estados de humor” dos humanos com quem interagem, e muito mais. Utilizando sistemas de aprendizagem de máquina desenvolvidos para lidar com quantidades massivas de dados em seu estado bruto – Big Data – sistemas de IA são capazes de identificar padrões, reconhecer tendências e predizer comportamentos com surpreendentes rapidez e precisão. Muitos estudiosos de IA acreditam que as primeiras décadas do terceiro milênio verão o surgimento de uma “singularidade” nessa área, o momento em que um sistema de IA atingirá a chamada “inteligência real” e manifestará “autoconsciência” plena, sem ser programada para “simular” tal característica. Essas são as ambições dos estudiosos da dita IA Forte.

A muito menos ambiciosa investigação aqui apresentada visa estudar o uso de elementos de IA na construção de dispositivos virtuais de simulação de comportamento humano, especificamente na emulação e replicação artificial do modo de agir individual dos jogadores dos títulos da franquia de games de corrida de carros Forza Motorsport , por meio da construção de competidores virtuais chamados de Drivatars, bem como os artifícios e estratégias empregados para envolver emocionalmente os jogadores humanos por meio da

15 utilização dessas simulações digitais nas competições ditas “individuais”, ou “contra a máquina”.

Esta pesquisa, como segmento do ramo de estudos de IA, focaliza o sistema de simulação de comportamento humano nomeado comercialmente como Drivatar, baseado em aprendizagem de máquina por meio de coletas massivas de dados de jogadores das versões mais recentes dos games da franquia Forza Motorsport , da empresa Turn10 Studios, em parceria com a Microsoft.

A partir da versão número 5 (2013) do game de simulação de corridas automobilísticas Forza Motorsport , e da subsequente versão 2 (2014) do game Forza Horizon , uma derivação em formato “aventura em mundo aberto”, que utiliza e compartilha do mesmo núcleo de programação e de bases de dados da franquia principal, aparecem os “Drivatars”. Quando o jogador compete na modalidade “jogador único” ( Single Player ), mas em modo “online”, os demais veículos da competição não são simplesmente pilotados por um algoritmo pré- programado de modo padrão, limitados a se adaptar ao nível de dificuldade selecionado pelo jogador e pela performance do mesmo, como ocorre no modo “jogador único” estando o console ou computador “off-line”, nem são pessoas pilotando remotamente os outros veículos, como ocorre no modo “multijogador”, algo somente viável estando não apenas “online”, mas também conectado a um servidor externo durante a competição, servidor este que provê o enlace das pessoas dispostas a competir com outros humanos em tempo real.

Nessa situação específica de “jogador único”, mas conectado “online” à internet, o núcleo do game acessa o sistema de servidores do estúdio Turn10 e faz o download de um piloto virtual, ou “Drivatar”, para cada veículo da competição. Esses Drivatars não são meramente robôs – bots – que seriam algoritmos programados para conduzir os carros oponentes imitando genericamente o comportamento humano segundo um modelo matemático que trabalha apenas com variáveis passíveis de ajuste, como acontece na maioria dos jogos. Cada Drivatar é um modelo comportamental complexo, único em suas características, construído a partir de uma proposta de simulação de inteligência com base em um imenso volume de dados coletados de jogadores reais. Mais especificamente, cada Drivatar é baseado na coleta de dados comportamentais de um único indivíduo, sua contraparte humana, seu “dono” e criador.

A sofisticação de um Drivatar é proporcional ao tempo que o sistema teve para coletar dados do humano que o origina. Os resultados podem ser bastante impressionantes, chegando

16 ao ponto de causar a sensação de se estar competindo com pessoas, e não com inteligências simuladas. Mais do que isso, o game se baseia no sistema integrador das redes sociais para causar ainda mais impacto emocional: jogadores dos games Forza Motorsport que estão em contato pela plataforma Live da Microsoft, que atua também como uma espécie de rede social de games online, automaticamente compartilham Drivatars em suas competições quando utilizam os jogos da franquia. Simplificando, ao jogar sozinho, mas estando conectado à internet, pode-se ter uma experiência bastante próxima de se estar jogando com amigos, pois os Drivatars utilizam os nomes dos humanos que os originaram e seus veículos reproduzem a aparência dos veículos virtuais possuídos e utilizados por esses indivíduos. Porém, mais do que simplesmente “clones virtuais”, são também convincentes virtual impersonators , termo ainda sem tradução adequada para português, considerando que expressões como “imitadores virtuais” ou “personificadores virtuais” não nos parecem transmitir adequadamente tal conceito.

Mais do que meros imitadores de suas contrapartes humanas, os Drivatars podem chegar a ser suficientemente sofisticados para operar como sistemas preditivos: um Drivatar adequadamente “sincronizado” com seu “piloto-originador” pode, ao competir em uma pista nunca experimentada por nenhum deles, apresentar comportamentos, estilo e características que anteveem o que será feito pelo jogador quando este vier a utilizar tal cenário pela primeira vez. A criatividade preditiva, nesses casos, aos olhos do competidor humano que os observe, parece beirar o profético, tornando crível a ilusão da presença de um competidor humano previamente conhecido no ambiente virtual, embora o mesmo não esteja conectado à competição naquele momento. Não apenas isso, mas tornou-se fato comum um jogador entrar em contato imediatamente com o “dono” de algum Drivatar ao presenciar um comportamento identificável que coloque em dúvida se é o humano ou sua simulação que está competindo, para fim de confirmação e saneamento de dúvida.

Apesar de as complexidades do sistema ainda estarem sob estudos, e de as informações detalhadas sobre seu funcionamento estarem, em grande parte, protegidas por patentes (HERBRICH et al. 2006) e registros autorais, temos informações suficientes a seu respeito para identificar a constituição de um sistema complexo que envolve diversos níveis de interação, alguns característicos por serem “de máquina”, outros operando por meio de agentes com traços de comportamento “humanizado”.

17 Para compreender como certos aspectos se tornaram referenciais e também como alguns processos considerados “obrigatórios” foram incorporados ao desenvolvimento de games, muitas vezes como condições fundamentais ou pontos de partida, optamos por percorrer a linha histórica dos fatos que levaram a criação original dos mesmos, bem como visamos realçar alguns momentos-chave em que certos elementos foram incorporados ao universo dos games de modo geral, como premissas onipresentes, à guisa de tentar identificar seus elementos-chave e também – por que não? – revelar algo que possa ter sido uma necessidade momentânea, resultante de alguma limitação tecnológica específica, mas que deixou sua “marca” mesmo depois de tal limitação ser superada.

Um exemplo de limitação tecnológica temporária que deixou um efeito duradouro, mesmo depois de superada, é oferecido pelo pesquisador James Paul Gee (2013, pp. 88-89) ao explicar a origem da disposição do teclado nomeado "QWERTY", o padrão de disposição de teclas criado para as primeiras máquinas de escrever mecânicas, elaborado especificamente para dificultar e atrasar o processo de datilografar, visto que quando se datilografava depressa demais as hastes dessas máquinas tendiam a encavalar, ou mesmo quebrar, truncando o processo de gerar documentos. Com o advento da tecnologia digital, todo o processo se tornou eletrônico já no último quarto do século vinte, dizimando o problema mecânico e tornando a disposição QWERTY não apenas inútil, mas um problema. Décadas depois, os teclados de computadores e de outros dispositivos, como “teclados virtuais” em telas sensíveis ao toque, continuam a utilizar esse padrão que torna a operação de digitar mais difícil e lenta, e como cada geração seguinte se forma exposta a seu uso, o modelo tem se perpetuado a despeito de sua "estupidez", segundo afirma o autor.

No capítulo 1 apresentaremos nosso tema de estudos, a Inteligência Artificial, bem como nosso recorte específico, que tratará da utilização da IA em games para gerar o efeito de ilusão emocional que permite ao nosso objeto de estudo, um agente de IA nomeado Drivatar nos games da série Forza Motorsport , a induzir o usuário a se sentir na companhia de humanos. Para tanto, apresentaremos inicialmente as definições de game, sistema, inteligência e, especificamente, inteligência artificial, apresentando suas principais características, bem como definiremos também aprendizagem de máquina, algoritmos e interatividade.

Dedicaremos o capítulo 2 para tratar do desenvolvimento de games, começando por apresentar uma síntese seletiva do trajeto histórico dos mesmos desde seu surgimento, em meados dos anos 1950, passando por sua fase analógica e depois para a digital, traçando um

18 fio condutor para acompanhar os avanços e transformações das tecnologias e técnicas envolvidas ao longo das décadas, realçando eventos transformadores e marcantes que julgarmos relevantes em nossa investigação das sucessivas gerações de consoles de games, das empresas e dos indivíduos engajados nessa indústria, e também dos anseios e interferências dos consumidores dos games. Apresentaremos também os modelos e estruturas fundamentais dos games como programas computacionais em geral, bem como os elementos básicos para seu desenvolvimento, focalizando em seguida nos elementos componentes dos jogos de corrida de carros. Introduziremos as entidades controladas pelo sistema, explicando os N.P.C.s (Non-Playable Character ) em seus variados tipos, seguindo para o advento da criação dos bots preparando-nos para, especificamente, detalhar os bots de corrida.

No capítulo 3 trataremos do uso de IA nos games e falaremos do jogo da ilusão, que envolve o aspecto emocional dos jogadores. Para tanto, demonstraremos como diversas IAs fracas especializadas, operando conjuntamente, podem proporcionar um efeito ilusório de comportamento humano. Apresentaremos também o conceito de representação do conhecimento e seus elementos básicos, pré-requisito para abordarmos a aprendizagem de máquina com foco nas similaridades e diferenças entre os bots e os Drivatars. Por fim, trataremos do modo como um sistema de inteligência artificial gera e controla emoções bastante realistas nos jogadores, partindo do uso estratégico de conhecimentos adquiridos a respeito dos mesmos.

19 20 CAPÍTULO 1 – Preparando a Pista para a Corrida

Em se tratando de uma franquia comercial, cujos componentes são protegidos por patentes e compostos por segredos industriais não divulgados abertamente, limitamo-nos a investigar aquilo que é publicamente revelado pela empresa criadora – patente da tecnologia básica registrada pela Microsoft (HERBRICH, TIPPING e HATTON, 2006) e materiais de divulgação em geral, como folders, notas e pacotes de imprensa, entrevistas, apresentações em eventos, propagandas, vídeos publicitários etc. – bem como elementos autoevidentes e comportamentos e fenômenos observáveis por quaisquer utilizadores desses produtos, lançando mão de inferências lógicas e cogitação de possibilidades sem nunca engendrarmo- nos pelo reino da engenharia reversa ou qualquer outro tipo de subterfúgio técnico que tentasse revelar algum segredo industrial.

Não é do escopo da presente pesquisa descobrir ou revelar minúcias técnicas, seja de programação, seja de componentes de design, mas investigar as estratégias abertamente reconhecíveis de utilização dos componentes de programação e, mais especificamente, de inteligência artificial, que possibilitam aos Drivatars causarem nos jogadores humanos um tipo de ilusão de comportamento humanizado convincente o bastante para deflagrar respostas, reações e processos emocionais típicos das relações inter-humanas.

Para tanto, precisaremos abranger, em linhas gerais e sem a pretensão de esgotar o assunto, modelos e estruturas básicas e fundamentais da composição de games em geral e, especificamente, de games de corrida de carros, bem como os diversos modelos de construção de competidores artificiais, ou oponentes virtuais, desde os comportamentos mais previsíveis e predeterminados até os mais imprevisíveis, sejam de origem aleatória, sejam resultantes da utilização de algum nível de inteligência artificial.

O campo de estudos de Inteligência Artificial é vasto e engloba modelos teóricos e possibilidades de aplicação muito diversos, algo de escopo muito mais amplo do que os requerimentos de nossa investigação. Lançaremos mão de recortes e abordagens específicos, devidamente justificados e fundamentados quando de suas utilizações, seja por aspectos práticos do comportamento sob análise, seja por princípios teóricos logicamente inferidos quando suas ocorrências se apresentarem de modo autoevidente.

21 1.1 Definições

1.1.1 Game

Para compreendermos esse tipo específico de aplicação de Inteligência Artificial como componente de um dito “produto comercial”, e não como uma finalidade em si mesma, como é mais comumente pesquisado na área de pesquisa acadêmica (trataremos disso mais adiante), precisamos primeiramente entender o que são “games” e estabelecer um plano de fundo de referências sobre sua criação e funcionamento.

Comecemos por sua definição:

Um game é uma atividade lúdica composta por uma série de ações e decisões, limitado por regras e pelo universo do game, que resultam em uma condição final. As regras e o universo do game são apresentados por meios eletrônicos e controlados por um programa digital. As regras e o universo do game existem para proporcionar uma estrutura e um contexto para as ações de um jogador. As regras também existem para criar situações interessantes com o objetivo de desafiar e se contrapor ao jogador. As ações do jogador, suas decisões, escolhas e oportunidades, na verdade, sua jornada, tudo isso compõe a “alma do game”. A riqueza do contexto, o desafio, a emoção e a diversão da jornada de um jogador, e não simplesmente a obtenção da condição final, é que determinam o sucesso do game (SCHUYTEMA, 2008, p. 07).

Mais sinteticamente, segundo Santaella e Feitoza (2009, p. IX), “quando dizemos `games´, estamos nos referindo a jogos construídos para suportes tecnológicos eletrônicos ou computacionais”. Essa referência a “jogos” é muito importante, pois os elementos utilizados por Schuytema, na construção de sua definição, parecem ser uma combinação das definições de diversos autores para o conceito de jogo de modo geral, adequando-as e atualizando-as para o mundo digital.

Não é nosso objetivo reconstruir o caminho desse tipo de síntese, considerando que o mesmo já foi competentemente trilhado e executado anteriormente, como fizeram Salen e Zimmermann (2012, pp. 87-99) ao, metodicamente, citar e comparar oito diferentes definições de “jogo” segundo nove autores, sendo eles David Parlett, Clark C. Abt, Johann Huizinga, Roger Caillois, Bernard Suits, Chris Crowford, Greg Costikyan e a dupla Elliot Avedon e Brian Sutton-Smith, antes de oferecer sua própria síntese para tal conceito: “um jogo é um sistema no qual os jogadores se envolvem em um conflito artificial, definido por

22 regras, que implica em um resultado quantificável” (SALEN e ZIMMERMANN, 2012, p. 95).

Vale observar que Isaac Barry discorda parcialmente da definição de Salen e Zimmerman, conforme seu artigo “ Game and Society ” (RABIN, 2010, pp. 61-138), no qual faz questão de realçar que o ato de jogar – to play – um game não implica necessariamente em uma situação de conflito ou competição, podendo ser algo de natureza completamente oposta, como um sistema que ofereça entretenimento sem propósito aparente, que proporcione o mero “jogar pelo jogar”, muitas vezes sem traços conflitivos e desprovido de competitividade, como um game individual ou colaborativo cuja proposta seja apenas a de fazer algo prazeroso e criativo, sem oposição nem limite a superar ou meta a cumprir.

1.1.2 Sistema

Decorre dessas últimas definições a necessidade de outra conceituação, agora de “sistema”, mesmo que bastante sintetizada: “um sistema é um conjunto de coisas que afetam umas às outras em um ambiente para formar um padrão maior que é diferente de qualquer uma das partes individuais” (SALEN e ZIMMERMANN, 2012, p. 66).

Mais adiante, os mesmos autores adequam tal definição ao universo dos jogos, afirmando que “um sistema é um conjunto de peças que se inter-relacionam para formar um todo complexo. Há muitas maneiras de enquadrar um jogo como um sistema: sistema matemático, sistema social, sistema de representação etc.” ( idem , 2012, p. 71). O texto procede ainda em identificar os elementos, os possíveis enquadramentos e os tipos de um sistema. Os elementos seriam quatro: objetos (suas partes, elementos ou variáveis), atributos (suas qualidades ou propriedades), relações internas (interações entre seus objetos) e meio ambiente (contexto que envolve o sistema). No caso de um jogo, os enquadramentos seriam três, incorporados uns nos outros: formal, experimental e cultural. Os tipos, nessa classificação, seriam dois: abertos (trocam algo com seu ambiente) ou fechados (isolados de seu ambiente).

O enquadramento depende de qual perspectiva se aplica na análise de um sistema.

Podemos observar um game estritamente sob sua ótica formal, com objetos fixos e conhecidos (componentes, partes, elementos do game), com atributos fixos e determinados

23 (regras do game), com relações internas lógicas e funcionais (interações entre objetos do game segundo seus atributos) e um ambiente determinante (o desenrolar do jogo em si, que fornece o contexto do game e lhe dá forma).

Podemos também assumir uma perspectiva experimental e observar o mesmo game sob tal enquadramento, em que os objetos seriam os próprios jogadores (de ordem biológica ou não), os atributos seriam os elementos do game controlados pelos jogadores (personagens, avatares etc.), as relações internas, assumindo jogadores como objetos, seriam suas interações mútuas, quer sejam de ordem estratégica, social, psicológica ou emocional e, por fim, o ambiente seria não apenas o desenrolar do game em si e o alcance de seus elementos intrínsecos, mas também todo o contexto que envolve os jogadores e os afeta, formando um “contexto do jogar”.

Podemos ainda ver o game como um sistema cultural, focando no modo como este se enquadra na cultura em geral, o que pode ser feito de diversas maneiras. Partindo de tal ponto de vista mais amplo, podemos fazer diversas associações culturais ao game e seus elementos, identificando influências de ideologias, de referências históricas, arquitetônicas e de design, de modelos conceituais e estéticos, apenas como exemplos iniciais. Tendo isso como ponto de partida, podemos nos referir aos elementos do game sob o viés da cultura. O objeto seria o game em si, tomado em seu papel cultural. Os atributos do game seriam a designação de seus componentes e os fundamentos socioculturais de sua criação. As relações internas poderiam ser os liames entre a cultura e o game em foco, como seus objetos e atributos representam algo na cultura e na sociedade. O ambiente, nesse âmbito, não se limita àquele do game ou apenas do entorno dos jogadores, mas é constituído por todo contexto cultural que levou o game a existir, a acontecer, desde a condição de ser viável até a de ser real.

Quanto a seus tipos, considerando que os sistemas formais são fechados, os culturais são abertos e os experimentais podem ser abertos ou fechados, podemos observar que os jogos, e especificamente os games, dependendo de seu enquadramento como formais, experimentais ou culturais, podem conter em si mesmos múltiplos sistemas componentes abertos e fechados e, ainda assim, no ambiente geral, serem tipificados como apenas de um ou outro tipo sistêmico.

24 1.1.3 Inteligência

O conceito de “inteligência”, com o qual nos confrontamos repetidamente em nossa investigação, também requer o foco de nossa atenção. Há uma miríade de definições do que seria “inteligência”, enumerando diferentes atributos, características e elementos que lhe seriam imputados, tornando tal investigação um desafio por si só. Há um número ainda maior de pesquisas que envolvem, mencionam e estudam a inteligência sem oferecer uma clara definição sobre o que exatamente estão tratando, quais aspectos seriam relevantes ou considerados, tornando um estudo comparativo desse tópico um desafio hercúleo.

A questão da definição conceitual de inteligência pareceu ganhar um novo impulso, e uma nova escala de grandeza em termos de conflitos acadêmicos e intelectuais, quando Hemstein e Murray (1994) lançaram a obra The Bell Curve associando, entre outras teorias, os sistemas de classificação de inteligência e uma suposta estratificação da sociedade norte- americana. Entre as inúmeras respostas críticas, de rejeição ou apoio, muitos consideram o relatório “Intelligence: Knowns and Unknowns” (NEISSER et al, 1996, pp. 77-101) elaborado em 1995 e publicado no ano seguinte, na revista “American Psychologist”, como sendo a mais significativa, tendo recebido a assinatura corroborativa de muitos acadêmicos em sua elaboração, contradizendo muitas propostas apresentadas em The Bell Curve .

Vale mencionar também que, em dezembro do mesmo ano do lançamento dessa controversa obra de Hemstein e Murray, cinquenta e dois pesquisadores especializados no estudo da inteligência assinaram conjuntamente um editorial no The Wall Street Journal chamado “Mainstream Science on Intelligence” (GOTTFREDSON, 1994), também revisitando criticamente as propostas e definições utilizadas pelos autores em suas teorias.

Consideramos importante ressaltar que não é objetivo da presente pesquisa desembaraçar tal novelo acadêmico, logo, me aterei à sintética, e mais que suficiente para nossos fins, definição inicial oferecida pelo filósofo e filólogo André Lalande (1999, p.579), na primeira entrada do referido verbete em seu vocabulário técnico:

[Inteligência é o] conjunto de todas as funções que tem por objeto o conhecimento no sentido mais amplo da palavra (sensação, associação, memória, imaginação, entendimento, razão, consciência). Este termo serve para designar uma das três grandes classes (ou faces) dos fenômenos psíquicos, sendo as duas outras as dos fenômenos afetivos e a dos fenômenos ativos ou motores.

25 Partindo dessa premissa conceitual, deparamo-nos com uma nova miríade de definições distintas e diversas em nossa investigação, agora referentes à conceituação de “inteligência artificial”.

1.1.4 Inteligência artificial

Antes de apresentar sua própria definição para o termo, sob a égide da pergunta “o que é inteligência artificial”, Russel e Norvig (2010, pp. 1-5) dividem aquelas que eles consideram como sendo as mais significativas definições preexistentes em quatro grandes categorias qualificadas pelas combinações (quadro a seguir) das supostas oposições entre o pensar (linha de cima) e o agir (linha de baixo) e entre aquilo que eles chamam de “humano” (coluna da esquerda) contrapondo o “racional” (coluna da direita). Cabe ressaltar que, ao contrapor “humano” a “racional”, os autores declaram não considerar que os humanos sejam irracionais, mas apenas as imperfeições da aplicação prática da razão, facilmente reconhecíveis no fato de que muitos jogadores de xadrez não são grão-mestres, mesmo conhecendo bem todas as regras e possibilidades do jogo, assim como nem todas as pessoas que sabem matemática conseguem resolver todas as equações que lhes são apresentadas. Segundo eles, tal falibilidade apontaria para erros sistemáticos da racionalidade humana.

Ressalva feita, obtemos a versão simplificada dessa combinação de aspectos, categorizando os tipos gerais de IA nos seguintes quadrantes:

pensar humanamente pensar racionalmente

agir humanamente agir racionalmente

Segundo esses autores, “pensar humanamente” compreenderia a incorporação de uma abordagem de “modelagem cognitiva”, argumentando que se a intenção for a de se criar uma inteligência capaz de pensar como um ser humano, far-se-á necessário determinar o modo pelo qual os humanos pensam, sugerindo três abordagens para atingir tal meta: pela introspecção, tentando flagrar o próprio processo de pensamento; por meio de experimentos psicológicos, observando as ações de sujeitos sob estudo; utilizando o mapeamento de

26 imagens do cérebro, enquanto este opera o ato de pensar. Apenas quando uma teoria sobre o funcionamento do pensar atinge um grau suficiente de precisão é que se torna possível transcrevê-la como um programa de computador. Se ao comparar entradas e saídas (estímulos e respostas) encontra-se equivalência entre os comportamentos do programa de computador e do humano, pode-se inferir que o tal programa poderia operar em seres humanos.

Há toda uma linha de desenvolvimento e pesquisa que, segundo essa dupla de pesquisadores, dedica-se, desde os anos 1960, à criação de inteligências artificiais que, em lugar de buscar maior eficiência ou precisão, priorizam resolver os problemas similarmente ao que seria feito por seres humanos, visando obter resultados também parecidos com, em vez de “melhores” que, aqueles obtidos pelos sujeitos observados ao realizar a mesma tarefa da máquina, só que mental ou manualmente, restringindo a tarefa a uma analogia ao sistema cognitivo humano, daí este ramo da IA ser profundamente envolvido com as ciências cognitivas.

A abordagem de uma IA segundo um “pensar racional” se caracterizaria pelo foco nas regras, na estruturação lógica do pensamento.

O filósofo grego Aristóteles foi um dos primeiros a tentar codificar o “pensamento correto”, ou seja, processos irrefutáveis de raciocinar. Seus silogismos ofereceram padrões para estruturar argumentos de modo que eles sempre chegassem às conclusões corretas diante da oferta de premissas corretas – por exemplo, “Sócrates é homem; todos os homens são mortais; logo, Sócrates é mortal.” Supostamente, estas leis do pensamento deveriam reger as operações da mente e seu estudo criou o campo chamado Lógica 1 [tradução nossa] (RUSSEL e NORVIG, 2010 p. 4).

Essa área de estudos se desenvolveu progressivamente ao longo do tempo e ganhou notável impulsão após os efeitos dos movimentos Renascentista e Iluminista se espalharem pela Europa, para além de seus respectivos países de origem. Quase dois milênios e meio depois de Aristóteles estabelecer seus silogismos, os lógicos – especialistas em lógica – do século dezenove criaram um sistema de notação que viabilizava a expressão precisa da maioria das afirmações/argumentos que se poderia fazer/formar a respeito de todo tipo de

1 “The Greek philosopher Aristotle was one of the first to attempt to codify “right thinking,” that is, irrefutable reasoning processes. His syllogisms provided patterns for argument structures that always yielded correct conclusions when given correct premises—for example, “Socrates is a man; all men are mortal; therefore, Socrates is mortal.” These laws of thought were supposed to govern the operation of the mind; their study initiated the field called logic ” (RUSSEL e NORVIG, 2010 p. 4).

27 objetos do mundo, bem como das relações entre eles. Argumentos complexos passaram a ser convertidos em funções proposicionais (COPI, 1981, pp. 281-310) e expressos em notação lógica em um formato muito familiar aos matemáticos, utilizando variáveis e constantes como quantificadores e os mais diversos operadores para representar as ações argumentativas.

Em meados da década de 1960, já se estava criando programas de computador capazes de resolver teoricamente, em princípio, qualquer problema passível de ser expresso por meio dessa notação lógica (RUSSEL e NORVIG, 2010, p. 4). Os adeptos desse método que se voltaram para a criação de IA esperavam desenvolver sistemas inteligentes a partir do avanço incremental desses programas.

Contudo, descobriram-se alguns obstáculos que futuramente viriam a se tornar comuns em toda sorte de programação computacional, mas que tornaram essa meta inicial bastante desafiadora e, em certos casos, inexequível. Por exemplo, a dificuldade de se converter conhecimento informal em estruturas formais passíveis de expressão em notação lógica e, principalmente, operar com estados de indeterminação, com conhecimento que não implique em garantia de certeza.

Além disso, a capacidade computacional poderia ser facilmente exaurida pela adição de algumas centenas de fatos nas funções proposicionais, sem mencionar que mesmo argumentos bem expressos logicamente, e dentro dos limites de processamento dos equipamentos, poderiam ocasionar redundâncias lógicas inerentes aos problemas representados, colocando o programa em um ciclo indefinido de repetição (loop) e travando o sistema.

A abordagem de IA que foca em “agir humanamente” é comumente reconhecida no “Teste de Turing”, assim nomeado posteriormente, a partir do exercício proposto por Alan Turing no formato de uma validação para o “jogo de imitação”, apresentado em seu artigo “Computing Machinery and Intelligence” (TURING, 1950) na revista Mind .

Em síntese, o teste original implicaria em um questionador humano apresentar perguntas por escrito para uma “portinhola” em uma cabine de isolamento, sem saber quem as responderia e, ao receber uma resposta escrita, deveria distinguir se a mesma havia sido dada por uma pessoa ou por um computador. Após certo número de interações, se o computador houvesse sido tomado por humano acima de uma determinada porcentagem, teria “passado” no teste e seria considerado operacionalmente inteligente. Segundo Russel e Norvig (2010, p.

28 3), a falta de contato visual ou auditivo fazia parte da premissa de que tais elementos não seriam significativos para a determinação de comportamento inteligente, mas uma versão mais abrangente também viria a ser considerada e depois referida como uma versão “completa” desse teste.

Tal tipo de IA apresentaria uma lista de pré-requisitos bastante exigente ao mundo da computação, entre eles poderíamos enumerar as capacidades de processar linguagem natural e de criar representações para o conhecimento apresentado de modo a poder armazená-lo, bem como as habilidades de aprender – aprendizagem de máquina – a partir da experiência, detectando padrões e extrapolando possibilidades, e de raciocinar de maneira autônoma, usando o repertório adquirido para chegar a novas conclusões e oferecer respostas próprias. Para passar na versão completa do teste, um sistema teria de incorporar ainda mais recursos, entre eles os de processamento audiovisual e de interação física com objetos e o ambiente, o que nos remete por um lado a tecnologias cognitivas e, por outro, a tecnologias robóticas.

Por fim, “agir racionalmente” seria a abordagem do agente racional.

A despeito de “agente” poder ser definido simplesmente como “aquele que age”, seria de se esperar que o “agente computacional”, segundo os autores dessa divisão em quadrantes, apresentasse capacidades específicas de ação, como perceber seu meio, atuar de modo autônomo, adaptar-se à mudança, bem como identificar e perseguir metas. Um “agente racional”, por sua vez, alcançaria sempre o melhor resultado ou, no caso de situações incertas, o melhor resultado possível para cada contexto. Pensar racionalmente pode ser parte do processo de agir racionalmente, considerando que uma conclusão correta pode estabelecer a meta para o melhor curso de ação, mas isso não representa seu todo: a inferência certa nem sempre pode ser traduzida no melhor resultado por meio de uma ação. Pode haver também situações em que não existam soluções que possam ser comprovadas como sendo as melhores, gerando um impasse para o pensar racional e suspendendo a inferência da “melhor solução”, mas mantendo a necessidade de alguma ação acontecer. Em princípio, um agente racional deveria ser capaz de atuar em todas as circunstâncias citadas.

Ressaltamos aqui que, embora a presente pesquisa envolva características dos quatro quadrantes, nosso foco será prioritariamente o “agir humanamente”, mas em um recorte de aplicação muito mais restrito do que o abrangido pelo teste tradicional de Turing. Em uma investigação futura poderemos sugerir uma versão “automotivo-competitiva” desse teste

29 como forma de argumento e análise do comportamento dos Drivatars, traçando um paralelo entre o seminal “jogo de imitação” de Turing e a ilusão de humanidade desses pilotos virtuais.

Entre as muitas definições sintéticas de IA que encontramos, incluiremos algumas que nos pareceram melhor relacionadas com nossa pesquisa.

Por exemplo, Lima, Pinheiro e Santos (2014, p. 1), referem-se à IA dizendo que:

Esta área de pesquisa da ciência da computação tem como objetivo buscar métodos ou sistemas computacionais que possuam ou reforcem a capacidade de comportamentos inteligentes do ser humano, como a de resolver problemas, adquirir e representar conhecimentos, reconhecer padrões etc. [...] Um sistema inteligente é aquele que apresenta capacidades como: aquisição de conhecimento, planejamento de eventos, resolução de problemas, representações de informações, armazenamento de conhecimento, comunicação através de linguagens coloquiais, aprendizado.

Artero cita várias definições de inteligência em si e de IA antes de apresentar sua sintética formulação de que “IA é o estudo de como fazer os computadores realizarem tarefas que, no momento, as pessoas fazem melhor, o que inclui a capacidade de adquirir e aplicar conhecimentos aprendidos” (ARTERO, 2009, p. 19).

Curioso notar que, no caso de nossa pesquisa, o que “as pessoas fazem melhor” seria pilotar veículos virtuais de maneira peculiarmente imperfeita, atribuindo-lhes personalização por meio da capacidade humana de errar sistematicamente.

Em termos filosóficos (RUSSEL e NORVIG, 2010, pp. 1020-1040), há também uma divisão em duas significativas categorias gerais de IA, chamadas “forte” e “fraca”. IA Fraca seria caracterizada pela capacidade de uma máquina agir de modo inteligente, sendo suficiente a aparência de inteligência sem requerer sua real existência, enquanto a IA Forte implicaria na hipótese de uma máquina demonstrar inteligência com uma mente própria, e não apenas por meio de simulação.

É importante ressaltar também a diferença entre ação/comportamento inteligente e aquilo que consideramos inteligência, assumindo entendimento e compreensão do que está sendo feito e das justificativas do comportamento.

Está claro que os computadores conseguem fazer muitas coisas melhor do que os humanos, inclusive coisas que as pessoas acreditam requerer profundos entendimento e compreensão humanos. Isso não significa, naturalmente, que os computadores

30 tenham entendimento ou compreensão ao executar tais tarefas – comportamento não requer tais características [...] – mas a questão relevante é que nossa primeira impressão a respeito dos processos mentais necessários para produzir certo tipo de comportamento costuma estar errada 2 [tradução nossa] (RUSSEL e NORVIG, 2010 p. 1022).

A pesquisa sobre IA segue para a questão da possibilidade de emergência da consciência a partir da IA Forte, o que leva a investigação rumo à hipótese da singularidade e aos argumentos do trans-humanismo e do pós-humanismo, entre outros. Contudo, sendo o foco de nossa pesquisa voltado a aspectos de IA Fraca, no momento nos limitaremos à mera menção desses interessantes aspectos de IA Forte e poderemos voltar a eles em investigações futuras.

Cabe ainda citar que existe um “ gap ”, um vazio, entre a pesquisa acadêmica sobre IA e os investimentos de pesquisa e desenvolvimentos feitos na indústria. Em linhas gerais, a pesquisa acadêmica tende a ser mais voltada para IA Forte, em que a meta é primariamente o resultado, independentemente dos recursos e tempo necessários para cada ação/iteração para alcançá-lo.

As aplicações de mercado e a pesquisa industrial são mais voltadas para cumprimento de tarefas e solução de problemas dentro do uso de plataformas limitadas, como computadores pessoais, consoles de games, dispositivos móveis, módulos de controle automotivo, dispositivos “smart” etc., em que os recursos (i.e.: energia, processamento, memória, tempo etc.) são exíguos e preciosos, além das limitações de “tempo de resposta” do sistema – intervalo entre entrada e saída de dados – e de custo de produção. Por conta desses fatores, temos uma predominância da IA Fraca utilizada de maneira criativa no “mercado”, fora dos recônditos da academia. Nesse quesito, nossa pesquisa pode ser considerada atípica, por dedicar-se a investigar o modo como um sistema composto por um conjunto de IAs Fracas parece causar, nos humanos que interagem com ele, o efeito emocional que esperaríamos ser possível de acontecer apenas como resultado da ação de uma IA Forte.

2 “It is clear that computers can do many things as well as or better than humans, including things that people believe require great human insight and understanding. This does not mean, of course, that computers use insight and understanding in performing these tasks—those are not part of behavior, and we address such questions elsewhere—but the point is that one’s first guess about the mental processes required to produce a given behavior is often wrong” (RUSSEL e NORVIG, 2010 p. 1022).

31 1.1.5 Aprendizagem de máquina (machine learning)

Diferentemente do modelo de IA dito “clássico”, que parte de uma abordagem top- down (de cima para baixo) com base em pré-programação algorítmica e operação simbólica que predeterminam as operações que a suposta IA irá realizar, limitando e especificando aquilo que o sistema deverá aprender, no modelo de IA do tipo bottom-up (de baixo para cima) a aprendizagem de máquina implica em um sistema em que algoritmos interagem mutuamente e também com uma base de dados em determinado contexto, geralmente com grande amostragem e muitas repetições, focalizando no reconhecimento de padrões e num processo de autoajuste em que os algoritmos se alteram uns aos outros para alcançar os resultados desejados. O modo de identificação/reconhecimento de resultados seria, por sua vez, previamente incorporado aos algoritmos, o que pode incorporar também uma busca por melhor eficiência e, dependendo do tipo de situação, até mesmo reconhecer relações e apontar discrepâncias em aspectos não planejados pelos programadores.

Steven Finlay (2017, p.5) faz uma síntese prática da definição desse conceito, segundo sua utilização:

Aprendizagem de máquina é o uso de procedimentos matemáticos (algoritmos) para analisar dados. A meta é descobrir padrões úteis (relações e correlações) entre diferentes conjuntos de dados. Quando tais relações são identificadas, elas podem ser utilizadas para fazer inferências a respeito do comportamento de novas situações, quando essas ocorrerem 3 [tradução nossa].

Essa definição serve tanto para uma IA concebida sob o viés top-down , com algoritmos fixos que mudam seu comportamento ajustando as variáveis em seu sistema simbólico, quanto sob o viés bottom-up , em que os algoritmos entrelaçados se modificam estruturalmente em função dos padrões identificados nos conjuntos de dados analisados.

Já do ponto de vista de Ethem Alpaydin (2016, p.17), a aprendizagem de máquina não seria simplesmente uma questão de programação ou de base de dados, mas sim um pré- requisito para um sistema de IA que deva atuar em um ambiente dinâmico, habilitando-o a aprender e a se adaptar ao meio.

3 “Machine Learning is the use of mathematical procedures (algorithms) to analyze data. The aim is to discover useful patterns (relationships or correlations) between different items of data. Once the relationships have been identified, these can be used to make inferences about the behavior of new cases when they present themselves” (FINLAY, 2017, p. 05).

32 Embora possa ser classificada em diversas categorizações, a aprendizagem de máquina (ou “aprendizado de máquina”, segundo algumas traduções), costuma ser separada em duas grandes categorias: supervisionada e não-supervisionada (ARTERO, 2009, p. 215), (CHAPMAN, 2017, pp. 3-4). Alguns autores incluem mais categorias, como a reforçada e a semissupervisionada (RUSSEL e NORVIG, 2010 pp.694-695), mas a maioria dos pesquisadores considera tais adições como subgrupos das duas principais.

Em síntese, aprendizagem supervisionada consiste em expor o agente (programa de computador que executa os algoritmos) a conjuntos de dados específicos e previamente qualificados e identificados como “entrada” (input) e “saída” (output), facilitando o reconhecimento de padrões da maneira desejada e aproximando as possibilidades de resultados a uma meta previamente estabelecida com clareza. A aprendizagem não- supervisionada implica em expor o agente a um conjunto de dados em sua forma bruta, sem classificação prévia, de modo que o programa deve contar apenas com seus processos internos para reconhecer e identificar não apenas padrões, mas também as relações e correlações que estabelecem o que seria “entrada” e o que seria “saída”. Algo correlato à capacidade humana de estabelecer relações de causa e consequência.

Nossa pesquisa envolve um sistema de aprendizagem de máquina supervisionada, uma vez que as possibilidades de ação dos jogadores de um game de corrida preenchem um leque bem específico de variáveis, a serem especificados mais adiante, limitando assim o conjunto de dados coletado e, posteriormente, minerado pelos agentes de aprendizagem dos Drivatars.

1.1.6 Algoritmo

Em síntese, algoritmo é uma sequência definida de ações ou passos para se executar uma tarefa ou resolver um problema. Em matemática, pode ser um modelo de solução para uma equação. Em lógica, uma sequência operacional que leva das premissas ou pressupostos à inferência ou conclusão. Em computação, um sistema de ações interligadas que, partindo de dados “de entrada”, resulta em dados “de saída”. Segundo Chapmann (2017, p.1), seria um conjunto de comandos de alto-nível passíveis de serem aplicados em diferentes situações e, se conjugados corretamente, dariam aos computadores a habilidade de aprender e de se adaptar.

33 1.1.7 Interatividade

Em sua proposta de estudo sobre interação mútua e interação reativa, Primo (2000, p. 85) “aponta uma diferenciação fundamental entre o que é interativo e o que é reativo”. Um sistema interativo deveria oferecer autonomia “total” ao usuário, enquanto um sistema com uma gama limitada de opções disponíveis seria chamado de reativo.

Segundo esse preceito, uma relação reativa, caracterizada por ser determinística e limitar a liberdade de escolha, não seria interativa. Contudo, fundamentando-se em outra linha de pensamento, o autor encontra uma utilização sinonímia dos termos interação, relação e comunicação, inferindo a existência de um tipo limitado de interação.

Com base nisso, surge a proposta de se utilizar duas categorias de interação, a mútua e a reativa, devendo ser consideradas as seguintes dimensões para se estabelecer a tipificação: sistema, processo, operação, throughput (ocorrência entre ação e reação, situação entre entrada e saída, trajeto transformador entre input e output ), fluxo, relação e interface.

Em síntese, a interação mútua é um sistema aberto, em que cada um afeta o todo e todos interagem, o contexto é relevante e o sistema evolui; um processo de negociação entre os agentes; uma operação de ações interdependentes, logo emergente; um throughput caracterizado pelo confronto da complexidade do interagente com a mensagem recebida, gerando uma resposta imprevisível; um fluxo não-linear, dinâmico e em desenvolvimento; uma relação negociada; uma interface virtual, geradora da diferença e da repetição, do movimento da atualização.

A interação reativa é: um sistema fechado, com relações lineares e unilaterais, o reagente tem limites ou não consegue afetar o agente, o contexto é ignorado e o sistema não evolui; um processo de estímulo-resposta que deve ser sempre o mesmo; uma operação fechada na ação e reação; um throughput automático ou de reflexo, predeterminado pela programação; um fluxo linear, predeterminado em eventos isolados, mecânico; uma relação causal; uma interface potencial, geradora de pseudomovimento (limitado pelo possível).

Quando Primo fez sua investigação, as características da rede mundial ainda limitavam sobremaneira às possibilidades de interatividade mediada, algo que foi superado pela tecnologia de telecomunicações nos anos posteriores, dando origem a novos ambientes de interação mútua, mediada por ambientes com características de interação reativa, gerando experiências híbridas para os agentes. Para dar conta de tais situações, sugerimos uma forma

34 de interação adicional às duas propostas pelo autor, a “interação mútua mediada reativamente”.

Essa interação mútua mediada reativamente seria um sistema híbrido, com um conjunto de regras fechadas, mas possibilitando a interação aberta entre agentes humanos, o contexto é considerado e pode ser alterado pelos agentes humanos, dentro das regras, o sistema evolui, mas com limitações; um processo de negociação entre os agentes humanos, mediado ou não por um processo de estímulo-resposta com os agentes simulados ou virtuais; uma operação de ações interdepententes entre agentes humanos, mediada ou não por uma operação fechada na ação e reação com os agentes e elementos simulados; um throughput caracterizado pelo confronto da complexidade do interagente com a mensagem recebida, gerando uma resposta imprevisível, mas pode ser limitada pelas regras de mediação reflexa ou automática do meio e dos agentes simulados; um fluxo híbrido, de engajamento linear, mas de desenvolvimento não-linear, dada a mediação do ambiente reativo; uma relação negociada, mas com aspectos de manifestação limitados pela relação causal com os elementos de mediação (ambiente e agentes simulados); uma interface inicialmente potencial, mas de desenvolvimento virtual, capaz de gerar movimentos de atualização, a despeito de a interface inicial permanecer limitada ao pseudomovimento.

35 36 CAPÍTULO 2 – Começando o Game

2.1 Desenvolvimento de games

A despeito de “o jogo ser fato mais antigo que a cultura” (Huizinga, 2014, p.3), de acordo com Robert T. Bakie, em seu artigo Games and Society (apud RABIN, 2010, p.61), não se ouvia falar de “desenvolvedores de jogos” até a década de 1980, quando os games – ou “jogos que rodam em microchips de computador”, segundo esse autor – tomaram de assalto o mundo e mudaram o universo dos jogos, começando o que ele define como uma espécie de “Renascença Moderna”, encabeçada pelo desenvolvimento de games.

2.1.1 Respeitando a memória analógica

Para estabelecermos referenciais e termos certa perspectiva para abordar o processo de desenvolvimento de games, decidimos nos referir à história dos games em si, mesmo que sumaria e seletivamente, com foco nas mudanças inerentes ao crescimento dessa indústria e das crescentes exigências de mercado dele resultantes.

Existe uma bibliografia consideravelmente vasta a respeito da história dos jogos em geral e, mais recentemente, surgiram muitas publicações que abrangem especificamente o percurso histórico dos games. A incursão histórica a seguir se baseia no artigo A Brief History of Video Games , de Robert Bakie (apud RABIN, 2010, pp.3-57), no capítulo Historical Elements: How Did We Get Here (NOVAK, 2012, pp.3-35) do livro Game Development Essentials (NOVAK, 2012) e nos livros Videogames: in the Beginning (BAER, 2005) e Phoenix: the Fall and Rise of Videogames (HERMAN, 2001), salvo citações específicas e devidamente apontadas. Visando realçar a presença e a influência dos elementos de desenvolvimento de games nesse percurso, não temos a pretensão de abranger todo seu conteúdo, nem de nos aprofundar criticamente nos pontos de vista dos autores referenciais, mas nos reservamos a liberdade de focar e realçar aspectos que sejam particularmente interessantes para nossa pesquisa.

Estamos cientes de que muitos personagens, títulos de games, franquias, empresas, indivíduos e até mesmo setores inteiros da história das tecnologias envolvidas no universo dos games não serão abordados a seguir, daí a relevância de acentuar a afirmação de que não estamos produzindo aqui um compêndio histórico do assunto, mas sim estruturando um fio

37 condutor que nos viabilize argumentar em torno da evolução do processo e do método de desenvolver games, bem como do gradual crescimento da utilização de elementos de IA Fraca nesse percurso.

O primeiro game de que se tem registro parece haver sido Tennis for Two , inventado no final dos anos 1950, por William Higinbotham, que trabalhava na divisão de instrumentação do Laboratório Nacional de Brookhaven, pertencente ao Departamento de Energia dos Estados Unidos.

Sendo um reconhecido profissional em sua área, e tendo participado anteriormente do Projeto Manhattan e testemunhado testes atômicos, ao ser escalado para ciceronear o “Dia do Visitante”, em 1958, um evento de divulgação anual promovido pelo Departamento e aberto ao público, Higinbotham se sentiu compelido a contrapor a herança de “violência” da era atômica com algo mais sutil e a elaborar uma exibição que retratasse a Ciência e a Tecnologia de maneira amigável e simpática ao público.

Ao mesmo tempo, ciente de que as exibições estáticas não cativaram muita audiência nos anos anteriores, decidiu criar uma atração não apenas animada, mas também interativa, em que dois visitantes poderiam disputar uma partida de tênis, utilizando controles eletrônicos e visualizando o jogo na tela de um instrumento de medição chamado osciloscópio. Nascia assim o conceito do primeiro “game”, um jogo de tênis em “vídeo”.

Algumas curiosidades a respeito desse feito merecem nossa atenção. Primeiramente, precisamos realçar que a tecnologia utilizada nesse primeiro game não era digital. Higinbotham utilizou computadores analógicos interligados entre si para controlar o traço luminoso que desenharia o game na tela do osciloscópio.

Outro destaque era o fato de o game não apresentar uma vista “de cima”, plana, como no game Pong – que no Brasil foi difundido com o nome “Tênis” no console Telejogo da -Ford, no final dos anos 1970 – mas sim uma vista lateral da quadra virtual, como se o observador estivesse alinhado com o plano da “rede” central da “quadra”, o que possibilitava ver “bola” rebater no “chão”, desenhando uma curva em função da relação de sua velocidade ser atenuada pela “gravidade” simulada pelo sistema, auferindo também simulações físicas de massa e elasticidade ao sistema.

Além disso, mesmo sendo o game desprovido de qualquer efeito sonoro planejado em seu projeto, os relés utilizados para chavear os circuitos de uma função para outra, quando da

38 mudança de curso do “projétil” visto na tela, acabaram se tornando um efeito sonoro incidental, pois os altos sons dos cliques desses componentes ao comutar eram não apenas bastante audíveis, como também sincronizados com o aparente rebater da “bola” nas “raquetes invisíveis” e no “chão”.

2.1.1.1 Computadores analógicos

Apenas para referência, computadores analógicos são circuitos eletrônicos dedicados a executar uma única função – matemática ou operacional – a cada configuração física de seus circuitos. Para “programar” um sistema desse tipo é necessário montar um circuito que execute, em termos de variação de tensões e correntes elétricas, as operações desejadas. Em vez de código binário, executado em ciclos e etapas, determinado por um relógio interno de máquina, esses sistemas analógicos operam quase instantaneamente, limitados apenas pelo tempo de resposta dos circuitos envolvidos. Por exemplo, uma função matemática complexa, que demore milhões de ciclos para ser executada em um computador digital, quando expressa analogicamente em forma de circuito eletrônico, oferecerá o resultado sempre de maneira quase instantânea à inserção dos valores em suas variáveis, permitindo até mesmo a visualização simultânea da modificação do resultado diante da variação dos valores de “entrada” da equação, algo impossível para os sistemas digitais do final da década de 1950, e desafiador até mesmo para os melhores computadores da década de 2010 processarem, dadas algumas equações mais complexas como as de criptografia.

Contudo, embora rápidos e eficientes em sua função, computadores analógicos são dispendiosos não apenas em termos materiais, por serem rígidos em sua monofunção conceitual e prática, mas também por requererem expertise em diversas áreas de ciência e tecnologia para serem construídos, adicionando um altíssimo custo humano para sua criação e operação. Outro contratempo dessa tecnologia é a relação custo/precisão, pois os componentes utilizados têm seu custo aumentado quase exponencialmente a cada casa decimal adicionada em sua “nitidez de resolução”.

Tais características, associadas à progressiva redução de custos, aumento de velocidade, flexibilidade e possibilidades de integração dos sistemas digitais, tornaram os computadores analógicos quase obsoletos, reduzindo-os a se tornarem componentes bastante específicos dos sistemas digitais, como interfaces com o mundo físico, sendo reconhecíveis

39 nos conversores analógico-digitais (ADC) e digitais-analógicos (DAC) presentes na maioria dos dispositivos eletrônicos de uso cotidiano na chamada “era digital”.

Sendo essa tecnologia analógica a base de trabalho dos sistemas e instrumentos de medição da época, Higinbotham concebeu o game em algumas horas e, com a ajuda de um técnico especialista em circuitos, demorou em torno de três semanas para realizar a montagem, os refinos de projeto e os ajustes finais do protótipo que viria a ser exposto ao público. Embora tenha chamado atenção dos visitantes e tenha sido um foco de grande atração popular por dois eventos seguidos, o game foi desmontado após a exibição de 1959, e seus componentes foram reciclados em outros projetos, tornando-se um evento isolado na história dos games, sem ser reconhecido sequer por seu criador como algo com potencial de ser mais do que mera curiosidade.

2.1.2 Respeitando a memória digital

Oficialmente, a despeito da raridade dos computadores digitais no início dos anos 1960, a inauguração da era digital dos games ocorreria um pouco depois, em 1961, quando um aluno do MIT chamado Steve Russel criou um game que ele chamou de Spacewar , utilizando um sistema de grande porte da universidade, um caríssimo (U$ 120.000,00 em 1961, que equivaleriam a aproximadamente US$ 1.000.000,00 em 2017) e então novíssimo DEC PDP-1, como plataforma.

A primeira versão desse game para dois jogadores levou um semestre para ser criado e Russel investiu em torno de 200 horas de seu tempo no projeto. O objetivo do game era o de cada jogador controlar uma “espaçonave” na tela, manobrando-a enquanto tentava “destruir” a nave do adversário disparando “tiros” contra ela.

Contudo, na primeira metade de 1962, o game já ganhava adendos e modificações criadas por colegas de Russel. O programa Expensive Planetarium foi adaptado por Pete Sampson para criar um fundo estrelado dinâmico como cenário. Dan Edwards adicionou propriedades de simulação gravitacional ao programa, posicionando um “sol” cintilante no centro da tela, que atraía as naves, forçando os jogadores a manobrar mais a fim de evitar que suas naves fossem destruídas ao se chocarem com a grande estrela. Martin Graetz adicionou a última modificação significativa, introduzindo o conceito de “hiperespaço” ao game, criando

40 a capacidade de um jogador, ao ver sua nave na iminência de ser destruída, fazê-la teletransportar-se instantaneamente para outro local, totalmente aleatório, da tela.

Quando o game, já com todas as adições, foi apresentado em uma mostra científica do MIT, o sucesso foi estrondoso entre os presentes. Mesmo assim, embora desejasse muito transformar sua criação em uma fonte de renda, Russel nunca ganhou dinheiro diretamente com Spacewar , pois o custo inicial do equipamento tornava inviável, no contexto da época, qualquer modelo de negócio que vislumbrasse lucro.

O que Russel fez, em seguida, foi tornar seu game um bem de domínio público, distribuindo o programa e seu código fonte gratuitamente pela ARPAnet (precursora acadêmico-militar da Internet). Em pouco tempo, a maioria das universidades tinham uma cópia do game em seus sistemas e, eventualmente, o próprio fabricante do computador PDP-1 passou a incluir Spacewar no pacote de programas que acompanhava cada Mainframe, gratuitamente, difundindo-o ainda mais, além do meio universitário.

A semente dos games da era digital estava plantada, mas demoraria pelo menos uma década para que o refino das tecnologias e o escalamento massivo da produção barateassem os componentes a ponto de criar plataformas acessíveis o bastante para viabilizar um modelo de negócio que possibilitasse a real popularização dos games.

2.1.2.1 A odisseia da Magnavox

Um importante e visionário passo nessa direção foi dado por Ralph Baer, um projetista de televisores que, em 1966, a despeito de estar trabalhando para uma empresa – Sanders Associates – que desenvolvia projetos para as forças armadas estadunidenses, teve a ideia de fazer um game que as pessoas pudessem ligar nos televisores domésticos, em casa. Por ser um gerente de divisão liderando mais de 500 funcionários, Baer conseguiu alocar dois engenheiros, Bob Tremblay e Bob Solomon, para desenvolver discretamente tal projeto, além de aliciar a participação de Bill Harrison e outros técnicos e engenheiros da empresa.

A despeito da resistência da diretoria da Sanders quando da apresentação do primeiro protótipo – uma seleção de sete games, incluindo um de tiro-ao-alvo em que o jogador tentava acertar um alvo móvel na tela do televisor com um rifle de plástico, a alguns metros de distância – o superior imediato de Baer, Herb Campman, revelou-se um grande “atirador”

41 durante os testes e ficou apaixonado pela ideia, defendendo a continuidade da proposta e conquistando a simpatia de Henry Argento, o membro da diretoria que mais se empolgou com a demonstração, que eventualmente convenceu o grupo a investir mais em pesquisa e desenvolvimento.

O projeto prosseguiu e, em 1968, os engenheiros da empresa já haviam desenvolvido mais alguns games estáveis, funcionais e supostamente interessantes, como tênis de mesa e hockey, entre outros. Após muito debate a respeito de como selecionar os games, decidiram ativar cada um deles por meio da inserção de um “cartão de game” ( gamecard ) que deveria ser conectado ao circuito do game em si, que passaria a atuar como um “console” de games. O equipamento seria dotado de um par de dispositivos de controle ( control paddles ), pequenas caixas com botões rotativos e de pressão, e o console em si teria chaves para acionar o sistema e ativar funções.

Esses gamecards não possuíam componentes eletrônicos, mas apenas uma série de ligações diretas (jumpers ) que “configuravam” os circuitos e determinavam como os elementos do game se comportariam na tela. São considerados precursores e base de inspiração dos “cartuchos” de game ( game cartridges) que dominariam o modelo dos games domésticos nas décadas seguintes.

Por não estar relacionada à indústria de brinquedos ou a de televisores, a Sanders decidiu estabelecer uma parceria com alguma das grandes empresas dessas áreas, abordando inicialmente executivos dos maiores fabricantes de televisores da época nos EUA, como General Electric, Zenith, Sylvania e Magnavox.

Já em 1971, após muitos ajustes de projeto, refino de processos e inclusão de mais alguns avanços da tecnologia, estando na sétima iteração de seus protótipos, chegando a um sistema híbrido que era ainda predominantemente analógico, apenas com algumas funções de tecnologia digital, Baer e Rusch firmaram, por fim, um contrato entre a Sanders e a Magnavox – empresa esta responsável pela invenção do transdutor eletroacústico de cone móvel, ou “altofalante”, e que naquele período se dedicava a fabricar dispositivos que usassem seus autofalantes, como rádios, televisores e aparelhos telefônicos.

Um ano depois chegava às lojas o Magnavox Odyssey, em setembro de 1972, visando as compras de final de ano. As opiniões quanto ao sucesso do empreendimento são variadas. Bakie (RABIN, 2010, p.6) sugere que o console de games nunca foi capaz de atingir as

42 massas populares, por conta da divulgação insuficiente e inadequada e, principalmente, do preço elevado: U$ 100.00 em 1972 equivaleria a U$ 590.00 em 2017, aproximadamente 20% mais caro do que o console de games de preço mais elevado lançado em 2017, o Xbox One X.

Considerando que no início dos anos 1970 um console de games era um conceito inovador, uma tecnologia desconhecida, um produto inteiramente novo que precisaria criar sua própria demanda, os argumentos do autor parecem bastante razoáveis. Principalmente se levarmos em conta que o referido lançamento de 2017 teve a alavancagem de ser uma nova iteração de uma franquia decana de enorme sucesso, com uma enorme base instalada mundialmente, promovido em meio a grandes expectativas que foram geradas e alimentadas por uma máquina de propaganda gigantesca e milionária.

Por outro lado, 100 mil unidades do Odyssey foram vendidas no primeiro ano e mais de 350 mil consoles já haviam sido comercializados quando a Magnavox parou de produzi-lo, em 1975, logo depois de a empresa ser adquirida pela , em 1974. Já operando como a subsidiária estadunidense da “gigante holandesa”, lançou em 1978 o Odyssey 2, um console que utilizava cartuchos de games em vez de cartões de configuração, controles do tipo “joystick”, gráficos coloridos e efeitos sonoros, indicando que o produto original teve sucesso suficiente de mercado para levar a empresa e investir numa renovada e muito aprimorada iteração do primeiro do console de games registrado pela história.

2.1.2.2 O movimento decisivo da Atari

Outro desenvolvedor que teve um papel significativo na história dos games foi Nolan Bushnell. Enquanto era estudante de engenharia na Universidade de Utah, em meados da década de 1960, teve seu primeiro contato com programação de computadores e computação gráfica. Foi lá onde se tornou também um ávido jogador do game Spacewar , de Steve Russel, em seu tempo livre – prática aparentemente comum para a maioria dos estudantes que tinha acesso ao computador da instituição.

Contudo, tendo arrumado emprego num parque de diversões para se sustentar na vida universitária, aprendeu a lidar com público e a estimular os visitantes a comprar ingressos para todo tipo de entretenimento. Foi lá que Bushnell adquiriu experiência em manutencionar máquinas de fliperama e outros jogos eletromecânicos acionados por moedas.

43 Após se formar, inspirado pelo conjunto de suas experiências, tanto acadêmicas, quanto profissionais, decidiu que já era hora de seu game predileto, Spacewar , alcançar o grande público. Tendo larga experiência com o ambiente de arcade dos fliperamas, concebeu o jogo Computer Space , uma variação de Spacewar , como uma máquina de game no mesmo formato dos jogos de arcade, mas completamente eletrônico, criando um computador dedicado apenas para executar seu game, instalado em um “armário” com uma tela, controles e, obviamente, um coletor de moedas como dispositivo de acionamento do game.

Para realizar seu projeto, ele abordou a empresa Nutting Associates em 1969, que atuava na área fliperamas. Por já estarem investindo na tecnologia de computação voltada ao entretenimento, os executivos da empresa reconheceram a oportunidade e investiram no licenciamento do game de Bushnell. Não apenas isso, mas também o contrataram como engenheiro-chefe para esse novo setor que estava sendo criado na empresa.

Com o lançamento de Computer Space, instalado em suntuosos gabinetes de formas futuristas e laminados coloridos, em novembro de 1971, nascia a primeira geração de games de vídeo para ambientes de arcade ( Arcade Videogames ). Em pouco tempo, mais de 1500 unidades estavam prontas e operacionais.

Contudo, a despeito dos esforços de engenharia de Bushnell, o setor de publicidade da Nutting não estava tendo muito sucesso em convencer os donos dos arcades (salões de fliperama) a adquirir ou alugar o equipamento, alegando que consideravam o game muito complexo e intimidador para seu público. Frustrado com o que ele via como incompetência por parte das áreas de publicidade e vendas da Nutting, e sentindo-se confiante em sua própria capacidade de se dar melhor na mesma tarefa, Nolan Bushnell deixa a parceria e começa sua própria empresa em 1972, a Atari – palavra que, no jogo oriental de tabuleiro Go , significa um movimento de ataque, equivalente ao “cheque” no jogo de xadrez – juntamente com seu parceiro de investimentos e co-criador de Computer Space , Ted Dabney.

Tendo deixado sua criação para trás, Bushnell se dedica a reduzir suas perdas ao tentar criar um novo game de corrida – que seria desenvolvido em parceria com a Cyan Engeneering e produzido em conjunto com a fabricante de fliperamas Bally para ser futuramente lançado em 1974 com o nome de Gran Trak 10 , ou GT10 , um dos primeiros games de corrida. Projeto complexo, usava como base a arquitetura de hardware e de software de Computer Space , e uma interface dos brinquedos de corrida eletromecânicos mais avançados da época, com volante, pedais e alavanca de câmbio. Reconhecendo que isso levaria muito tempo, e ciente da

44 necessidade de ter um produto o mais brevemente possível para colocar no mercado, depois de ver o Odyssey em um evento ele contratou Al Alcorn e o incumbiu de desenvolver um novo game de pingue-pongue, algo simples, apenas com uma “bola” e duas “raquetes”.

O protótipo ficou pronto três meses depois e, antes de colocá-lo em produção, Bushnell preferiu testar a estabilidade do sistema e, ao mesmo tempo, descobrir o que as “pessoas comuns” achariam do game. Para tanto, aproveitando o relacionamento que mantinham com o proprietário de um bar local, para o qual a Atari prestava os serviços de locação e manutenção de máquinas de fliperama, consegue permissão para instalar o game, então batizado como Pong , no estabelecimento. A recepção inicial, após as primeiras horas de observação, pareceu-lhes animadora.

Contudo, alguns dias depois, foram contatados pelo proprietário que reclamava de a máquina estar com problemas. Quando inspecionada, descobriu-se que o sistema de coleta de moedas havia emperrado por sobrecarga: o cofre que deveria suportar um uso médio de um mês, quando instalado numa máquina de fliperama, acabou ficando cheio em apenas alguns dias, antes mesmo da coleta semanal programada pela empresa. Com essa referência de sucesso, Pong entrou em produção e começou a ser comercializado.

Não demorou para que a Magnavox processasse a Atari pelos direitos sobre Pong , dada sua semelhança com o game Tennis do console Odyssey, começando uma disputa de patentes que se arrastaria até 1976, com um acordo que Bushnell apelidaria futuramente de “queridinho” ( sweetheart deal ), no qual a Atari pagou setecentos mil dólares à Magnavox, uma única vez, pelo licenciamento vitalício e completo dos itens em disputa. Como parte do acordo, a Magnavox passaria a perseguir ativa e agressivamente todos outros fabricantes de games quanto aos pagamentos de royalties, em quaisquer casos aplicáveis, deixando a Atari de fora.

Fato é que a Magnavox também precisava licenciar partes das patentes da Atari, como, por exemplo, o conceito e a técnica de inserir algum tipo de placar nos games, pois o primeiro Odyssey funcionava mais como um “tabuleiro eletrônico”, junto com o qual eram fornecidos vários itens, como ilustrações translúcidas – ou “ overlays” – que deveriam ser colocadas diante da tela do televisor para constituir o “cenário” do game, e também cartas, dados e fichas plásticas, similares às utilizadas nos cassinos, que eram usadas para contagem de pontos e estabelecimento de quem venceria as competições.

45 Se Ralph Baer havia pensado seu conceito de console de games como se fosse uma caixa de jogos de tabuleiro para a família, Bushnell concebeu seus games para arcade partindo do paradigma dos salões de fliperamas, em que todos os componentes deveriam estar contidos no dispositivo em uso, inclusive o placar, os controles e o tradicional coletor de moedas, em um sistema autossuficiente.

Ao olharmos analiticamente para esse primeiro momento da história dos games, indo além das características anedóticas de algumas passagens e das possíveis evocações nostálgicas de outras, podemos reconhecer um processo quiçá evolutivo dos games no qual surgiram elementos e relações que se tornaram fundamentos relevantes e inseparáveis de seu modo de desenvolvimento, como uma assinatura genética que se manteve presente pelas transformações e adaptações seguintes pelas quais passariam.

Como parece acontecer com qualquer indústria humana, a dos games vem sendo marcada por competição e um processo de criação “interfágico” entre os competidores, que produzem algo novo ao consumir as criações dos competidores para, em seguida, ver suas novas “proles” também devoradas, perpetuando o ciclo.

Diante da liberdade do acordo estabelecido com a Magnavox, a Atari lança, em 1977, seu próprio console de games para uso doméstico baseado em cartuchos, o Atari Video Computer System (Atari VCS), que mais adiante seria renomeado para Atari 2600. Embora não tivesse sido a primeira empresa a seguir o caminho da Magnavox nesse segmento de mercado, diferentemente dos malsucedidos Fairchild VES e RCA Studio II, o Atari VCS foi um grande sucesso de vendas e se tornou a referência da indústria nos anos que se seguiram, pelo menos até a crise do mercado dos games de 1983.

A empolgação com o sucesso explosivo da segunda geração dos consoles de games levou ao surgimento de múltiplos desenvolvedores, lançando uma grande quantidade de títulos, mas muitos deles de baixa qualidade e nada interessantes para o público, gerando devoluções e encalhes de mercadoria nos estoques. Prejuízos começavam a se acumular no início da década de 1980, e um concorrente inesperado começou a competir pelo espaço do console de games nas residências, os computadores pessoais, ou PCs.

Antes caros e restritos às grandes empresas, os computadores se tornavam progressivamente mais baratos e acessíveis em sua versão “pessoal”, começando a ganhar espaço nas vidas das pessoas. Para a família, além da possibilidade de rodar versões adaptadas

46 dos mesmos games dos consoles e dos arcades, ofereciam ainda a alternativa, até então inédita, de funcionar com editores e processadores de textos e planilhas, além de outros programas para as mais variadas aplicações. O argumento de ser um instrumento de formação profissional tinha um apelo especial para pais conscienciosos, parecendo-lhes uma ferramenta importante para a preparação dos filhos para suas futuras carreiras.

Diante de tais pressupostos contextuais, duas grandes falhas de lançamentos da Atari, no começo dos anos 1980, foram suficientes para consolidar a crise e afastar os grandes investidores do mercado de games – a versão de Pac-Man para o Atari 2600 ficou tão inferior ao game original na Namco para arcade que gerou um grande desapontamento nos consumidores e perdas financeiras para todos os envolvidos. Mas foi o game ET , baseado no filme homônimo do diretor Steven Spielberg, e licenciado por vinte milhões de dólares, que causou o maior prejuízo isolado (causado por um game apenas) até então nessa indústria. Diante do fiasco e das perdas, empresas como a Coleco e a Mattel, além da própria Magnavox, decidiram sair do mercado de games.

Mesmo tendo sobrevivido ao choque inicial, permanecendo quase isolada por um ano no então desacreditado cenário norte-americano dos games, a Atari declinava progressivamente em direção ao encerramento de suas atividades, em julho de 1984.

2.1.2.3 A cartada da Nintendo

A reviravolta desse contexto seria iniciada por uma empresa centenária, sediada do lado oposto do globo-terrestre. A Nintendo, empresa japonesa fundada em 1889 e conhecida originalmente por produzir cartas para um jogo de baralho tradicional japonês (hanafuda), havia estabelecido laços comerciais com a indústria de entretenimento estadunidense após a segunda grande guerra, alcançando renome ao ser licenciada para fabricar cartas de baralho em estilo ocidental com ilustrações originais da Disney, expandindo rapidamente seu repertório para abranger também o ramo de brinquedos.

No final dos anos 1970, quando a indústria de brinquedos convergia em direção ao uso de tecnologias eletrônicas e muitas empresas do ramo começavam a produzir games, a Nintendo se preparava para entrar na disputa ao colocar nas mãos de Gunpei Yokoi a responsabilidade de criar a linha Game and Watch de minigames portáteis. Compactos e sofisticados, esses games possuíam uma ou até duas telas de LCD em um dispositivo leve,

47 pequeno (deveriam caber no bolso interno de um paletó), capaz de produzir efeitos sonoros e com boa autonomia de funcionamento, operando apenas com pequenas baterias descartáveis.

Lançados em 1980, representavam o estado da arte em termos de inovação no mercado de games, desvinculando o jogador do ambiente doméstico ou do arcade, introduzindo também um novo conceito de controlador de jogos, com uma cruzeta similar ao sinal matemático de adição (+) substituindo o tradicional joystick dos games de arcade e de consoles domésticos.

Os mais de 50 modelos diferentes de Game and Watch compartilhavam também outras duas características em comum, explicitadas em seu nome: cada um deles era um game e também tinha a função de relógio ( watch ), com múltiplos alarmes e curiosos efeitos de animação na(s) tela(s), marcando o compasso dos segundos. Essa característica peculiar tornava os portáteis da Nintendo uma atração e uma curiosidade, quer estivessem expostos na mesa de trabalho de alguém, quer estivessem numa estante de casa, despertando o desejo até mesmo daqueles que até então ainda não tinham feito seu primeiro contato com os games. Cada unidade só oferecia um game, então era comum comprar mais de um. Ao promoverem suas próprias vendas e estimular a iniciação de novos jogadores de todas idades, esses supostos “brinquedos” pavimentaram o caminho para a entrada da Nintendo no mercado de consoles de games domésticos com um nome já forte, associado à inovação e diversão.

Paralelamente ao desenvolvimento e lançamento dos Game and Watch , uma outra divisão da Nintendo já fabricava, desde 1978, games em formato de arcade. À época, seu foco era produzir e lançar jogos similares (clones ou aproximações) aos maiores sucessos das grandes empresas do ramo. Sequiosa por alcançar o mercado norte-americano de maneira independente, recusou-se a depender das tradicionais e limitadoras parcerias: suas maiores rivais no Japão – Taito e Namco – se associaram à mesma empresa para entrar nos EUA, a Midway, divisão de games para arcade da gigante dos fliperamas Bally. Tal monopólio inviabilizara, até então, a competição entre títulos similares entre si no Ocidente,

O ambicioso passo seguinte seria a criação da Nintendo of America em 1980, sediada nos EUA, filial que inicialmente se tornaria o canal direto de entrada de seus games em formato arcade no país e, eventualmente, no continente. Diante do sucesso dos games cossimilares Space Invaders (Taito) e Galaxian (Namco), a Nintendo envia três mil unidades de sua própria releitura do mesmo estilo de game, Radar Scope , da fábrica no Japão para a

48 filial estadunidense. Mas as vendas decepcionaram e apenas mil máquinas foram colocadas no mercado, deixando dois terços do estoque encalhado.

A despeito da maior sofisticação de seu “similar”, que apresentava um ponto de vista inclinado, colocando a ação em perspectiva e com “profundidade”, diferentemente das versões de seus competidores, que apresentavam ponto de vista plano e reto, de cima para baixo, o público do Ocidente não parecia impressionado. Como solução, incumbiram o então jovem, mas já talentoso, projetista e designer Shigeru Miyamoto, da tarefa de criar um game que não apenas funcionasse nos gabinetes já montados de Radar Scope, mas também que pudesse ser implementado rapidamente, com a menor quantidade possível de modificações e, principalmente, que seduzisse o jogador norte-americano.

Miyamoto começou pela criação de uma história bastante elaborada: um gorila iria raptar a namorada de um carpinteiro e aprisioná-la no alto de uma construção, obrigando o agora “herói” a tentar resgatar a jovem escalando a estrutura precária e, ao mesmo tempo, esquivando-se de barris e outros ataques lançados pelo primata enfurecido. O primeiro nome que o autor designou para o game foi Stubborn Gorilla (gorila teimoso), mas isso não o satisfez. Pesquisando, descobriu que coloquialmente era comum chamar uma pessoa muito teimosa de “ donkey ” (jumento ou jegue – animal famoso por empacar sem motivo aparente) e, sem temer revelar sua fonte de inspiração original – o filme King Kong de 1976, de John Guillermin e Dino De Laurentiis – utiliza a palavra “ kong ” para designar seu gorila.

Donkey Kong foi um sucesso imediato logo no lançamento, em 1981, e em poucos meses todas unidades estavam vendidas e outras milhares haviam sido encomendadas. Anos mais tarde, ao encerrar a produção desse título em formato arcade, a Nintendo registraria a fabricação de um total de mais de 65 mil unidades apenas nos Estados Unidos. O carpinteiro- herói, conhecido inicialmente apenas como “ jumpman ” (homem que salta), seria logo rebatizado como Mario e viria a ser um personagem “digital” absolutamente icônico, tendo aparecido em mais de 80 games em seus primeiros 35 anos de existência e, sem sinais de estar próximo do término para sua “carreira”, há fortes indícios de que esse número deverá aumentar no futuro.

Reconhecida como a criadora dos Game and Watch , de Donkey Kong e do adorado Mario , que em 1983 protagonizara o game de arcade Mario Bros , a Nintendo lança, em 1985, seu console doméstico de games nos EUA, o Nintendo Entertainment System – posteriormente conhecido como NES – iniciando a “terceira geração” dos consoles e

49 inaugurando uma segunda “idade do ouro” dos games, alavancando a retomada da indústria e chegando a dominar 90% do mercado por algum tempo. Durante os anos seguintes, o nome “Nintendo ” começou a ser usado como sinônimo de console de games, pelo menos até o final dos anos 1990, quando o nome “ Playstation ” veio a substituí-lo nessa generalização identificadora entre uma marca popular e uma categoria de produto.

Cabe observar que a Nintendo lançou anteriormente no Japão, no final dos anos 1970, uma série de games domésticos dedicados chamados TV-Game , sendo dois deles variações de Pong (1977), um deles de corridas (1978) – Racing 112 foi o primeiro projeto de Miyamoto e além dos dois controles, apresentava um volante e uma alavanca de câmbio no corpo do console, que funcionava como interface para o modo de jogador único – outro era um game chamado Block Breaker – clone do game Breakout – e, por fim, um jogo de tabuleiro chamado Othello (1980), também conhecido como Reversi ou Connect4 .

Estando o mercado japonês parcialmente isolado da crise que assolou o ramo de games norte-americano, a Nintendo lança seu console de games doméstico, o Family Computer, ou Famicom, em meados de 1983, ao mesmo tempo em que a Atari enfrentava a iminência de sua falência na América. O Famicom foi completamente remodelado para ser lançado no ocidente, com um gabinete maior, visualmente similar a um aparelho de Videocassete (VCR), e sem menção a “game” no nome, para evocar a ideia de entretenimento e afastar a desconfiança geral criada pelos fiascos finais associados à Atari.

Uma inovação mercadológica e tecnológica introduzida por meio do Family Computer no Japão que nunca chegou nos EUA foi o Famicom Disk System, ou FDS, lançado em 1986. Com essa unidade conectada ao console, o usuário podia utilizar um disco magnético dedicado como se fosse um cartucho de game. A Nintendo instalou máquinas de venda automática de games em disco em diversos centros comerciais do Japão, nas quais o usuário poderia adquirir o disco com um game ou mesmo reaproveitar um disco comprado anteriormente ao inseri-lo na máquina e selecionar a opção de regravar o disco com um novo título. A operação era toda automatizada, inclusive o pagamento, de modo que os jogadores poderiam saciar seu desejo por adquirir novos jogos em qualquer horário, sem ter de se submeterem ao horário das lojas.

Essa tecnologia de disco não apenas barateava o custo de produção como aumentava as capacidades do Famicom, já que o limite máximo de memória de um cartucho costumava ser de 48KB e o disco conseguia armazenar 112KB de dados. Contudo, conforme o preço dos

50 semicondutores em geral caía progressivamente, e por conseqüência dos chips ROM, PROM e EPROM utilizados na fabricação de games, bem como a capacidade de armazenamento desses componentes aumentava, a tecnologia do FDS foi se tornando irrelevante até ser descontinuada e praticamente desaparecer em alguns anos. Mesmo assim a Nintendo manteve o atendimento e o suporte técnico ativos para os usuários dessa tecnologia até o ano de 2003.

A impressão inicial dos empresários do setor, na época, era a de que enquanto o mercado ocidental em geral parecia mais atraído pelos games com predominância da ação, os consumidores japoneses se mostravam ávidos consumidores não apenas desse estilo dinâmico de entretenimento, mas também dos games de aventura do estilo Role-Playing Game, ou RPG, com histórias longas e intrincadas, focados principalmente em sagas de personagens que colocavam o jogador em algum papel heroico.

Esse estilo de game de duração mais prolongada requeria a possibilidade de o jogador parar, desligar o sistema e depois continuar de onde parou ao recomeçar, algo dispendioso para se realizar com a tecnologia de cartuchos daquele momento, mas simples de fazer com uma unidade de disco magnético. Além disso, para suportar gráficos e animações mais complexos, e trilha sonora extensa, a maior capacidade do FDS se mostraria fundamental, tornando-se plataforma exclusiva para muitos games RPG de aventura de enorme sucesso.

Essas características e preferências identificadas no começo da segunda “idade do ouro” dos games iriam moldar o desenvolvimento de games, e dessa indústria como um todo, desse momento em diante. Mas precisamos contextualizar pelo menos mais alguns dos grandes atores dessa revolução “tecnocultural” proporcionada pelo entretenimento eletrônico para tentar compreender como ocorreu a entremeada tecelagem de quesitos e necessidades que, na década de 2010, precisariam ser preenchidos por componentes tão complexos como algoritmos preditivos, aprendizagem de máquina e inteligência artificial, entre outros, para o desenvolvimento de games.

2.1.2.4 O sucesso espinhoso da SEGA

Dick Stewart e Ray Lemaire, ambos estadunidenses, criaram no Japão a empresa Service Games para instalar e manter máquinas jukebox, fliperamas e outros dispositivos de entretenimento eletro-mecânico nas bases militares norte-americanas na região do Mar do Japão. Diante das oportunidades oferecidas pela recuperação da economia nipônica no

51 período pós-guerra, os dois empreendedores decidiram renomear a empresa como Sega (de ‘SE’rvice ‘GA’mes) para se voltarem ao mercado de entretenimento japonês.

Associando-se, em 1965, à Rosen Enterprises, empresa de outro estadunidense que, desde 1953, mediava a importação de fliperamas e outros jogos eletro-mecânicos de arcade dos Estados Unidos para o Japão, reconheceram o potencial daquele mercado para consumir novidades e, nos anos 1970, compraram a empresa californiana Gremlin e começaram a lançar games de arcade em terras nipônicas.

Nos anos 1980, a Sega Enterprises decidiu investir em pesquisa e desenvolvimento para o setor de entretenimento doméstico e entrar no mercado de consoles de games, lançando o SG-1000 no Japão em 1983. A terceira versão desse console, conhecida como Mark-III, foi renomeada e lançada mundialmente em 1985 com o nome de Sega Master System.

Tendo encontrado sérias dificuldades em conseguir contratos com as grandes produtoras de games, a maioria delas já comprometida com contratos de exclusividade com a Nintendo, a solução encontrada pela Sega foi a de aumentar seu catálogo lançando adaptações de seus próprios títulos de games de Arcade para o console doméstico, o que exigiu imensa criatividade dos desenvolvedores para manter um nível de qualidade aceitável sem aumentar o custo, evitando assim um fiasco similar ao que assolou os últimos dias do Atari 2600.

A despeito de alcançar números respeitáveis de consoles e games vendidos, o Master System não passou de um distante segundo lugar de popularidade e vendas quando comparado ao concorrente NES, mas abriu caminho para seu sucessor na geração tecnológica seguinte dos consoles, o Mega-Drive (no Japão) – ou Genesis (nos EUA) – plataforma na qual surgiria, em 1991, o protagonista Sonic The Hedgehog , ou simplesmente Sonic : uma criatura azul de olhos grandes e lombo espinhoso que arrebanharia uma legião de fãs. Vale ressaltar que, dentre suas características, apenas o focinho e os espinhos fariam jus ao sobrenome “O Ouriço”, tradução correta da expressão “ The Hedgehog ”, a despeito de muitos articulistas e “dicionários livres” da internet traduzirem “ hedgehog ” erroneamente como “porco-espinho”, que seria “ porcupine ” em inglês. De qualquer modo, essa seria a primeira vez que a Nintendo veria a ascensão de um “personagem mascote” capaz de fazer frente a seu, até então hegemônico, encanador-herói.

Na “guerra dos consoles”, podemos assumir que a Sega venceu a primeira “batalha dos mascotes” e conseguiu superar a Nintendo pelo menos uma vez nas vendas de consoles e

52 games, na “quarta geração”, durante o ano de 1992, mesmo que no cômputo geral o Mario nunca tenha perdido o primeiro lugar para o Sonic em quantidade de títulos protagonizados e em quantidade de unidades de game vendidas.

2.1.2.5 A visão ousada da NEC

Muitas empresas lançaram consoles de games, algumas com sucesso relativamente bom, como o PC Engine (Turbo Grafx 16 Enterteinment Systems nos EUA) da japonesa NEC, inovando tecnologicamente o mercado de games ao utilizar uma arquitetura de projeto mais sofisticada, marcada por utilizar multiprocessamento híbrido com núcleos dedicados, com processador gráfico poderoso de 16 bits separado do processador principal de 8 bits, além de usar um tipo memória mais veloz e eficiente. Tudo isso ainda em 1987, inaugurando a “quarta geração” e forçando o ciclo de renovação tecnológica de consoles muito antes dos quase 10 anos de duração do período anterior, desencadeando o que viria ser uma aparentemente interminável “guerra dos consoles”.

Mesmo não alcançando grande volume de vendas fora do Japão, a NEC chegou a lançar uma significativa quantidade de novos modelos nos anos seguintes, bem como conseguiu lançar diversos títulos de grande sucesso no mundo dos games, alguns deles com exclusividade, inaugurando inclusive a utilização da tecnologia de CD-ROM em consoles domésticos ainda no final dos anos 1980, expandindo em muito o conceito de distribuir games em disco ao descartar o já obsoleto sistema de disco magnético da Nintendo e adotar armazenamento em disco ótico muito antes de qualquer empresa do setor, pressionando ainda mais a concorrência e injetando energia na corrida tecnológica que se tornou parte fundamental da disputa pelo mercado de entretenimento eletrônico doméstico.

2.1.2.6 Avanços geracionais e diversificação

No dinâmico, competitivo e extremamente fluido mercado dos games, vemos mudanças de vários tipos e em todos os frontes.

A Magnavox, que desenvolveria o Odyssey 2 em parceria com a Intel, seria então adquirida pela Philips e se tornaria o braço estadunidense de equipamentos eletrônicos da gigante holandesa, para, em seguida, sair definitivamente do mercado de games ao ver seu

53 produto obliterado pela concorrência, optando inclusive por não investir em computadores pessoais – ou PCs, que eventualmente viriam a ser uma forte plataforma de games – no mercado norte-americano e lançando apenas um sistema de processador eletrônico de texto – Magnavox Videowriter – na segunda metade dos anos 1980, algo similar a um PC mas que não permitia a execução de games ou quaisquer outros programas, pois apenas processava, armazenava e imprimia textos.

No início dos anos 1990, a empresa revenderia a linha Philips Cdi europeia com o nome de Magnavox Cdi em território norte-americano, um dispositivo “multiplayer” com funções de CD-Player (reprodutor de música e vídeo), navegador de internet e console de games, sem participar do desenvolvimento do produto e limitando-se à adequação técnica do equipamento às normas estadunidenses e à adaptação de alguns títulos para o mercado local.

Já a Philips, atuando fora dos EUA, investiria pesadamente em fabricar computadores pessoais, inicialmente na plataforma de 8-bits MSX desenvolvida pelo braço japonês da Microsoft para tentar padronizar os sistemas de computação pessoal na Ásia e no Leste Europeu, e posteriormente no padrão IBM-PC. O conceito híbrido entre computador pessoal e console de games do MSX, caracterizado pelo fato de poder utilizar games em cartuchos como os consoles e também ser um sistema computacional completo, tornou essa plataforma um sucesso em todo o mundo, exceto nos EUA, em que o mercado de PCs de 8 bits foi dominado principalmente pela então estreante Apple, com o Apple ][ e o Apple ][+, e pela veterana das máquinas de escrever e calculadoras Commodore, com o VIC-20 e o C64. O MSX também não foi tão bem-sucedido no Reino Unido, região em que o setor dos computadores pessoais foi controlado inicialmente pela Sinclair com os modelos ZX81 e ZX- Spectrum.

Após a “partilha” da marca ocorrida após a crise de 1983, a Atari se segmentaria em ainda mais divisões além das de Games para Arcade, Consoles de Game e Games para consoles, lançando uma linha de PCs próprios, softwares e games para seus PCs e para outras plataformas de computação pessoal, e até mesmo de acessórios para produção de música digital – com a Yamaha. Depois da quebra do mercado de games de primeira geração, a empresa dividiria suas operações em empresas distintas, variações da marca mudariam de donos várias vezes e o desenvolvimento de novos games para Arcade e para PCs de diversas plataformas continuaria intermitentemente por meio de acordos, produção OEM e licenciamentos.

54 A marca faria uma última investida no mercado de consoles para games com o lançamento do modelo Jaguar, em 1993, anunciado como sendo uma plataforma de 64 bits enquanto a predominância do mercado era de consoles de 16 bits. Por diversos motivos, incluindo preço elevado, marketing deficitário e pequena quantidade de títulos, o Jaguar não alcançou fatia de mercado suficiente para competir com as plataformas tecnicamente inferiores contra as quais concorria, servindo como exemplo ao argumento de que apenas superioridade tecnológica, isoladamente, não implica em garantia de sucesso.

O mesmo poderia ser dito a respeito de outros projetos de consoles de games e híbridos entre consoles, tocadores de vídeo e música, navegadores da internet e outras funções que apareceram no começo dos anos 1990, como o sistema 3DO lançado por um consórcio liderado pela Panasonic, e o Commodore CDTV, ambos bastante similares ao Philips Cdi, porém mais focados em Games, bem como o console de games Amiga CD32. Esses e outros equipamentos de tecnologia considerada “à frente de seu tempo” sucumbiram perante tecnologias inferiores, quer tenha sido por problemas de custo, por marketing deficiente ou por qualquer outra razão.

A Sega adotaria rapidamente a solução da NEC ao lançar, em 1991, uma unidade externa de CD-ROM chamada Sega CD (Mega CD no Japão) para ser acoplada em seu console de 16 bits, o Genesis/MegaDrive, viabilizando toda uma nova amplitude de recursos que enriqueceria em muito os games exclusivos para esse formato de armazenamento, como sequências de vídeo e animações de qualidade cinematográfica, entre outros, que requeriam vastas quantidades de memória. Em seguida lançaria um módulo chamado Sega/Mega 32X que, quando conectado ao Genesis/Mega-Drive transformava o console em uma plataforma de 32 bits de processamento. Uma unidade compacta chamada Sega/Mega CDX, que era um console Genesis/Mega-Drive compacto com entrada para cartuchos convencionais e com leitor de CD-ROM incorporado, em um invólucro similar ao de um CD-Player portátil (similar ao Diskman da Sony), chegaria ao mercado pouco depois.

Quase simultaneamente, precisaram criar um setor para sustentar e desenvolver games para a plataforma modular que ficou conhecida como Sega-CD 32X, para dar conta da incorporação tanto das funcionalidades de 32 bits quanto da unidade de CD-ROM em situações nas quais ambos dispositivos estivessem conectados ao Genesis/Mega-Drive ao mesmo tempo.

55 No começo dos anos 1990, com o console de 8-bits ainda em produção para atender os mercados de países ditos “emergentes”, e adicionando os portáteis Game Gear (Master System portátil com tela colorida embutida) e Nomad (Genesis/Mega-Drive portátil com tela colorida incorporada) e o console de games educacionais para o mercado infantil Sega Pico, além das variações 32X, CD e 32x-CD da plataforma 16 bits, a Sega mantinha seis plataformas distintas de games fisicamente incompatíveis entre si, quando lançaria seu console integralmente em 32 bits chamado Sega Saturn, antes do Natal de 1994, completando sete formatos de meios de armazenamento distintos e simultâneos para seus games.

Em 1991 a Nintendo, utilizando o personagem Mario ostensivamente como “garoto propaganda”, lançaria o Super NES de 16-bits em confronto direto com o Genesis/Mega- Drive da Sega, mas também respondendo à pressão tecnológica do PC-Engine/Super-Grafx da NEC e dos diversos PCs MSX, plataformas de repercussão significativa no mercado japonês, incorporando um processador gráfico adicional em alguns de seus cartuchos de games para habilitar o console a processar gráficos tridimensionais complexos que, sem tal adendo, não seriam exequíveis. Essa técnica teve o efeito colateral de dificultar a clonagem ilegal de cartuchos de games, o que viria a se tornar uma medida antipirataria bastante efetiva em algumas situações.

2.1.2.7 Surge a dita “quinta geração” dos consoles de games

No mesmo ano de 1991, a Sony foi contratada pela Nintendo para desenvolver um console de games com a tecnologia de CD-ROM que sucederia em alguns anos o Super NES. Divergências entre as equipes das empresas levaram o projeto a ser abandonado prematuramente e a Sony, que teria investido alto sob a promessa de retorno em forma de participação nos lucros, visando minimizar seus prejuízos e aproveitar o conhecimento adquirido, desenvolveu um console próprio com processador de 32 bits que seria lançado ao final de 1994 com o nome de Playstation, concorrendo com o Sega Saturn nas vendas natalinas daquele ano. Embora não tenha sido um grande sucesso inicial de vendas, principalmente fora do Japão, cujo lançamento ocorreu em meados de 1995 ao redor do mundo, a “gigante japonesa” dos eletrônicos prosseguiu investindo em parcerias com grandes desenvolvedores e em publicidade. A marca alcançaria eventualmente o primeiro lugar em vendas de consoles de games antes do final do milênio, superando a Nintendo e a Sega e se tornando o novo “sinônimo” de console de games.

56 A resposta da Nintendo seria pular a tecnologia de 32 bits e ir diretamente para o processamento de 64 bits com o lançamento do Nintendo 64 – ou N64 – em 1996, mas ainda com a dispendiosa e limitada (em termos de capacidade de armazenamento) tecnologia de cartuchos. Mesmo sendo tecnicamente superior em capacidade gráfica e de processamento, as limitações e alto custo de produção dos cartuchos desanimou muitos dos desenvolvedores externos de games a trabalhar com a plataforma, forçando a Nintendo a “inflar” certos departamentos para criar mais títulos internamente e a oferecer mais incentivos aos “terceirizados”, ambas medidas dispendiosas cujo efeito negativo no balanço financeiro da empresa era inegável. Mesmo com as vendas melhorando à medida que o custo de produção caía, e com a vasta utilização do personagem Mario em diversos títulos novos, e em releituras de games antigos das plataformas anteriores para alavancar a publicidade, a margem de lucro se manteve baixa por anos e pressionou a empresa a investir na tecnologia de discos ópticos.

2.1.2.8 A guerra das “três gigantes” e a sexta geração

A geração seguinte de consoles, contabilizada popularmente como sendo a “sexta”, chegaria em torno da virada do segundo para o terceiro milênio, marcada pelo lançamento do Sega Dreamcast ao final de 1998. Lançado antecipadamente para tentar reconquistar o mercado perdido pelo Sega Saturn – que nunca alcançou o sucesso esperado pela Sega ao ser obliterado pela disputa voraz entre a Sony e a Nintendo – o Dreamcast utilizava ainda um processador de 32 bits como seu antecessor, que mesmo operando em uma velocidade muito maior continuava limitando certos recursos já disponíveis para os desenvolvedores no Nintendo 64 e no “kit de desenvolvimento” da geração seguinte de consoles da Sony. A despeito de o console da Sega possuir conexão à internet, recurso que os games para computadores pessoais já utilizavam e que os jogadores ansiavam por ter nos consoles, a implementação do serviço foi insatisfatória e não alcançou a massa-crítica necessária para sustentar a manutenção do sistema.

Cabe observar que a Sega fez uma parceria com a Microsoft para que a mesma adaptasse sua versão do Windows para dispositivos portáteis, o Windows CE, para ser utilizado como sistema operacional do Dreamcast e dotá-lo de capacidades similares às de um computador pessoal, principalmente navegação de internet, acesso a e-mail e troca de mensagens instantâneas e bate-papo ao vivo. Diferentemente do caso do híbrido MSX, que havia sido uma proposta de unificar o hardware para facilitar o desenvolvimento de um

57 sistema comum para diversas marcas, essa associação com a Sega teria sido a primeira aproximação direta da Microsoft com o mercado de consoles de games, uma espécie de “degustação” que aparentemente despertaria o “apetite” da empresa, que não tardaria em se tornar mais uma concorrente no mercado.

Com vendas fracas no mercado asiático, e medianas no restante do mundo, em parte por utilizar um sistema proprietário de disco ótico chamado GD-ROM (Gigabyte Disc Read Only Memory – de 1GB máximo, contra 700MB máximos dos CD-ROMs) incompatível com a então ainda não lançada tecnologia de DVD-ROM (Digital Versatile Disc – de até 9GB máximos) que só chegaria ao mercado um ano após seu lançamento, o Dreamcast saiu de linha em 2001 e foi o último console de games da Sega, que passou a produzir títulos para as demais plataformas, antes seus concorrentes.

O Playstation 2 – ou PS2 – chegou ao mercado japonês em março do ano 2000, e alcançou o restante do mundo mais para o final do mesmo ano. Além da arquitetura de processamento inovadora, mesclando integradores de 8, 16 e 32 bits em uma plataforma de processamento de 128 bits, e da unidade óptica de DVD – tecnologia que estava substituindo as fitas VHS – capaz de reproduzir filmes em alta definição diretamente no console, o PS2 era capaz de executar os games da geração anterior do Playstation, tornando a migração muito mais fácil e interessante para o comprador e ao mesmo tempo disponibilizando uma biblioteca inicial de títulos de número sem precedentes para um console recém-lançado.

Cabe aqui ressaltar a significância da incorporação da unidade de DVD-ROM no PS2, e da capacidade de o mesmo reproduzir filmes gravados em DVD. Os primeiros reprodutores de DVD-Video que chegaram ao mercado, nos anos 1999 e 2000, tinham preço final sugerido pelos fabricantes entre 700 e 1200 dólares, enquanto o PS2 foi lançado nos EUA em novembro de 2000 a um preço final, sugerido pela Sony, de 300 dólares. Sendo capaz de realizar as mesmas tarefas dos reprodutores dedicados de vídeo, além de executar sua função como console de games, o produto foi um grande sucesso de vendas e mudou novamente o mercado, disponibilizando a possibilidade de jogar games para um público que o adquiria como DVD-Player, sem ter inicialmente a intenção de usá-lo para outro fim.

A Microsoft entrou no mercado de consoles de videogame nessa geração, lançando o Xbox em novembro de 2001, alguns meses depois de a Sega tirar o Dreamcast de linha, assumindo a condição de nova concorrente da Sony e da Nintendo. Utilizando uma arquitetura de hardware baseada nos PCs para os quais vinha desenvolvendo sistemas

58 operacionais havia décadas, a Microsoft incentivou largamente os desenvolvedores de games para Windows a adaptarem seus títulos melhor sucedidos para o Xbox, conseguindo assim uma vasta seleção de games por meio de parcerias, concessões e acordos comerciais.

Além disso, adicionalmente ao fato de também ser capaz de reproduzir DVDs de vídeo como o concorrente PS2, um dos pontos fortes da marca foi a criação da plataforma de rede Xbox Live para o Xbox, um serviço de assinatura online via internet que possibilitava aos jogadores não apenas se conectar e jogar com seus amigos, mas cujas funções de “rede- social” permitiam também conhecer novas pessoas, formar equipes e participar de campeonatos de quaisquer dos títulos sustentados pela plataforma, além de viabilizar a compra de games e adendos para os mesmos em formato digital.

Outra novidade era que, pela primeira vez, uma mesma identidade digital de jogador passaria a ser compartilhada por títulos de diferentes desenvolvedores, que “importariam” a mesma da própria plataforma, agilizando e facilitando as operações para todos envolvidos, mas principalmente agradando os consumidores.

Uma das características mais inovadoras era a possibilidade de os participantes de uma mesma partida poderem se comunicar por voz enquanto jogavam, algo raro e incomum, mas muito desejado por todos jogadores, e que ocorria automaticamente em qualquer game multijogador na plataforma Xbox Live, sem que os desenvolvedores precisassem implementar tal função proprietariamente em seus games, bastando viabilizar seu acesso.

Foi para essa plataforma que a primeira versão do game de simulação de corridas automotivas da série Forza Motorsport foi criada, em 2005, como resposta à popular e já veterana série de jogos Gran Turismo da Sony para Playstation, que na época já estava em sua quarta iteração. Além da abordagem híbrida das configurações do game da Microsoft, que permitiam ter tanto uma experiência de simulação mais realista, quanto uma jogabilidade mais livre e próxima dos games mais exagerados do estilo arcade, o Forza Motorsport permitia também uma inovadora experiência multijogador online, incluindo a possibilidade de conversar simultaneamente com todos participantes de cada corrida pelo serviço Xbox Live.

Ao mesmo tempo, a versão de teste do game Gran Turismo 4 Online lançada subsequentemente pela Sony para o PS2, supostamente às pressas, não funcionou satisfatoriamente e nunca saiu da condição “beta”, demorando mais cinco anos até que a versão 5 do game suprisse oficialmente essa demanda ao ser lançada para o PS3, apenas na

59 geração seguinte. Isso possibilitou à franquia da Microsoft atrair um grande público que se interessava pela experiência online desse gênero de games de simulação de corridas.

A Nintendo seria a última a inovar sua linha de consoles nessa geração, com o lançamento do Gamecube no Japão, em setembro de 2001, e no restante do mundo entre novembro de 2001 e maio de 2002. Sucessor do N64, foi a primeira incursão na Nintendo na utilização de discos óticos, mas, seguindo um caminho distinto da concorrência, o console utilizava o formato proprietário Gamecube Game Disc de 1,5GB, uma adaptação do formato Mini-DVD “camada simples” de 1,4GB (que pode chegar a 2,66GB em camada dupla), viabilizando a construção do console em um invólucro pequeno e fácil de transportar (o equipamento vinha com uma alça plástica na tampa traseira), mas tornando-o assim incompatível com CDs e DVDs de tamanho convencional, impedindo que o mesmo fosse utilizado como reprodutor de filmes e músicas armazenadas nesses formatos.

Essa medida da Nintendo, de certo modo similar à utilização do sistema de armazenamento GD-ROM pela Sega em seu “descontinuado” Dreamcast, tinha o ponto positivo de dificultar a então já preocupante prática de pirataria de games, mas reduziria o leque de atrativos do sistema. Além disso, sem ter um serviço de conexão online via internet, o Gamecube precisaria contar apenas com a jogabilidade e com as capacidades de divertir e entreter de seus games, e mascotes, para atrair os consumidores.

Contudo, depois de ter grandes prejuízos com os dispendiosos cartuchos do N64 e de julgar que as escolhas da Nintendo estavam em desacordo com os desejos dos jogadores, muitos dos grandes desenvolvedores de títulos para console optaram por não se arriscar com a plataforma e, exceto por um punhado de estúdios menores e pela Capcom, única entre as grandes empresas do setor a retomar inicialmente licenciamentos com a marca, a Nintendo mais uma vez precisaria contar principalmente com os títulos desenvolvidos por ela mesma.

Ao longo dos anos, depois de desenvolver diversos games para consoles e arcades, a Nintendo já havia criado um vasto repertório de “franquias” de games e de personagens de sucesso, como Mario e Link (da série de games Zelda ), o que assegurou ao Gamecube um público fiel à marca na época de seu lançamento, garantindo algum sucesso inicial em vendas, a despeito de ser o único console dessa geração exclusivamente voltado para games. Entretanto, a lealdade dos clientes da marca não conseguiria sustentar a competição e, entre as plataformas das “três gigantes” – como viriam a ser conhecidas Nintendo, Sony e Microsoft daí por diante na “guerra dos consoles” – o Gamecube foi o que menos vendeu nessa geração.

60

2.1.2.9 A longeva “sétima geração”, os avatares e os raios azuis

A Microsoft se adiantou na etapa seguinte com o lançamento do Xbox 360 – ou X360 – inaugurando a dita “sétima geração” dos consoles de games em novembro de 2005. Além da aprimorada arquitetura de multiprocessamento flexível, da maior capacidade gráfica e da expansibilidade de armazenamento, a rede Xbox Live ganhou ainda mais funcionalidades ao incorporar muitas funções e mais conteúdo além de jogos e adendos, tais como filmes, músicas e séries de TV, entre eles diversos conteúdos “gratuitos” inclusos até mesmo na versão gratuita da assinatura. Eventualmente, a maioria dos serviços terceirizados de streaming de áudio e vídeo como Netflix, Pandora e muitos outros seriam disponibilizados pela Live.

Entretanto, por decisões de projeto e, em parte por ter sido lançado antes da finalização do protocolo definitivo dos formatos de armazenamento em disco Blu-ray e HD- DVD, o X360 foi lançado com um leitor de DVD-ROM, como na geração anterior. Embora essa medida tenha sido oportunidade perdida para estimular as vendas do equipamento do modo como a Sony havia explorado a novidade do DVD no PS2, o console da Microsoft ainda assim vendeu tanto além do esperado ao longo do primeiro ano, durante o período em que esteve “sozinho” como representante de sua geração no mercado, que em diversos momentos a demanda superou a capacidade produtiva e os clientes tiveram de comprar “por encomenda” para adquirir o mesmo.

Em novembro de 2006, no mês de lançamento tanto do Playstation 3 – ou PS3 – da Sony quanto do Wii da Nintendo, exatamente um ano depois do lançamento do Xbox 360, a Microsoft lançou uma unidade HD-DVD externa que se conectava ao console por uma das portas USB, pretendendo com isso contrabalançar o fato de o concorrente PS3 utilizar nativamente um drive leitor de BD-ROMs, capaz não apenas de rodar games com mais de cinco vezes mais necessidade de armazenamento (até 50GB) do que o máximo suportado por DVDs (até 8,5GB), mas também de tocar filmes e outros conteúdos em alta definição no formato Blu-ray Video – concorrente direto do HD-DVD Video.

Como se não bastasse a limitação imposta pela Microsoft de que a unidade externa HD-DVD só serviria para executar vídeos e não rodaria games – forçando os desenvolvedores a limitar seu conteúdo a 9GB ou a dividir o mesmo em múltiplos discos, algo que sempre

61 gerou críticas entre os consumidores – o formato Blu-ray acabou vencendo a disputa pelo mercado de alta-definição de vídeo e os HD-DVDs pararam de ser fabricados, bem como a tecnologia foi abandonada no ano seguinte, em 2007.

Apostando em repetir o sucesso do PS2 como tocador de DVDs com o lançamento do PS3 e sua unidade de Blu-ray, a Sony eliminou a concorrência ao efetuar uma série de aquisições estratégicas ousadas e acordos comerciais complexos que levaram a Toshiba, que liderava o consórcio da tecnologia HD-DVD, a encerrar seus esforços, bloquear as patentes e se tornar fabricante de unidades BD-Player e BD-Recorder.

O PS3 foi o console tecnicamente mais avançado e com maiores capacidades gráficas, de processamento e de armazenamento de sua geração. Enquanto o Wii utilizava um processador principal de núcleo simples com duas linhas de processamento e um processador gráfico de baixa resolução, e o X360 utilizava um processador principal com 3 núcleos e um processador gráfico de alta resolução, o PS3 contava com um processador principal e oito processadores secundários, além de um processador gráfico de definição ainda mais alta do que qualquer dos concorrentes.

Contudo, a despeito de tamanha vantagem técnica e de ser o único competidor a oferecer um reprodutor de Blu-rays, e mesmo sendo o predileto entre os jogadores mais dedicados e contando com muitos games exclusivos para a plataforma, o PS3 foi o console menos vendido de sua geração durante os primeiros anos. As vendas melhoraram com o passar do tempo, mas antes de deixar de ser fabricado, em maio de 2017, conseguira apenas empatar em vendas com seu concorrente norte-americano. Aparentemente, a despeito de diversos problemas técnicos com as primeiras unidades vendidas, o lançamento antecipado do X360, em combinação com os recursos do serviço Xbox Live e com as diversas franquias de jogos herdadas da geração anterior, e da plataforma de computadores pessoais com sistema operacional Windows, fez com que o console da Microsoft se entrincheirasse nos lares de muitas famílias como uma central de entretenimento para todos.

Entretanto, foi o Wii da Nintendo que conquistou o mercado na dita “sétima geração” dos consoles de games para o mercado doméstico. A despeito de ser o dispositivo menos avançado tecnologicamente, com menor capacidade gráfica e de processamento, além de não viabilizar o uso de sua unidade de DVD para reproduzir o formato DVD-Video, o inovador sistema de controles duplos, um deles com sensores de movimento e ótico, permitiu um novo

62 modo de interagir com os games, aumentando o grau de imersão e interação dos jogadores com o que acontecia na tela.

Além disso, a Nintendo contou mais uma vez com sua já bem estabelecida e competente capacidade de desenvolvimento interno dos títulos de suas principais franquias, principalmente dos jogos envolvendo o personagem Mario e sua trupe – como Luigi , Wario e Yoshi entre outros – e também a saga Zelda , fórmula essa que lhes garantia a dedicação de uma legião de fãs e fiéis consumidores, para começar as vendas com um grande resultado positivo. Contudo, nessa geração, a empresa conseguira restabelecer parcerias com muitos desenvolvedores antecipadamente e alguns dos títulos multiplataforma foram disponibilizados ou prometidos para o Wii desde seu lançamento, algo que ampliava o leque de consumidores para além dos fãs leais e dos curiosos interessados apenas na novidade do então exótico sistema de controles do console.

Assim como a Sony havia lançado o serviço Playstation Network – ou PSN – para integrar os recursos online do PS3 via internet, o serviço Nintendo Wi-Fi Connection foi lançado para consolidar as funções de rede de dados do Wii, tanto para os serviços via internet quanto para interconectar diversos Wii diretamente via rede local. Eventualmente o sistema Nintendo Wi-Fi Connection seria substituído pelo serviço online Nintendo Network no início de 2012.

Outra inovação feita pela Nintendo foi a introdução de avatares personalizáveis dos jogadores – chamados Mii – como suas representações caricatas, estilizadas e bastante infantilizadas em muitos games e atividades online. Posteriormente a Nintendo lançaria um serviço online para abranger diversas atividades possíveis aos Mii tanto nos consoles domésticos como nos portáteis, chamado Miiverse. A aceitação e o interesse do público foram tão grandes que a Microsoft criou os Xbox Live Avatars – ou XLA – pouco depois, representações muito mais personalizáveis e menos infantilizadas dos usuários do que os Mii, mas ainda com traços caricatos, remodelando completamente não apenas seus serviços online, mas toda interface gráfica do X360 ao fazê-lo, visando integrar os avatares “organicamente” à experiência. Seguindo outro trajeto, e optando por não integrar os avatares como parte da interface do sistema, a Sony introduziu o serviço Playstation Home tardiamente como outro “game-serviço” dentro da PSN – uma rede social virtual tridimensional na qual o usuário era representado por um avatar personalizável menos caricato e mais realista do que os das concorrentes, com dimensões, proporções e traços mais próximos dos humanos. Por ser

63 bastante similar aos ambientes tridimensionais de socialização virtual do tipo “ Second Life ”, e operar sem reflexos diretos na utilização corriqueira do console, podemos considerar que a Sony não entrou realmente na “batalha dos avatares” da “guerra dos consoles”.

O sistema de controle por movimento do Wii gerou pressão nos concorrentes para lançar algo que atraísse os consumidores e cada um deles respondeu com uma tecnologia diferente. Em 2010 a Microsoft lançou o sensor múltiplo Kinect, composto por um sistema de câmeras combinadas, uma colorida e outra sensora de profundidade, com sensibilidade à cor – e fonte de luz – infravermelha, além de microfones estereofônicos e um sistema de auto-ajuste motorizado. Quando instalado numa das portas USB de um X360 já atualizado com o sistema adequado, o sensor proporcionava uma interface acionável gestualmente, algo muito mais preciso e funcional do que todas as tentativas anteriores feitas com câmeras simples, tanto em computadores pessoais como em outros consoles de games. Acompanhado de uma série de games dedicados, elaborados para serem controlados exclusivamente por movimentos manuais e/ou corporais, bem como por muitos títulos híbridos em que o jogador poderia escolher se utilizaria o controle convencional, o sensor Kinect ou, em alguns casos, uma combinação de ambos, a novidade atraiu muitas pessoas e as vendas iniciais foram bastante significativas, mesmo que não estrondosas. Eventualmente o dispositivo foi incorporado em pacotes combinados, vendido juntamente com um console novo por um preço mais acessível, o que ajudou enormemente a disseminar o sensor, que eventualmente ganharia uma versão atualizada na geração seguinte.

A Sony seguiu um caminho mais parecido com o da Nintendo, lançando controles similares aos do Wii, mas invertendo a tecnologia e removendo o fator “discrição” do cenário: enquanto cada controle do tipo Wiimote na Nintendo possuía uma pequena câmera infravermelha na sua extremidade, e o console requeria a instalação de uma “barra de referência” projetora de infravermelho acima ou abaixo da TV (ou monitor) para utilizar algumas das funções de detecção precisa de movimento, o sistema do PS3 consistia em utilizar inicialmente uma câmera já comercializada para alguns games da plataforma, a PS- Eye (eventualmente serias lançadas câmeras dedicadas) em conjunto com um novo jogo de controles similares a bastões com esferas coloridas e iluminadas internamente numa das extremidades, cujo movimento diante da câmera gerava algum efeito correspondente e proporcional na tela da TV/monitor em uso. Essa solução também teve sucesso suficiente para migrar para a geração seguinte dos consoles da marca.

64

2.1.2.10 “Oitava geração”, ultra alta definição, tecnomutações intrageracionais

A Nintendo seria a primeira das “três gigantes” a lançar uma nova plataforma dessa vez, inaugurando a suposta “oitava geração” da tecnologia de consoles de games domésticos, em novembro de 2012, com o Wii U, sucessor direto do Wii e completamente retrocompatível com toda linha de games (em disco e em formato de download digital) e de acessórios lançados para a geração anterior. Com alta definição gráfica e um controlador completamente diferente dos anteriores que, além de ser sensível a movimento possuía uma grande tela central, similar a um pequeno tablet, que permitia interagir com os games de maneiras bastante criativas, a Nintendo esperava que tal lançamento fosse expandir seu mercado e estabelecê-la antecipadamente como a líder do setor também nessa geração.

Para tanto, inovou seu sistema de serviços online da Nintendo Network, integrando os ambientes virtuais online de seus portáteis da linha 3DS com o novo console doméstico, criando um sistema integrado de loja online para conteúdos digitais, recurso já presente nos serviços online de seus concorrentes. Outro ponto relevante foi a escolha da Nintendo por lançar um equipamento de capacidade técnica supostamente inferior ao concorrente mais avançado da geração anterior, apostando mais uma vez na premissa de que não deveria ser necessário utilizar o estado da arte em tecnologia para conquistar o mercado, tentando assim reproduzir o que havia ocorrido com o Wii na “sétima geração”.

Contudo, por uma combinação de motivos diversos, após a empolgação inicial com a novidade de sua revelação aos fãs, as vendas declinaram bastante e, com os lançamentos dos concorrentes no ano seguinte, o Wii U perdeu muito de sua já limitada popularidade. A despeito de formar ou renovar parcerias com grandes desenvolvedores para lançar games de franquias famosas, o declínio das vendas levou a Nintendo a tirar o Wii U de linha em janeiro de 2017, antes mesmo de lançar um sucessor, que só chegaria ao mercado dois meses depois, na forma de um sistema híbrido chamado Nintendo Switch – ou NX – um console composto por uma unidade base de acoplamento “fixo” para o ambiente doméstico ao qual se acopla um “console portátil” para usar com o sistema residencial de áudio e vídeo, mas que quando removido da “base” pode ser conectado ao controle “transformável” e ser utilizado como um console portátil, com tela própria do tipo sensível ao toque e boa definição gráfica.

65 Utilizando uma estrutura de hardware mais parecida com a dos tablets de alto desempenho e dos computadores pessoais portáteis do tipo “dois-em-um” (híbridos tablet- notebook com tela sensível ao toque e teclado dobrável/escamoteável), com processador central de quatro núcleos e processador gráfico separado também de quatro núcleos, seu poder de processamento não o capacita a superar o desempenho dos consoles da oitava geração, nem inova as tecnologias contemporâneas a seu lançamento de maneira significativa, sendo considerado um console à parte, um híbrido sem classificação geracional clara, mas que substituiu com grande sucesso o Wii U e, para efeitos práticos, é considerado o substituto deste na disputa de mercado da mesma “classe geracional”. Esse “mutante” doméstico-portátil se tornou o console de games de vendas mais rápidas na história da Nintendo, alcançando supostos dez milhões de unidades em nove meses.

Microsoft e Sony lançaram seus consoles da dita “oitava geração” quase simultaneamente, em novembro de 2013, sendo eles respectivamente o Xbox One – ou XB1 – e o Playstation 4 – ou PS4 – exatamente um ano após o lançamento do Wii U da Nintendo. Formava-se o contexto para uma nova série de batalhas na “guerra dos consoles”.

A Microsoft pretendia lançar o console mais inovador e tecnicamente poderoso possível, mas também estava ferreamente empenhada em transformar o XB1 em uma central de entretenimento compreensiva para a sala-de-estar de todos os lares ao redor do mundo – com lançamento simultâneo planejado para dezenas de países – concebendo-o como um dispositivo que operaria quase que integralmente online, conectado ao serviço Xbox Live via internet por algum tipo de serviço de banda-larga. A meta era prover todo tipo de conteúdo digital que pudesse ser mediado pela plataforma, games, filmes, séries, músicas, notícias, comunicação virtual, telepresença e muito mais, inclusive um sistema próprio de gerenciamento de pagamentos na moeda corrente de cada país, e não mais em “moeda virtual proprietária” como acontecia no ambiente de consumo do X360. Outra característica dessa proposta de integração era a entrada de vídeo digital, possibilitando que o decodificador de uma operadora de TV por assinatura fosse conectado ao console e controlado pelo mesmo, viabilizando o uso de comandos gestuais e de voz para manipular a programação convencional, mudar canais, agendar e gravar programas e eventos, entre outros recursos.

Essa grande ambição seria revelada meses antes do lançamento do XB1, por meio de eventos massivos para a imprensa, mas os sistemas rígidos de controle de direitos autorais que acompanhariam todas essas propostas, bem como uma série de outras “inovações” que foram

66 apresentadas, geraram desagrado na maioria das pessoas. Entre tais medidas, podemos ressaltar que as mais criticadas foram, principalmente: a proposta de desvincular a posse da licença dos games da posse dos discos; a impossibilidade de emprestar ou vender games usados; a necessidade de o dispositivo sensor Kinect (em sua melhorada versão 2.0) estar conectado constantemente para o sistema funcionar; e a obrigatoriedade de o console precisar se conectar à internet e entrar na Live pelo menos uma vez a cada 24 horas para continuar operando – após esse período todo conteúdo já disponível localmente seria bloqueado, desativando inclusive os games em disco, até nova conexão.

O impacto de tais anúncios foi tão negativo que houve cancelamentos em massa dos pedidos em pré-venda ao redor de todo o mundo, causando uma intensa revisão de parâmetros que, em síntese, reverteria o sistema ao modelo de utilização já existente na geração anterior. Essa reversão, acompanhada de mudanças no quadro de liderança do setor da Microsoft responsável pelo Xbox, amenizou muitas das preocupações e permitiu que as encomendas prévias ao lançamento se recuperassem parcialmente. Entretanto, a sensação de incerteza gerada pela proposta inicial afastou muitos compradores que, desconfiados de que tais medidas viriam a ser reimplantadas no futuro, voltaram-se para a concorrência.

A despeito dos tropeços e falatórios, os games demonstrados em tais eventos deixaram os membros da imprensa empolgados por suas qualidades gráficas e sonoras, bem como pelo carregamento dinâmico das fases/etapas da maioria dos títulos apresentados parecer não intrusiva e por vezes ser imperceptível, algo que se tornara um problema quando da adoção da tecnologia Blu-ray pela Sony na geração anterior.

Quanto mais se aproximava a data de lançamento, mais as expectativas eram alimentadas pelas campanhas de publicidade, levando o volume de pré-vendas a alcançar algo próximo do esperado pelos especialistas da área antes do “fiasco” da primeira apresentação pública do console.

Ao mesmo tempo a Sony promovia o Playstation 4, que seria lançado simultaneamente ao equipamento da concorrente Microsoft, utilizando não apenas os pontos fortes de seu equipamento, cujas características eram similares às do novo Xbox, porém sensivelmente superiores em alguns aspectos técnicos importantes, mas também explorando largamente as falhas de pré-lançamento que giraram em torno do XB1, realçando que seu foco era o de ser primeiramente uma máquina de jogar, e operar como central de entretenimento era uma função adicional, somente um benefício a mais. Outro destaque apresentado

67 claramente foi o de que a Sony não pretendia gerenciar a maneira como os usuários lidavam com seus games, parodiando publicamente o processo complicado e restritivo de gerenciamento de direitos autorais proposto inicialmente pela Microsoft ao contrapô-lo com o simples ato de uma pessoa presentear um game em disco, usado, para outra, acompanhado das frases “Aqui, é para você” e “Obrigado” ditas sucessivamente pelos atores enquanto o estojo trocava de mãos.

Chegado o lançamento, a imprensa criticou alguns fatos a respeito de ambos consoles. Por exemplo, entre os muitos games disponíveis para as duas plataformas à época de seus respectivos lançamentos, a maioria era de novos títulos de franquias antigas e conhecidas, tanto as produções de terceiros – títulos multiplataforma – quanto os títulos próprios e exclusivos de cada empresa. Com poucos títulos originais, quase nada inovador e capacidades técnicas muito similares entre si, as diferenças realçadas pareciam muito mais ser resultado da ação dos publicitários do que do trabalho dos engenheiros.

Aparentemente, a “oitava geração” compartilhava, como um todo, das mesmas fórmulas, especificações e modelo de desenvolvimento, compartilhando inclusive os mesmos parceiros de desenvolvimento de hardware e de sofware.

Tecnicamente muito superiores ao Wii U, tanto o PS4 quanto o XB1 apresentavam capacidades muito promissoras, desbancando rapidamente a Nintendo e invalidando a suposta vantagem de terem lançado seu concorrente com um ano de antecedência. O ano de 2014 seria marcado por prejuízos a cada trimestre para a Nintendo, sendo um deles o pior de sua história, o que levou a empresa a efetuar cortes de pessoal, reduções salariais e fechamento de unidades, enquanto mesclava sua melhor equipe de engenharia do setor de consoles portáteis – setor dominado mundialmente pela Nintendo – com a equipe de desenvolvimento de consoles domésticos. Nascia daí o projeto híbrido NX que, conforme já mencionado, seria lançado como Nintendo Switch, em 2017.

Em busca de um diferencial que lhe desse uma vantagem na batalha corrente, a Sony passaria a investir mais pesadamente em um sistema completo de Realidade Virtual acoplável ao PS4, com visor, sensores e controladores. O projeto requeria uma nova versão acelerada e melhorada do console, que viria a ser lançada no final de 2016 com o nome de Playstation 4 Pro – ou PS4Pro – cujas especificações eram poderosas o bastante para torná-lo capaz de dar conta do sistema de display estereoscópico de alta definição necessário para conseguir oferecer uma experiência imersiva suficientemente convincente de simulação de realidade.

68 Outra inovação dessa versão “mutante” do console era a capacidade de executar games e reproduzir vídeos em definição ultra-alta – ou 4K HDR Video.

Em contrapartida, além de desenvolver o sistema Hololens de realidade aumentada, a Microsoft investia simultaneamente em um projeto de revisão do XB1 para torná-lo menor, mais eficiente e mais barato, além de também torná-lo capaz de executar games e reproduzir vídeos 4K HDR Video, mas com o diferencial de substituir a unidade Blu-ray convencional, com capacidade de até 50GB, por um leitor ótico compatível com os discos do tipo Ultra HD Blu-ray, com capacidade de até 100GB. Do mesmo modo que um PS2 havia se tornado uma opção barata de reprodutor de DVD para a família, o novo Xbox One S – ou XB1S – viria a se tornar o reprodutor mais acessível e popular de Blu-rays Ultra HD. À medida que as informações sobre essa nova versão “mutante” do Xbox One saíam do nicho da imprensa especializada em e atingia as publicações de público mais amplo, mais cresciam suas vendas.

Mais uma vez, as duas versões “mutantes” dos consoles foram lançadas quase simultaneamente, mas a Microsoft fez algo inesperado que gerou bastante confusão no mercado: ao final do evento de lançamento do XB1S, anunciou que uma nova iteração do mesmo console de oitava geração estava em desenvolvimento, chamado “Project Scorpio”, que teria um poder de processamento muito maior e que deveria ser capaz de executar games muito mais realistas em resolução ultra-alta 4K HDR sem restrições (como ainda acontecia com o PS4Pro e com o XB1S). O argumento da empresa era o de que tal console, que seria lançado um ano depois, ao final de 2017, e viria a ser chamado de Xbox One X – ou XB1X – seria mais caro que o XB1S e não acrescentaria ganhos perceptíveis para os usuários que priorizavam entretenimento doméstico em geral, oferecendo vantagem mormente para os jogadores mais radicais e inveterados, bem como para os usuários mais adeptos à videofilia de altíssima qualidade. Como o sistema teria um preço compatível com tal ganho de qualidade, foi argumentado que os consoles deveriam conviver simultaneamente em diferentes faixas de preço, sem competir entre si.

Com capacidades entre o dobro e o quíntuplo das máximas oferecidas pelo XB1 original de 2013 e algumas dezenas de games previamente adaptados pelos desenvolvedores para tirar o máximo proveito desse poder adicional, o console “duplamente mutante” da oitava geração lançado em novembro de 2017, XB1X superou o volume de pré-vendas estimado pela Microsoft e ficou em falta em diversos países para as festas de final de ano.

69 Tendo traçado nosso seletivo e bastante específico pano de fundo histórico, podemos prosseguir com os elementos de desenvolvimento de games e de utilização de IA que resultaram das décadas de história dos games, com foco nos consoles e títulos de corrida, referindo-nos a etapas e fatos narrados nessa síntese de fatos passados.

2.2 Modelos e estruturas fundamentais

Como pudemos observar no percurso da síntese histórica apresentada, os games passaram por múltiplas transformações ao longo das décadas, em diversos aspectos. Como consequência, encontramos também múltiplas abordagens quando investigamos o processo de desenvolvê-los, sob os mais distintos pontos de vista, seja assumindo-os como produto, brinquedo, passatempo, programa de computador, ferramenta, arte, manifestação sócio- cultural, sistema de regras ou como qualquer outra coisa. Com visas a alcançar nossa meta selecionaremos uma combinação de diferentes aspectos, mas focalizaremos nossos esforços no viés dos elementos modulares dos games vistos como programas computacionais para realçar o uso de elementos de IA na construção de entidades controladas pelo sistema com comportamento autônomo, sem nos aprofundarmos nas minúcias das linguagens de programação, mas nos reservando o direito de apontar traços, características específicas, limitações etc., de quaisquer outras abordagens quando tais especificidades forem relevantes ao nosso argumento.

2.2.1 Elementos de games em geral

Tomaremos por base uma espécie de “roteiro genérico” no mais “alto nível” em termos de linguagem de computação, uma espécie de “perspectiva elevada” que possa proporcionar um algoritmo referencial que nos remeta aos elementos mais amplos de um contexto de game.

Contudo, mesmo que grosso modo e simplificado, precisamos esclarecer que, em tecnologia da informação, não classificamos esses “níveis” qualitativamente, mas sim quantitativamente, segundo sua “distância” ou “proximidade” da linguagem pura da máquina – chamada comumente de “linguagem de máquina” ou assembler – sendo essa a mais “baixa”, formada pelas instruções que manipulam diretamente o processador de dados,

70 subindo-se o “nível” a cada “camada” interpretadora da mediação entre as instruções e as funções a serem executadas.

Por exemplo, logo “acima” do assembler – note-se que “assembler ” não é uma linguagem em si mesma, mas apenas um tipo de ferramenta utilizada pelos programadores de linguagens de “baixo nível” para montar as instruções do processador em forma de programa, mas que passou a ser usada como sinônimo de linguagem de máquina – temos as linguagens de núcleo ( core ) dos sistemas operacionais “de máquina”, seguida pela linguagem do sistema de arquivos, que sustenta logo “acima” de si tanto a linguagem do sistema de rede quanto as linguagens de programação “estruturais”, reservadas geralmente aos programadores que criam outras linguagens de nível mais alto. Nessa sucessão de linguagens sobrepostas, a de mais alto nível é aquela que necessita de todas essas múltiplas interpretações sucessivas para funcionar: no caso de um algoritmo destinado a um leigo em ciências da computação, implica basicamente em uma espécie de roteiro que poderia ser transformado em um programa rudimentar, em alguma linguagem de programação de nível alto o suficiente para ser utilizada por quase-leigos – algo similar aos “assistentes” de construção de sites para a Web ou aos programas educacionais voltados a ensinar lógica de programação para crianças pequenas.

O seguinte roteiro, apresentado por Noel Llopis (apud RABIN, 2010. p. 244) [tradução nossa], sintetiza bem um modelo genérico de game, de modo bastante simplificado:

1. Inicialização do Game 2. Ciclo principal de repetição do game a. Inicialização da interface inicial/principal b. Ciclo de repetição da interface inicial/principal i. Coletar dados de entrada ii. Apresentar tela iii. Atualizar condição da interface inicial/principal iv. Acionar quaisquer mudanças de estado c. Finalizar interface inicial/principal d. Inicialização de Nível/Fase e. Ciclo de repetição de Nível/Fase do Game i. Coletar dados de entrada ii. Acionar IA iii. Executar simulações de Física

71 iv. Atualizar entidades do Game v. Enviar/Receber mensagens de rede vi. Atualizar posição no tempo vii. Atualizar estado do Game f. Finalização de Nível/Fase 3. Finalização do Game

Conforme proposto pelo mesmo autor em seu artigo Game Architecture (apud RABIN, 2010. pp. 239-270), podemos reconhecer na sequência apresentada, grosso modo, instruções modulares que representam os elementos mais fundamentais dos games, agrupados em suas relações mais comuns de ordenação e de repetição.

A “Inicialização do Game” representa o módulo de abertura do programa, aquele que executa os primeiros comandos do software após o acionamento do mesmo pelo usuário/jogador, colocando em ação todos os procedimentos estruturais que preparam o sistema da plataforma para executar as funções que virão a seguir, movimentando os dados pertinentes da área de armazenamento permanente para áreas temporárias, seja do programa em si, de variáveis, de gráficos, de comunicação, de alguma interface etc. Esse primeiro passo costuma ser marcado por um momento de espera por parte do jogador, após pressionar um botão, que se depara por alguns instantes com uma tela de “carregamento” ou equivalente antes de chegar à tela inicial do game já em execução, quando todas providências já foram tomadas pelo módulo de inicialização e o sistema passa a aguardar por alguma nova ação do usuário.

Importante observar que com o avanço da tecnologia das plataformas de games, ao longo das décadas, essa inicialização foi se tornando mais rápida e também mais complexa, chegando ao ponto de ficar quase imperceptível ao usuário graças ao uso inteligente de processamento paralelo em conjunto à capacidade de movimentar grandes quantidades de dados muito velozmente entre os diferentes setores da “memória” do sistema. Ao dividir a inicialização em etapas e apresentar trechos de animações em vídeo, efeitos sonoros ou mesmo “minigames”, ou outro tipo de “tela interativa”, enquanto os procedimentos iniciais são executados “ao fundo” e sem alardes, os programadores iludem o usuário ao entretê-lo, para que o mesmo não perceba o tempo usado pela etapa de inicialização. Essa mesma estratégia é muitas vezes utilizada quando se faz necessário carregar dados em etapas

72 intermediárias dos games, quando as limitações de uma plataforma não permitam que tal operação seja feita de maneira discreta, paralelamente à execução do game em si.

O “Ciclo principal de repetição do game” é o programa “mestre” em si, composto por módulos que serão executados, paralela e/ou sucessivamente, de acordo com a relação entre cada momento do game e o próprio ato de jogar.

O primeiro módulo executado dentro do programa principal costuma ser o da “fachada”, começando pela “Inicialização da interface inicial/principal” que carrega uma interface para interação com o usuário, prepara variáveis que serão alteradas pelas escolhas do mesmo e mostra os dados iniciais em uma tela.

Em seguida à inicialização, começa o “Ciclo de repetição da interface inicial/principal”, marcado pelo registro das escolhas do usuário ao “Coletar dados de entrada” e atribuir novos valores às respectivas variáveis no game, como nível de dificuldade, quantidade de jogadores, se a atividade será online (conectada à internet) ou offline (não conectada à internet) e quaisquer outras opções disponíveis, atualizando-as uma a uma ao “Apresentar tela” e, dinamicamente, “Atualizar condição da interface inicial/principal” para representar cada seleção feita e “Acionar quaisquer mudanças de estado”, antes de retornar para a próxima iteração do ciclo e reiniciar por “Coletar dados de entrada”, até que tal “dado” seja a informação de prosseguir ao módulo seguinte e iniciar o game, o que é antecedido pela função de “Finalizar interface inicial/principal”.

Assim, quando o jogador decide que suas escolhas são satisfatórias e seleciona a opção de iniciar o game, o módulo “Inicialização de Nível/Fase” faz algo similar aos módulos de inicialização anteriores, reservando áreas de memória, movimentando dados, preparando a estrutura dos programas a serem executados e configurando toda a plataforma para as ações a seguir.

Ao chegar no “Ciclo de repetição de Nível/Fase do Game” os programas responsáveis pela execução do nível/fase do game em referência são acionados e seus elementos entram em ação, passando a “Coletar dados de entrada”, sejam oriundos do dispositivo de controle (joystick, joypad, volante e pedais, teclado e mouse etc.), da conexão de rede ou dos outros módulos do ciclo, pois ao “Acionar IA” diversos fluxos de dados são gerados e alterações de variáveis são efetuadas, sinalizando que naquele momento o sistema deve “Executar simulações de Física”, quando necessário, antes de poder “Atualizar entidades do Game”. Em

73 se tratando de um game online, a situação atualizada é compartilhada ao “Enviar/Receber mensagens de rede”. Todos módulos envolvidos precisam então ser sincronizados ao “Atualizar posição no tempo”, inclusive preparando os próximos pacotes de dados tanto da comunicação intramodular, quanto da externa (rede), para finalmente “Atualizar estado do Game”, conferindo escolhas, placares e contadores de eventos para definir se o ciclo se repetirá por mais uma iteração, voltando ao passo de “Coletar dados de entrada” do início do “Ciclo de repetição de Nível/Fase do Game”, ou se é chegado o momento de “Finalização de Nível/Fase”, quando se pode começar um novo nível/fase, conforme ordenado no programa principal, ou se é chegada a hora da “Finalização do Game”, conforme o roteiro ou eventual escolha de término antecipado por parte do jogador, cada situação acionando suas rotinas específicas para a etapa final ser realizada.

Há muitos elementos “subalternos” que compõem individualmente todos os módulos citados, cada um deles implicando suas próprias sequências de repetição de ações, formando padrões dentro de padrões cujas repetições geram novos dados que são trocados entre os módulos, compondo as minúcias que tecem a realidade virtual dos games. Devemos assumir por “realidade virtual” algo além da aparência tridimensional de ambientes simulados, visual e auditivamente, que seriam apenas os efeitos externamente sensíveis dos “dados de saída” do conjunto: incluímos também toda a teia de interações que leva cada componente a se comportar de maneira individual e específica dentro da “simulação de mundo” do game como um todo.

Por exemplo, cada rotina “sensora” que detecta quando objetos virtuais colidem e informam outras rotinas de que algo dever ser feito, cada rotina de ação física que interage com outras rotinas de reação física para determinar como cada parte das entidades dos games (independentemente de serem controladas por um usuário, por rotinas internas ou por elementos de IA) se relaciona mutuamente no espaço e no tempo virtuais do ambiente simulado, bem como todas outras rotinas que criam e fazem funcionar o “ambiente” do game muito antes de o mesmo se tornar uma representação sensível para o jogador.

Há inúmeras possibilidades de roteiro para os mais diversos tipos de games, bem como uma infinidade de tipos de módulos mais ou menos complexos que podem ser utilizados dentro de um software desse tipo. Contudo, para nossa necessidade de esclarecimento dos conceitos e módulos básicos que compõem a estrutura dos games em geral, tal exemplo nos parece ser suficiente.

74

2.2.2 Elementos básicos dos games de corrida

Ao avaliarmos os games do gênero de corrida desde suas primeiras aparições, como o título Gran Trak 10 , lançado no ano 1974 sob a forma de um game de arcade (conforme já mencionado no item 2.1.2.2), até o lançamento de Forza Motorsport 7, ao final do ano de 2017, podemos reconhecer todos os traços comuns ao processo evolutivo dos games e suas plataformas, conforme apresentamos em nossa síntese histórica (vide itens 2.1.1 até 2.1.2.10). Ao mesmo tempo em que, por um lado, houve um aumento enorme de complexidade de todos elementos dos games, pari passu ao avanço das tecnologias envolvidas em sua realização, por outro lado reconhecemos também alguns elementos fundamentais que persistiram ao longo das décadas.

Desde o surgimento desse gênero de game foram concebidas grandes diferenças de estilo na criação de cada um deles. Por exemplo, o veterano Gran Trak 10 oferecia uma visão “de cima” de uma pista de corridas, mas “de longe”, de modo à pista inteira caber na tela ao mesmo tempo, sendo a pista fixa e o carro se movendo livremente por ela. Assumindo outra abordagem, seu contemporâneo Speed Race utilizava uma visão próxima do veículo, também “de cima”, mas tão “de perto” que só era possível ver as laterais da pista e um pouco do espaço à dianteira e à traseira do veículo. A pista “aparecia” na parte de cima da tela e “desaparecia” na parte de baixo, gerando o efeito e a sensação de movimento “vertical”, a despeito de o carro pilotado se deslocar apenas lateralmente em um eixo horizontal “fixo” na tela – na verdade, esse eixo se desloca sutilmente para cima ou para baixo, em proporção à velocidade momentânea do veículo, embaixo quando parado, ao centro quando em velocidade máxima.

Gran Trak 10 era uma corrida apenas contra o tempo, em que o piloto precisava percorrer o sinuoso trajeto o mais depressa possível, evitando colidir ou esbarrar nas laterais da pista, enquanto Speed Race era uma corrida também contra “oponentes virtuais” controlados pelo sistema, na qual a meta seria passar o maior tempo possível em alta velocidade antes de acabar o tempo disponibilizado inicialmente, desviando dos oponentes durante as ultrapassagens para garantir mais pontuação ao evitar o tempo perdido a cada colisão.

75 Novos títulos lançados posteriormente vieram incrementar e adicionar variedade a esses estilos seminais do gênero de corrida de carros, bem como outros formatos de game foram criados, como a utilização da perspectiva isométrica – de cima e de longe, mas inclinada em plano diagonal – ou com o ponto de vista do motorista, chamado de “visão em primeira pessoa”, muito comum aos simuladores, bem como o ponto de vista acima e atrás do veículo, voltada adiante, chamada de “visão em terceira pessoa”, mais utilizada nos games de estilo arcade. Em alguns títulos a meta seria vencer os oponentes virtuais, em outros, para múltiplos jogadores, a meta era vencer oponentes humanos. Cada inovação estaria sempre inaugurando diferentes conceitos de jogabilidade a cada variação de estilo.

Dentre as diferenças, podemos realçar alguns elementos comuns, necessários a todos estilos, que persistiram nas diversas iterações desse gênero de game. Todos eles compartilham de uma pista virtual como “espaço de ação”, logo todos precisam de uma rotina de “pista” que delimite a área de possível deslocamento para o veículo controlado pelo jogador e, quando for o caso, também para os demais veículos, sejam eles controlados remotamente por outros jogadores (humanos ou IAs) ou pelo sistema local.

Quando se trata do desenvolvimento de níveis/fases dos games, o ambiente virtual, ou “espaço de ação”, costuma ser um dos primeiros tópicos abordados pelos especialistas em seu desenvolvimento, como vemos nos trabalhos de Ernest Adams (2014, pp. 439-470), Paul Schuytema (2008, pp. 277-307), Jeff Selbig (apud RABIN, 2010, pp. 679-685) e Jeannie Novak (2012, pp. 222-232), entre outros. A pista de corrida pode significar desde apenas um trajeto que limita as trajetórias possíveis dos veículos, como nos já citados Gran Trak 10 e Speed Race , até uma representação tridimensional complexa da realidade, simulando autódromos do mundo físico, como ocorre com Forza Motorsport , em que detalhes como imperfeições na superfície simulada de contato com pneus simulados, bem como a temperatura e a textura do asfalto virtual, modificam os resultados da simulação como um todo e também a experiência de jogar o game.

Elementos que eram originalmente simples nos primeiros games de corrida, como as “rotinas sensoras” de detecção de colisão, nas quais bastava comparar coordenadas em uma matriz bidimensional simples, usando apenas alguns parâmetros de verificação básicos, tornaram-se verdadeiros sistemas complexos na década de 2010, chegando a fazer uso de módulos de IA para fazer predições em frações de segundos, com base em cálculos avançados de Física que, poucas décadas antes, demorariam dezenas de minutos, ou mesmo horas, para

76 serem calculados pelas mesmas unidades de processamento que tornaram os primeiros games realidades.

Podemos verificar a importância e a complexidade das “rotinas sensoras” de detecção de colisão nos games em trabalhos como o artigo Collision Detection and Resolution , de Steve Rabin e Bretton Wade (RABIN, 2010, pp. 367-385), bem como no extenso estudo sobre uso de IA no cálculo de movimento de entidades dentro de games, feito por Ian Millington e John Funge (2009, pp. 39-191), no qual a detecção de colisão aparece em destaque por ser chave na maioria das interações entre entidades virtuais e por compor grande parte das finalizações de todo tipo de “movimento relativo” no ambiente dos games – i.e.: um carro tocando outro, ou um beiral da pista; veículos tocando cones simulados em um percurso; o choque de cada uma das gotas d’água de uma chuva simulada tocando o para-brisas virtual do veículo e alterando o caminho da luz virtual, distorcendo a visualização do ambiente; essas mesmas gotas de chuva tocando o chão e umedecendo o asfalto, mudando sua aderência e viabilizando o efeito de aquaplanagem; os cálculos da própria aquaplanagem em si, que é efeito da colisão da borracha simulada dos pneus com a poça da água simulada da chuva e sua inerente turbulência das colisões anteriores e assim por diante.

Aos elementos comuns às gerações, como os já citados “ambiente virtual” ou “espaço de ação” e as “rotinas sensoras” de detecção de colisão, e também outros elementos indispensáveis como a atualização das entidades do game e a coleta de dados – tanto das seleções feitas antes de começar a jogar, quanto da infusão de comandos dos dispositivos controladores durante o ato de jogar – vemos elementos que foram incorporados tardiamente ao “modelo básico” de desenvolvimento de games, tais quais os usos de IA, de conexões de rede e de cálculos complexos de física.

Um dos elementos comuns que permaneceu, mas mudou muito com a evolução tecnológica das plataformas, é a presença de entidades controladas pelo sistema. No game Forza Motorsport ocorreu uma diferenciação da maneira como essas entidades são concebidas, deixando de ser apenas rotinas pré-programadas em um sistema para se tornarem simulações de indivíduos humanos cujo comportamento é resultado de um processo de aprendizagem de máquina. Para entender a importância dessa progressão, dedicaremos nossa atenção a essas entidades.

77 2.3 Games e as entidades controladas pelo sistema

De modo geral, as entidades animadas controladas pelo sistema que aparecem em um game, e não são parte móvel do cenário nem artefatos “acionáveis”, são chamadas genericamente de N.P.C.s – sigla de Non-Playable Character , ou “personagem não-jogável”, um elemento reativo/interativo que não pode ser controlado pelo jogador – a despeito de o game ter ou não uma narrativa que requeira “personagens”, como no caso de um game de simulação de corridas de carro. Segundo Leslie Stirling (apud RABIN, 2010, p. 156), criar N.P.C.s de boa qualidade é uma necessidade fundamental para produzir uma experiência envolvente e imersiva para o jogador.

A criação dessas entidades controladas pelo sistema nos games pode ter duas grandes categorias básicas de comportamento, fixo ou dinâmico. As entidades de comportamento fixo são baseadas em roteiros preestabelecidos – fixed scripts – em que a ação em si não varia, é incondicional, e apenas o momento de acionamento dos mesmos é condicionado a rotinas sensoras que o ativam. Isso gera um tipo de jogabilidade em que a memorização e a adequação ao game, por meio do método “tentativa e erro” de aprendizagem, fica inteiramente por conta do jogador. Segundo Adams (2014, p. 85) essa abordagem gera uma necessidade de treinar repetidamente ao estilo “aprender morrendo” – learn-by-dying – elemento comum nas primeiras décadas dos games de estilo arcade, algo que não agrada a todos.

As entidades de comportamento dinâmico possuem muitas variações de possibilidade de construção, desde “roteiros condicionais” que dependem das ações do jogador para determinar quais rotinas de reação serão acionadas para controlar momentaneamente tais entidades, alternando a execução de múltiplos algoritmos previamente programados (RABIN, 2010, pp. 157-158), até objetos dinâmicos que simulam alguma especificidade de comportamento criativo, o que costuma implicar em algum nível de IA sendo obtida por diversos módulos combinados de estratégias de demonstração de inteligência (SCHUYTEMA, 2008, pp. 346-352).

2.3.1 Diversos gêneros de games = diversos tipos de N.P.C.s

Segundo Adams (2014, p.67), diferentemente do uso que se faz do termo “gênero” para descrever filmes e livros, em que o conteúdo da obra a define – ficção científica,

78 romance épico etc. – usamos essa mesma palavra para nos referirmos ao tipo de desafio apresentado pelo game. Um título do gênero “tiro em primeira pessoa” – First Person Shooter ou F.P.S. – não muda sua classificação em função de ser situado em um contexto narrativo de velho-oeste, de fantasia ou de viagens pelo espaço sideral, do mesmo modo que um jogo de corrida de carros pode ser uma simulação realista, uma competição de veículos fantásticos ou uma disputa de traços cômicos e cartunescos compartilhando o gênero básico.

Partindo daí, somos confrontados com um grande número de gêneros no mercado de games, cuja enumeração e agrupamentos em subgêneros variam grandemente na lista de cada autor pesquisado. Por exemplo, o terceiro capítulo inteiro do livro de Adams (2010) é dedicado a estabelecer sua “taxonomia”. Esse autor trabalha com um gênero amplo de games de tiro – shooters – que se divide nos subgêneros 2D – bidimensionais – ou 3D – tridimensionais – sendo os “games de tiro tridimensionais” subdivididos mais uma vez em primeira pessoa – F.P.S. – ou em terceira pessoa – Third Person Shooter, ou T.P.S.

Novak (2012), que coincidentemente também dedica o terceiro capítulo de seu livro para lidar com a classificação dos games segundo seu gênero, opera de maneira distinta ao dividir o gênero de games de tiro diretamente nas categorias F.P.S. e T.P.S., sem dar relevância à quantidade de dimensões envolvidas.

Não almejamos listar todos os gêneros e subgêneros possíveis, nem seus respectivos tipos de entidades controladas pelo sistema – N.P.C.s – mas apenas apresentar algumas variações relevantes para, mais adiante, realçar os traços comuns e diferenciais entre os oponentes “padrão” e os Drivatars da franquia Forza Motorsport .

Nos games F.P.S. e nos T.P.S. a predominância do papel dos N.P.C.s é a de serem oponentes do jogador, em geral com algum nível de inteligência artificial e, em certos casos configuráveis, com características reativas dinâmicas que se ajustam às habilidades do usuário dentro de limites pré-estabelecidos. Esses N.P.C.s são comumente chamados de “ bots ” e trataremos deles a seguir.

Nos games de Aventura nem todos N.P.C.s são oponentes, embora muitos o sejam. De acordo com a narrativa da história, alguns são personagens que deverão oferecer oportunidades de interação com o jogador, disponibilizando pistas, artefatos, desafios ou quaisquer outros elementos necessários ao andamento da história. Outros N.P.C.s podem ser companheiros de aventura, geralmente complementando as habilidades ausentes no

79 personagem do jogador, que costumam ser parcialmente comandados pelo usuário em alguns momentos, mas também podem oferecer resistência a ele quando a situação da trama assim o requerer. Poderíamos esmiuçar os subgêneros de R.P.G. – Role Playing Game – e de Ação em conjunto com o de Aventura, mas isso não se mostra relevante à nossa investigação.

Nos games de Corrida em geral, os N.P.C.s costumam ser predominantemente oponentes, com características de configuração e comportamento muito similares aos dos já mencionados bots dos games de tiro, a despeito de operarem com um gênero e tipo de ação bastante distinto, conforme apresentaremos adiante.

2.4 Bots

Quando as modificações e módulos “multijogador” dos primeiros games F.P.S. para computadores pessoais começaram a ficar populares, a exemplo do “mod” Counter Strike para o game Half-Life , da versão Arena do título Quake III e da versão Tournament do game Unreal , os jogadores se habituaram a competir com outros humanos em disputas travadas via internet de alta-velocidade ou em “ lan-parties ” – festas de rede-local, em que cada um leva seu computador dedicado para games e todos se conectam na mesma rede para jogar, sem os atrasos causados pela internet – elevando as expectativas a ponto de tornar frustrante a tentativa de voltar a jogar contra os oponentes N.P.C.s tradicionais pré-programados pelos desenvolvedores dos títulos originais.

O nível de inteligência simulada, bem como os comportamentos desses personagens, ficavam tão aquém daquele apresentado por avatares controlados por humanos nas partidas multijogador que, quando tentavam “treinar” no modo jogador-único, o nível de insatisfação dos usuários era suficiente para fazê-los desistir. Os jogadores mais tecnicamente hábeis em programação se sentiram compelidos a desenvolver programas próprios para controlar os oponentes, usando recursos de IA e aprendizagem de máquina para controlar os supostos “avatares” do modo multijogador, conseguindo resultados progressivamente mais satisfatórios. Entendendo que tais oponentes não eram meros N.P.C.s convencionais, nem propriamente avatares – pela ausência de um controlador humano – esses jogadores/programadores passaram a chamar suas criações de “robôs”, ou simplesmente a contração de “ robots ” – bots :

80 Um bot é um oponente artificialmente inteligente que o jogador pode programar por conta própria. [...] Ao construir bots , os jogadores podem criar oponentes mais espertos e resilientes do que aqueles que normalmente são oferecidos no game (geralmente do tipo F.P.S.). Alguns jogadores usam bots como parceiros de treino para praticar antes de jogar contra pessoas de verdade em torneios online. Quake III Arena oferece amplo suporte à criação de bots , e há uma grande quantidade de ferramentas de desenvolvedores externos que foram criadas para ajudar os jogadores a construí- los 4 [tradução nossa] (ADAMS, 2014, p. 179).

Surge naquele momento uma “onda” de modificações para games F.P.S. que girava em torno da inserção forçada desses oponentes “inteligentes” para criar uma experiência de jogador único mais satisfatória, que na verdade era o modo multijogador com apenas um humano entre “robôs”, até que a indústria entendeu a mensagem e assimilou a função de incorporar seus próprios bots nos games, oferecendo aos usuários uma nova classe de oponentes virtuais muito mais convincentes e desafiadores.

2.4.1 Bots demandam recursos adicionais

É importante realçar que essa nova categoria de elementos insere uma demanda significativa por recursos do sistema na plataforma em que é executada. A criação dos bots implica em adicionar todo um novo sistema na plataforma do game, inserindo módulos de IA com acesso a todas rotinas sensoras do sistema, executando múltiplos algoritmos complexos concorrentes. Tudo isso requer ciclos de processamento, espaço de armazenamento e disponibilidade de memória operacional. Precisamos considerar que tais entidades são operadores individuais no sistema e consomem recursos em uma base “escalar” – o “peso” desses programas se multiplica a cada bot adicionado em uma partida.

Diferentemente do que a maioria dos não-jogadores de games costuma pensar, os computadores pessoais dedicados para games estão entre os dispositivos de computação individual mais poderosos, e caros, a cada geração tecnológica, costumando ser superados apenas por equipamentos dedicados a usos específicos, como servidores de dados de médio

4 “A bot is an artificially intelligent opponent that the player can program himself. […] By building bots, players can create tougher and smarter opponents than those that normally ship with the game (usually a first-person shooter). Some players use bots as sparring partners for practice before playing against real people in tournaments. Quake III Arena contains a great deal of support for bots, and a number of third-party tools have been built to help players create them” (ADAMS, 2014, p. 179).

81 ou grande porte, sistemas de computação gráfica profissional e afins. Foi para esses sistemas extraordinários que os primeiros bots foram concebidos, o que restringiu inicialmente seu acesso apenas aos jogadores mais dedicados – e financeiramente abastados. Demoraria algum tempo para essa categoria de oponentes “inteligentes” chegar aos consoles de game domésticos, sofisticando-se progressivamente nas gerações subsequentes.

2.4.2 Os bots e os games de corrida

Em muitos dos primeiros games de corrida, como no caso veterano do Speed Race e de muitos outros que o sucederam, a disputa era mormente contra o contexto do game como um todo, pois os “oponentes” costumavam ser pouco mais do que obstáculos móveis dos quais se deveria desviar habilmente para evitar colisões, o que levaria à perda de tempo e de velocidade, fatores primordiais para elevar a pontuação e prolongar o tempo de jogo. Outros, seguindo o modelo do já mencionado Gran Trak 10 , nem sequer tinham oponentes simultâneos, eram apenas disputas contra o tempo em uma pista tortuosa, muitas vezes visando a honraria de ter suas iniciais grafadas na tela como recordista, até que alguém superasse tal marca. Surgiram ainda títulos como Rally-X, em que o game simulava uma brincadeira de “pega-pega” em um labirinto no qual o jogador deveria fugir dos oponentes virtuais utilizando estrategicamente “derramamentos de óleo” e “fumaça de escapamento” como “armas” contra os perseguidores controlados pela máquina.

Enquanto bastaria uma simples rotina que descrevesse uma linha reta na tela como trajeto de cada “concorrente” em algum ângulo próximo a uma linha perpendicular à base do visor para controlar os “obstáculos móveis” de Speed Race , os veículos perseguidores de Rally X implicavam em um conjunto um pouco mais complexo, composto pelo menos por uma rotina sensora que determinasse a posição do veículo do jogador no labirinto, outro “sensor” que detectasse as paredes, obstáculos e limites do labirinto, e ainda outras rotinas, essas controladoras, que levassem os veículos “caçadores” a alcançar sua “presa” no ambiente bidimensional. Contudo, não havia uma rotina de prevenção aos “becos sem saída”, o que permitia aprisionar temporariamente os caçadores pelo uso estratégico das “armas” citadas anteriormente.

Conforme os títulos desse gênero foram se sofisticando, surgiram disputas contra oponentes virtuais capazes de competir desafiadoramente contra o jogador, mas por serem

82 guiados por rotinas pré-programadas eram extremamente previsíveis e, com alguma observação e muita repetição, podiam-se engendrar estratégias para vencer com certa facilidade, eliminando o desafio e, por consequência, a atração pelo game.

Muitos refinos foram feitos a esses peculiares N.P.C.s do gênero de corrida de carros, mas a grande inovação nesse aspecto foi a incorporação das estratégias de criação dos bots dos games F.P.S. na construção de oponentes controlados pelo sistema que fossem capazes de se adaptar ao estilo de jogar do usuário, oferecendo desafio suficiente para mantê-lo interessado, mas com aleatoriedade suficiente para manter a disputa justa, sem “facilitar” entregando a vitória e sem “humilhar” o jogador ao deixá-lo sem a oportunidade de vencer – ambos problemas comuns com a modalidade anterior de criação de motoristas virtuais.

Para tanto, elementos de aprendizagem de máquina eram utilizados para possibilitar aos outros módulos de IA a se adaptarem aos padrões de ação apreendidos do comportamento do usuário, de modo a equiparar a jogabilidade às habilidades por ele demonstradas.

Inicialmente os games utilizavam um único comportamento padrão pré-programado para todos N.P.C.s, ajustando-os segundo a aprendizagem dinâmica do estilo do jogador, diferenciando-os minimamente com fatores de aleatoriedade individual para evitar o efeito de “clustering” – ajuntamento dos personagens por se comportarem de modo muito semelhante enquanto tentam alcançar a mesma meta – sem exagerar na imprevisibilidade a ponto de tornar os veículos inverossimilmente “desastrados”.

Com a maior disponibilização de recursos possibilitada pelo avanço tecnológico, os games de corrida passaram a contar com vários modelos distintos de comportamento para os oponentes, criando um ambiente de competição mais realista, convincente e sedutoramente desafiador para os jogadores. Utilizando engenhosamente o sistema de aprendizagem de máquina, esses oponentes são configurados dinamicamente para manter o jogador envolvido e disposto a continuar jogando.

Uma significativa inovação se deu com a criação dos Drivatars, inclusos no lançamento de Forza Motorsport 5 . Embora os sistemas de configuração e adequação inteligente dos oponentes às habilidades do jogador tenham sido mantidos, em lugar de utilizar apenas os perfis de “motoristas” pré-determinados de uma seleção “de fábrica”, quando o sistema está online e conectado aos servidores da Turn10/Microsoft cada veículo recebe um Drivatar que, mais do que um perfil determinante de um estilo de pilotagem, é uma

83 simulação comportamental do modo de dirigir de uma pessoa real, cujas práticas de pilotagem foram registradas ao longo de todas as vezes em que aquele indivíduo competiu no game e o sistema estava conectado à internet, utilizando estratégias de aprendizagem de máquina.

Além de reter todo um histórico de dados das ações dos motoristas em sua base de dados, facilitando a simulação de seus comportamentos quando estes tinham menos habilidades, o sistema dos Drivatars também inclui módulos de IA dedicados a prever comportamentos futuros com base nas ações passadas dos jogadores, permitindo que diversas situações sejam solucionadas. Por exemplo, um Drivatar de um jogador menos experiente do que o usuário contra o qual deva competir será ajustado para ter um desempenho compatível com o deste, utilizando uma combinação de projeções estatísticas baseadas na evolução pregressa do piloto a ser simulado para predizer quais seriam os traços comportamentais do mesmo após atingir o nível requerido. Outra situação corrente é a exposição do Drivatar a uma condição de jogabilidade nova que o usuário sob simulação nunca experimentou, mas que, por meio de aproximações baseadas em extrapolações de condições similares, podem ser previstas pelo sistema de IA que agencia uma rotina preditiva associada ao “agente inteligente” resultante da aprendizagem de máquina.

Sobre “agente inteligente”, concordamos que:

Não existe uma definição única para um agente inteligente. A IBM sugere que agentes inteligentes são programas que executam um conjunto de operações no lugar de um usuário, usando uma representação do conhecimento que contém os objetivos do usuário. Outra definição afirma que agentes são programas que realizam diálogos para negociar e coordenar transferências de informação. Uma definição mais ampla afirma que agente é um dispositivo (programa e/ou equipamento) que é capaz de sentir seu ambiente por meio de sensores específicos e de agir, usando atuadores, sobre este ambiente (ARTERO, 2009, p. 206).

Reconhecemos que, atuando de modo diferente dos demais bots , os Drivatars são agentes inteligentes que coordenam, e interagem com, outros agentes inteligentes, alguns internos ao sistema de controle de artefatos e de entidades virtuais atuantes no espaço de ação, outros atuando nas diversas partes estruturais que compõem o game e tecem seu espaço de ação, sendo os agentes de aprendizagem de máquina dedicados a construir a representação do comportamento dos pilotos humanos seu elemento mais distintivo.

84 CAPÍTULO 3 – IAs Fracas e Emoções Fortes

3.1 O jogo da ilusão: IA aplicada em games

Conforme já mencionado (1.1.4), nosso foco com o estudo dos Drivatars é o aspecto de “agir humanamente” das IAs, sendo a “sensação” de estar competindo contra outros humanos, e não contra entidades de comportamento maquínico, o principal motivador a deflagrar a presente investigação.

Ao discorrer sobre a utilização de inteligência nos games, Schuytema (2008, p. 347) diz que “IA é uma ilusão”, como conclusão do raciocínio de que “o objetivo não é desenvolver uma inteligência de verdade, mas criar no jogador a sensação de que um desafio está reagindo a ele e que o que ele (o jogador) faz realmente importa”, para então reforçar seu argumento logo adiante, ao afirmar que “você não precisa simular o pensamento – apenas criar reação suficiente para tornar o desafio dinâmico”.

Esse objetivo de criar uma ilusão de inteligência para manipular a sensação do jogador durante sua interação com as entidades controladas pelo sistema dentro do game parece ser ponto pacífico entre profissionais e especialistas em desenvolvimento de games, como podemos ver logo na introdução do livro Programming Game A.I. by Example :

Mas, o que é essa coisa misteriosa que chamamos de inteligência artificial? No que se trata de IA em games tenho uma opinião firme de que se o jogador acredita que o agente contra o qual ele está jogando é inteligente, então ele é inteligente. Simples assim. Nossa meta é a de criar agentes que proporcionem uma ilusão de inteligência , e nada mais 5 [tradução nossa] (BUCKLAND, 2005, p. xx).

O autor prossegue com a narrativa de um experimento prático que fundamenta tanto sua opinião, quanto nosso argumento, descrevendo uma situação em que jogadores foram convocados para testar a IA de um game F.P.S. da Bungie/Microsoft chamado Halo antes de seu lançamento. Durante algumas das sessões de testes, sem modificar o nível de inteligência dos agentes oponentes, mas tornando os personagens mais vulneráveis aos ataques das armas – aumentando a taxa de danos por impacto – e, portanto, mais fáceis de “matar”, 36% dos

5 “But what is this mysterious thing we call artificial intelligence? With regard to game A.I. I am firmly of the opinion that if the player believes the agent he’s playing against is intelligent, then it is intelligent. It’s that simple. Our goal is to design agents that provide the illusion of intelligence , nothing more” (BUCKLAND, 2005, p. xx).

85 jogadores assinalaram que a IA não era inteligente o suficiente, enquanto apenas 8% julgaram a IA suficientemente competente. Ao tornar os oponentes mais resistentes aos ataques – diminuindo a taxa de danos por impacto – e criar personagens “duros de matar” em outras sessões, ainda sem mexer no nível de inteligência dos agentes, o resultado foi o oposto: 0% dos usuários questionou a competência da IA e 43% deles julgou que o nível de inteligência era muito elevado.

O fato de o nível de inteligência haver permanecido inalterado durante os referidos testes reforça a importância de observarmos o que causa a “sensação de inteligência” durante a experiência do game, pois é dela que resulta a ilusão de que o oponente simulado poderia ser mais do que um agente maquínico em um sistema de processamento de dados.

3.1.1 Conjunto de IAs fracas: especialização como estratégia de ilusão

Devemos ressaltar aqui que estamos lidando sempre com IAs “fracas”, agentes inteligentes com funções específicas e limitadas, que individualmente executam tipos únicos de ação que simulam uma “iniciativa humana” e que, conjuntamente, criam a aparência de entendimento e atitudes comumente atribuídos à inteligência manifestada pelos humanos.

Segundo Buckland (2005, pp. 43-83), um dos elementos mais recorrentes na construção dos comportamentos inteligentes dos agentes de ação condicional – que atuam quando alguma condição é preenchida – é a utilização do princípio matemático de “máquinas de estados finitos” – Finite State Machines , ou F.S.M. – também chamados de “autômatos finitos” em algumas especificidades de teoria da computação.

Como exemplo, podemos tomar um sistema bastante simples, como o acionamento da luz interna da geladeira. Quando a porta está aberta, a luz se acende. Quando a porta está fechada, ela se apaga. O “agente” seria o sensor em si, um interruptor de pressão localizado estrategicamente de modo a acionar a iluminação quando a condição “porta aberta” é preenchida, e a interromper a mesma quando a outra condição possível, “porta fechada”, é preenchida. Essa “máquina” tem “dois estados” e uma regra condicional fixa em sua estrutura.

Outro exemplo de F.S.M. é um aparelho de TV. Se considerarmos não apenas “ligado” e “desligado”, mas também cada “canal” disponível quando o dispositivo está ligado como um estado, o número de estados possíveis do sistema será o número finito de canais mais a

86 situação “desligado”. A condição a ser preenchida para acionar um estado específico também se torna mais complexa, nesse caso suprida por outro agente, um sensor conectado a uma interface, capaz de traduzir a preferência do usuário do sistema ao fazer sua escolha.

A despeito de apresentar complexidade muito inferior, a ação do primeiro exemplo costuma ser mais facilmente identificável como um sistema “inteligente”, pois a máquina reage com uma ação complementar a uma ação independente do usuário – a luz acende “sozinha” ao se abrir a porta da geladeira – e não em decorrência direta da mesma – i.e.: apertar um botão para acendê-la – como no caso de selecionar um canal de TV e o mesmo ser mostrado na tela. A sensação do usuário é a de que o segundo exemplo não parece denotar “inteligência”, a despeito de a complexa cadeia interna de ações inteligentemente condicionadas, que permitem a atuação do sistema, ser milhares de vezes mais sofisticada do que a do primeiro exemplo.

Combinando estrategicamente múltiplos agentes inteligentes básicos, que operem como F.S.M.s tomando decisões individualmente simples, atuando nas diversas funções necessárias para o funcionamento do sistema – no nosso caso, um game – como sensores e atuadores dos mais diversos tipos, sejam detectores de colisão, evitadores de colisão, detectores de proximidade, calculadores de distância entre elementos, comparadores, reconhecedores de artefatos e entidades, diferenciadores de superfícies ou mesmo operadores decisórios em um sistema lógico de entroncamento narrativo, pode-se imbuir o sistema com a capacidade de se comportar inteligentemente diante de um observador humano.

Confinar a simulação de comportamento humanizado a um sistema de ações limitadas parece facilitar a aplicação das F.S.M.s na construção de agentes inteligentes, como no caso dos bots de corrida de carros, mas não sem uma boa dose de criatividade técnica:

A diversidade de comportamentos em um sistema de IA de games de corrida não é muito grande, então uma máquina de estados finitos (F.S.M.) costuma ser suficiente para representá-los. A todo e qualquer momento a maioria dos comportamentos pode ser validada e, de modo geral, todos vão competir para ser aquele que está ativo, devendo ser relidos a cada atualização da camada estratégica. Um bom modo de gerenciá-los é fazer com que cada estado válido (como definido pelas transições de saída do estado vigente) avalie uma pontuação de “utilidade”. Se essa pontuação for maior do que a do estado vigente, deverá ocorrer uma transição. Para evitar estados de vida-curta e transições rápidas, uma pequena margem deve ser adicionada ao estado de utilidade corrente. Isso gerará uma histerese que tenderá a reter o comportamento

87 vigente, a menos que uma alternativa mais forte emerja 6 [tradução nossa] (TOMLINSON e MELDER apud RABIN, 2014, pp. 473-474) .

Além de listar e detalhar alguns dos muitos, mas limitados, comportamentos possíveis para bots de games de corrida – dirigir normalmente, ultrapassar, defender-se e bloquear ultrapassagens, pegar atalhos, recuperar-se após acidentes etc. – o artigo An Architecture Overview for IA in Racing Games (TOMLINSON e MELDER apud RABIN, 2014, pp. 471- 479) apresenta ainda uma série de características que precisam ser incorporadas ao piloto virtual para torná-lo verossímil, com destaque para a personalidade simulada da IA, que, além das habilidades mencionadas, deverá ter fatores de emulação emocional como agressividade e perda de atenção por fadiga mental, que influenciarão variáveis como a taxa de erros e a qualidade da pilotagem. Outro traço de “humanização” sugerido é o da inserção de um fator “biorítmico” na construção do agente, um elemento de flutuação de “altos e baixos” que fazem variar as habilidades do bot ao longo da partida – uma função que faria o conjunto de habilidades subir e descer em eficiência de modo sutil, mas suficiente para fazer diferença, por meio de um fator oscilante – gerando momentos de vulnerabilidade e propensão a erros.

Outro exemplo de comportamento inteligente que vemos nos bots dos games de corrida de carros é a habilidade de encontrar seu trajeto no percurso. Embora o ato de “seguir adiante na pista” pareça ser algo simples, sob o viés do olhar de um humano em idade adulta, com saúde e em plena posse de suas capacidades físicas e mentais – e que saiba dirigir – quando tratamos de um ambiente virtual com simulações complexas de interações físicas, somos confrontados com um grande desafio. Tanto que diversos autores, como Gari Biasillo em seu artigo Representing a Racetrack for the AI (apud RABIN, 2002, pp. 439-443) e a dupla Simon Tomlinson e Nic Melder com o estudo Representing and Driving a Race Track for AI Controlled Vehicles (apud RABIN, 2014, pp. 481-490), apresentam diferentes propostas de solução para tanto, lançando mão de variados níveis de complexidade em suas abordagens de construção de IAs ao fazê-lo.

6 “The breadth of behaviors in a racing AI system is not large, so generally a finite-state machine (FSM) is sufficient to represent them. At any time most of the behaviors may become valid and so they all compete to be the active one, and should be reviewed on every update of the strategic layer. A good way to manage this is for each valid state (as defined by the current state exit transitions) to evaluate a `utility’ score. Provided that this utility score is larger than the current’s state, a state transition would result. In order to avoid short-lived states and rapid transitioning, a small additional threshold should be added to the current state utility. This will produce hysteresis which will tend to retain the current behavior state unless a stronger alternative arises” (TOMLINSON e MELDER apud RABIN, 2014, pp. 473-474).

88 Estabelecer trajetos e encontrar caminhos dentro do espaço de ação dos games é um tópico recorrente entre os especialistas em IA Por exemplo, seis dos quinze capítulos do referencial livro AI for Game Developers (BOURG e SEEMAN, 2004) são dedicados exclusivamente aos tópicos que envolvem o deslocamento de entidades dentro dos games, bem como temos uma parte inteira da obra AI Game Development: Synthetic Creatures with Learning and Reactive Behaviors (CHAMPANDARD, 2004) dedicada exclusivamente às “habilidades de movimento” das entidades controladas pelo sistema.

Partindo de tais referências, assumimos que o princípio mais básico que podemos utilizar para um veículo se deslocar por uma pista é o de estabelecer a rota da linha média (LECKY-THOMPSON, 2008, pp. 38-41) por meio de um agente sensor que se comporta de modo análogo a um dispositivo de radar. Essa linha (imaginária ou não), que divide a pista ao meio, não é muito diferente daquela que tende a marcar o trajeto de uma pessoa caminhando por uma trilha sem obstáculos, despreocupada com a possibilidade de algo se aproximar velozmente atrás dela ou na direção contrária, e sem a intenção de se esconder. Instintivamente, a maioria das pessoas tende a andar ao centro da trilha. Para simular esse comportamento, podemos dotar nosso agente de IA com rotinas sensoras de proximidade, de modo que ele meça a distância entre ele e as laterais da pista, e se movimente de modo a manter essas “variáveis” aproximadamente com o mesmo valor – a equidistância das laterais equivale ao centro da pista. Se limitarmos o movimento em apenas um sentido, o desejado, o problema pode parecer solucionado, mas não está.

Ao incorporarmos elementos de Física e Matemática complexa na simulação (BUCKLAND, 2005, cap. I), (MARK, 2009), percebemos que, para a prática de corrida competitiva, a linha média não é o melhor trajeto. Para respeitar a relação entre a massa e a velocidade em conformidade com as leis da cinemática, da aerodinâmica, do atrito e outras, novas estratégias precisam ser incorporadas, o que significa que novos agentes de IA são necessários, cujas funções representem as equações matemáticas necessárias para viabilizar a simulação com os devidos tangenciamentos de trajetória nas curvas, acelerações e desacelerações proporcionais às necessidades de cada situação, de modo a otimizar o trajeto com a maior velocidade média possível.

Se a intenção é obter uma simulação cientificamente realista, utilizam-se as equações de Física e Matemática avançadas, o que resulta em um sistema bastante complexo e que demanda muitos recursos da plataforma.

89 Se a intenção é alcançar funcionalidade aparente, a partir de um sistema mais simples e com parâmetros configuráveis, outros tipos de sistemas de equação podem ser utilizados por meio de agentes de IA, desde que operem em função da tarefa a eles incumbida na estruturação e parametrização de seus elementos e interrelações, e não necessariamente submissos a complexas leis naturais simuladas. Os resultados aparentes podem ser os mesmos de uma simulação científica, mas com menor utilização de recursos do sistema.

Simplificando, do mesmo modo que a ilusão de inteligência é mais significativa para a experiência do usuário do que a presença de inteligência em si, se a ilusão de “realidade” dentro do contexto ficcional do game for mantida, sustentando sua verossimilhança interna, não interessa ao jogador que o sistema não esteja tecnicamente operando com base em termos científicos.

Em termos práticos, diversos elementos dos games são realizados pelo uso estratégico de agentes inteligentes operando estruturalmente de maneira cooperativa e complementar. Reconhecemos assim diversos usos de IA em games, tais como: geração de mapas e cenários; adaptabilidade dinâmica de contextos, ambientes, obstáculos e outros elementos em função das habilidades demonstradas pelo jogador; sensores auto-adaptativos; geração e controle de oponentes; detecção de padrões e de “comportamentos emergentes” durante o jogo; otimização dinâmica de recursos de sistema; interfaces auto-adaptativas; aumento da credibilidade de elementos interativos/animados, entre outros.

3.1.2 Representação do conhecimento

Todas essas funções dependem de uma operação inicial que embasa a possibilidade de haver alguma interação entre o processamento da IA e os dados com os quais ela irá operar: a representação do conhecimento. Dave Mark (2004, pp. 24-41) apresenta um processo de quantificação daquilo que é observável com o objetivo de transformar fatos observados em dados numéricos, para poder estruturar um processo de tomada de decisão com nos valores obtidos por meio do uso de operações racionais/matemáticas ordenadas logicamente em função da origem dos dados e da decisão a ser tomada. Ou seja, de algoritmos.

Para tanto, o autor expõe um processo de conversão de comportamentos em algoritmos, argumentando que o fundamento das ações não muda em função da linguagem por meio da qual tais ações são expressas, logo o método, ou a ferramenta, não é tão relevante

90 quanto a fidelidade do algoritmo ao comportamento. Por exemplo, uma cena pode ser descrita em texto ou pintada numa tela. Assumindo que o único fator relevante seja o registro da cena, a despeito da experiência estética provocada por sua representação em um observador, pode- se dizer que ambos os métodos são equivalentes.

O mesmo pode ser dito a respeito das ferramentas utilizadas, pois tanto o par “papel e caneta” quando o par “tintas e tela” podem atingir a mesma meta de registrar um fato. Assim, um comportamento observável deve poder ser descrito em qualquer linguagem, seja um discurso textual, seja uma ilustração colorida, seja uma equação matemática ou um conjunto de ações e regras listadas de modo a viabilizar a reprodução do fato observado. Note-se que essa última sugestão exemplar de “linguagem descritiva” consiste em uma razoável definição de algoritmo. Os valores atribuídos às ações e aos objetos envolvidos dependem das relações entre os mesmos, mas tanto os comportamentos observados são conhecimento do observador, e podem ser representados algoritmicamente, quanto os atos em si também o são, e podem ser avaliados com notas relativas às relações/proporções pertinentes que serão suas representações numéricas, seus “valores”, mesmo que temporários e contingentes ao ato instantâneo. Segundo esse raciocínio, algo que pode ser descrito em linguagens humanas, deveria poder ser descrito em linguagem de máquina, mas com restrições. O autor se exime dos problemas de subjetividade e complexidade ao limitar o escopo dessa proposta didaticamente simplificada apenas àquilo que possa ser representado por uma máquina de estados finitos.

Champandard (2004, cap. 9) afirma que se a análise e o entendimento do conhecimento envolvem um elemento intuitivo, o processo de especificar o conhecimento para a construção de um sistema implica encontrar um modo de representar os mesmos conceitos analisados e entendidos, usando notação formal ou dados estruturais de programação. O autor chama de “especificação” a definição da interface e dos dados em um formato que o computador possa entender e é a ponte entre a descrição da ação em linguagem humana e a implementação da IA Grosso modo, podemos dizer que “especificar” implica em adotar um padrão único de representação do conhecimento que seja aplicável a todo espectro de informações e dados a serem tratados pelo sistema da IA, que deve ser compartilhado por todos seus agentes.

91 O autor levanta algumas características importantes a se levar em conta ao assumir um formato para representar o conhecimento, realçando os atributos de suficiência, abrangência, eficiência, consistências sintática e semântica, completude e, também, sua expansibilidade.

“Suficiência” implica em possuir todos elementos básicos para descrever o que deve ser representado. “Abrangência” é a garantia de que todos agentes envolvidos, desde a coleta de dados do usuário ou sensores físicos no mundo, até os atuadores físicos que devolvem as respostas ao mundo, seja na tela, seja fazendo vibrar um controle, possam trabalhar irrestritamente com o mesmo sistema de representação. Sendo a base a partir da qual o sistema fará inferências, é necessário que haja “eficiência” no processo de representar o conhecimento, fazendo-o do modo mais simples e direto sem permitir perda de significado. O sistema de representações deve funcionar com a mesma “consistência”de qualquer linguagem, com sintaxe clara e semântica bem estabelecida. O vocabulário representativo deve ser estabelecido de modo a ser o mais “completo” possível, mas é necessário prever a emergência de situações inéditas que requeiram a implementação de novos elementos representacionais, logo deve-se conceber um meio de expandir o sistema de representação do conhecimento sem que isso requeira a modificação da IA que o utiliza.

Com foco em games, devemos observar que:

Conhecimento precisa ser representado computacionalmente para viabilizar a realização de qualquer forma de IA, e há muitos modos de fazê-lo. Os tipos de representação incluem: os gramaticais , a exemplo das evoluções gramaticais; os gráficos, como as F.S.M.s ou os modelos probabilísticos, em árvores , como nas árvores de decisão, árvores de comportamento e em programação genética; os conexionismos , como nas redes neurais artificiais; os genéticos, como os algoritmos genéticos e as estratégias evolucionárias; e os tabulares , como a T.D.L. – temporal difference learning – e o q-learning . [...] Todos tipos de representação acima têm usos diferenciados nos games, e podem ser associados a várias tarefas de IA em games 7 [tradução nossa] (YANNAKAKIS e TOGELIUS, 2017, p. 43).

7 “To enable any form of artificial intelligence knowledge needs to be represented computationally and the ways this can happen are many. Representation types include grammars such as grammatical evolution, graphs such as finite state machines or probabilistic models, trees such as decision trees, behavior trees and genetic programming, connectionism such as artificial neural networks, genetic such as genetic algorithms and evolutionary strategies and tabular such as temporal difference learning and q-learning. (…) All above representation types find dissimilar uses in games and can be associated with various names AI tasks” (YANNAKAKIS e TOGELIUS, 2017, p. 43).

92 Há uma predominância do uso dos tipos gráficos e em árvores de representação de conhecimento na construção dos bots dos games de corrida automotiva, que estão hierarquicamente confinados às regras relacionais entre os elementos do espaço de ação ao qual estão submetidos, sejam essas regras simulações realistas das leis naturais, sejam emulações de comportamento aparente que provoquem a ilusão de uma realidade verossímil. Seus comportamentos são limitados não apenas pelas informações instantâneas capturadas por seus agentes sensores, mas também pelas condições estruturantes do sistema de representação do conhecimento do game em si.

As variáveis passíveis de serem ajustadas e auto-ajustadas no comportamento desses motoristas virtuais permitem não apenas que o jogador selecione previamente o nível de habilidade que seus competidores robóticos demonstrarão, mas também permite aos próprios agentes inteligentes, ao interpretar o conhecimento representado resultante do comportamento do jogador, a se adequarem dinamicamente às flutuações das habilidades do usuário durante a competição.

Esse ponto caracteriza um importante uso da aprendizagem de máquina.

3.1.3 Aprendizagem de máquina, bots e Drivatars

Para realizar o auto-ajuste citado previamente, o sistema como um todo apreende constantemente os dados relativos ao comportamento do jogador, utilizando como referência de filtragem os mesmos parâmetros que definem a operação dos agentes que controlam os comportamentos dos pilotos virtuais, conforme mencionado na estratégia exemplar de uso das F.S.M.s do tópico anterior.

Embora as especificidades técnicas dos aspectos de programação estejam fora do escopo de nossa investigação, faz-se necessária a apresentação de outras estratégias de criação de agentes de IA, para podermos compreender seu eventual entroncamento com a aprendizagem de máquina e a significância da transição do uso de bots auto-adaptativos, que aprendem a reagir ao piloto humano contra o qual competem, para o uso dos Drivatars, que mediam a necessidade de ação imediata de reagir, de modo similar aos supracitados bots , com a simulação de comportamentos dos pilotos humanos específicos, os quais foram treinados a mimetizar.

93 Além das F.S.M.s, já explicadas e exemplificadas anteriormente, mencionaremos outras técnicas e realçaremos os modelos de IA mais comumente utilizados na construção dos agentes que atuam como pilotos controlados pelo sistema em games de corridas de carro.

De acordo com o estudo sobre os métodos de I.A publicado por Yannakakis e Togelius (2017, cap. 2) no livro Artificial Intelligence and Games , além da representação do conhecimento, outro fator fundamental a ser considerado é a “utilidade” que, segundo a Teoria dos Jogos, seria a medição ou proporcionamento da “escolha racional” feita no discorrer de um jogo e, em nosso recorte, dentro de um game. Grosso modo, trata-se de uma função dedicada a facilitar a tomada de decisão por parte de um algoritmo. A “função de utilidade” atua coletando informações sobre o que se dará após a escolha, avaliando as coisas “boas” ou “ruins” em cada opção estabelecendo uma relação de ganhos e perdas.

Os autores sintetizam ainda que a “função de utilidade” é essencial para o processo de aprendizagem de máquina, atuando como um sistema de sinalização de quanto o algoritmo está “aprendendo” ao atribuir uma pontuação indicando se a representação do conhecimento está “boa” ou não. Desse modo, os processos decisórios são conduzidos de modo a fazer escolhas que implementem aprimoramentos e a evitar trajetos que gerem ruído informacional ou comportamentos indesejados. Nesse contexto, para a máquina, aprender equivale a maximizar a utilidade da representação.

Os métodos de IA que geram Comportamento Ad-Hoc, ou comportamento forçado, incluem as já explicadas máquinas de estados finitos – F.S.M.s – os algoritmos baseados na “função de utilidade”, conforme mencionado acima, e as estruturadas em árvores de comportamento.

As árvores de comportamento são sistemas de conhecimento especializado, similar às F.S.M.s, mas, por serem modulares e operarem com representações de comportamentos em lugar de valores e variáveis, podem ser mais flexíveis e prover comportamentos complexos como resultado de operações simples.

Com fidelidade isomórfica a seu nome, as IAs em árvore de comportamento operam com ramificações sequenciais – quando um comportamento é executado, abre-se um leque de novos comportamentos possíveis, até que um deles tenha seus pressupostos atendidos e seja então acionado, abrindo um novo leque – e também filtros condicionais, em que algumas

94 possibilidades só fiquem disponíveis se outras condições – não necessariamente dependentes do comportamento anterior – forem preenchidas.

Outra modalidade de IA é a de “árvores de busca”. Nessa analogia, a raiz é o nó que representa o estado em que a busca se inicia. As arestas representam as ações executadas pelos agentes para ir de um estado a outro, e os nós representam estados. Como costuma haver múltiplas ações possíveis a cada nó, a árvore vai se ramificando à medida que condições são preenchidas, estados alterados e a máquina aprende.

Os algoritmos de busca em árvore se diferenciam uns dos outros segundo a ordem na qual, e pelo modo como, as ramificações são exploradas. Entre elas temos a “busca não informada”, na qual são procurados “espaços de estado”, mas carecendo de qualquer informação a respeito do objetivo da busca, podendo ser efetuada no modo “profundidade primeiro”, em que os nós são explorados sucessivamente, avançando pelas arestas nível a nível, ou no modo “amplitude primeiro”, em que as arestas de um mesmo nível são exploradas sucessivamente, verificando os nós de um nível de cada vez.

Na busca em árvore no modo “melhor primeiro” – também chamado de A*, ou A estrela –, o objetivo é informado no começo e as arestas e nós que melhores se enquadrarem são priorizadas e verificadas primeiro, ao mesmo tempo em que o algoritmo mantém uma tabela dos nós e arestas não explorados. Esse mecanismo é um representante exemplar da função de “encontrar caminho” que pode ser efetuada por um agente de IA

As modalidades de árvore de busca anteriores costumam ser utilizadas em games com apenas um jogador, pois as alterações de estado de origem externa ao sistema vêm de uma só fonte. Nos games com dois jogadores é mais comum a utilização da modalidade Minimax, em que o ciclo principal do algoritmo de busca alterna varreduras entre os jogadores (nomeados “min” e “max" – daí o nome), explorando todas possibilidades de estado de seus respectivos nós disponíveis a cada iteração, antes de passar para o próximo nível e repetir o ciclo “da raiz às folhas”. Ao verificar as condições de “favorabilidade” de cada jogador, aquele que está em melhor condição – max – tenta maximizar os ganhos de suas escolhas em relação ao outro – min – que opera tentando minimizar as possibilidades de max aumentar sua vantagem. O modelo Minimax é um bom exemplo de algoritmo para um oponente virtual em um jogo de xadrez, situação em que a análise dos movimentos futuros possíveis implica em uma condição de “favorabilidade” de um sobre o outro, determinando se a IA deve agir ofensivamente como

95 max, ou defensivamente como min, a cada movimento, ao mesmo tempo que a máquina aprende progressivamente de rodada em rodada.

Se o sistema Minimax depende de um conjunto determinístico de opções limitadas de possibilidades como um jogo de xadrez, as árvores de buscas do tipo Monte Carlo foram elaboradas para operar com contextos não-deterministas – como em uma partida de Banco- Imobiliário ou de gamão – e/ou com um conjunto imperfeito de informações – como numa partida de Batalha Naval. A apresentação do detalhamento técnico do funcionamento dessa modalidade de busca foge ao escopo de nossa investigação, bastando, para tanto, informar a respeito de suas capacidades de lidar com situações de indeterminação e com informações incompletas, bem como a sigla pela qual costuma ser mencionada na literatura especializada: MCTS – Monte Carlo Tree Search .

Tendo estabelecido um plano de fundo a respeito dos tipos básicos de algoritmos de IA apresentados ao introduzir seus representantes mais fundamentais, isentaremo-nos da extensa tarefa de detalhá-los todos – bem como não abordaremos agentes inteligentes interessantíssimos como controladores P.I.D., redes perceptrons, sistemas elásticos etc. – devido aos mesmos não serem relevantes a esse momento da formalização de nossa pesquisa. Focalizemos nossos esforços nas características da aprendizagem de máquina supervisionada que, aparentemente, é o modelo predominante utilizado nos Drivatars.

Um exemplo didático bastante comum da aprendizagem supervisionada é da tarefa de distinguir entre dois tipos de frutas, como laranjas e bananas ou maçãs e peras, usando características como cor, dimensões e forma como atributos diferenciais. Nesse exemplo, a base de dados é previamente limitada entre os dois tipos de frutas e as características que o agente de IA irá considerar são pré-determinadas, mas os parâmetros de diferenciação não são pré-determinados. Ao varrer a base de dados, o algoritmo deve ser capaz de comparar as características e reconhecer padrões, separando o conjunto de dados inicial em dois grupos distintos ao final do ciclo.

Se incluirmos mais uma etapa, construindo um sistema de árvore de decisão, uma suposta etapa seguinte poderia conter nomes específicos para diversas frutas, acompanhados dos parâmetros requeridos para nomeá-los, permitindo que os grupos sejam nomeados e caracterizando a presença de um sistema de treinamento supervisionado, que ocorre quando se determina previamente não apenas o tipo dos dados de entrada, mas também os de saída. É importante entender que, se um só agente tivesse começado com toda informação, o ato de

96 “nomear” teria de ser operado uma vez a cada unidade amostrada, comparando-as individualmente com todos os jogos de parâmetros para cada nome de fruta, o que continuaria caracterizando a IA como um sistema de treinamento supervisionado, mas iria requerer muito mais ciclos, nós e arestas – na prática: tempo, energia, memória e espaço de armazenamento – do que apenas agrupar os semelhantes e depois nomeá-los categoricamente.

Segundo a patente da tecnologia básica registrada pela Microsoft, os Drivatars parecem utilizar o modelo de treinamento supervisionado na construção do avatar do usuário para coletar dados a serem posteriormente utilizados na implementação da simulação:

As implementações descritas [...] aprimoram o realismo da similaridade humana dos oponentes computadorizados nos games de corrida, e também em outros tipos de game de computador. Em uma implementação, os dados de treinamento supervisionado são parametrizados e gravados a partir de um sujeito humano. Posteriormente, um avatar controlado por computador pode ser criado de modo a emular o estilo (i.e.: estratégia, táticas, habilidades e deficiências) do tal sujeito humano. Desse modo, um jogador humano poderá competir contra um oponente controlado pela I.A de maneira muito mais “humana”, modelada a partir do tal sujeito emulado. Além disso, esse avatar pode ser personalizado de modo a emular o desempenho de um amigo, ou mesmo de um competidor famoso do mundo real. Adicionalmente, o comportamento desse avatar poderá variar em função das variações de comportamento do sujeito humano ao longo de sucessivas sessões de treinamento para cada segmento do game, proporcionando uma experiência de jogar ainda menos previsível 8 [tradução nossa] (HERBRICH, TIPPING e HATTON, 2006, coluna 1, linha 66).

Os inventores prosseguem especificando diversas possibilidades de implementação, bem como detalhes a respeito de como os procedimentos devem ser encadeados, e como os mesmos atuarão de acordo com o modo como forem combinados e utilizados.

8 “Implementations described […] enhance the human-like realism of computer opponents in racing-type games and other computer games. In one implementation, personalized training data is parameterized and recorded for a human subject. Thereafter, a computer controlled avatar may be generated to emulate the style (e.g., strategy, tactics, skill, and short-comings) of the human subject. In this manner, a human player may compete against a more human-like AI control competitor modeled on the human subject. Furthermore, this avatar may be personalized to perform like a friend or a famous competitor in the real World. In addition, the behavior of the avatar may be varied based on variations of the human subject’s behavior over multiple training sessions for each game segment to provide a less predictable gaming experience” (HERBRICH, TIPPING e HATTON, 2006, coluna 1, linha 66).

97 Observando que o texto citado é parte integrante da solicitação inicial da patente depositada em 2003, que seria depois auferida em 2006, e considerando que a primeira versão dos Drivatars chegou ao mercado apenas em 2013, reconhecemos um intervalo de uma década de investimentos em pesquisa e desenvolvimento na realização desses virtual impersonators . Se nos referirmos ao histórico do capítulo anterior (itens 2.1.2.7 a 2.1.2.10), reconheceremos também as transformações e aprimoramentos nas tecnologias envolvidas, o que contribuiu para viabilizar sua implementação.

Entre as ilustrações que acompanharam o pedido de patente, reconhecemos um diagrama (HERBRICH, TIPPING e HATTON, 2006, FIG. 4) bastante revelador no que tange às estratégias de IA envolvidas:

No diagrama (HERBRICH, TIPPING e HATTON, 2006, FIG. 4), os “dados de treinamento” (402) da aprendizagem supervisionada e a informação do “contexto” (404) são disponibilizados para o “módulo de definição do comportamento do avatar” (406) que possui internamente um “módulo de função de densidade probabilística” (412), responsável pela “definição do comportamento” (408). Com esse conhecimento definido, diante de um “estímulo” (414) composto pela entrada de dados de modificação do contexto, o “sistema de controle de comportamento da IA” (410) aplica seus valores modificadores de atuação sobre

98 os possíveis comportamentos: “acelerar (A)”; “virar o volante (S)”; “frear (B)” (416). Recebendo as devidas instruções, a “máquina de implementação” (418) do conjunto realiza os devidos comportamentos no sistema do game. E o Drivatar “atua”.

É importante observar que Yannakakis e Togelius (2017, pp. 154-155) apontam uma limitação da aplicação do modelo proposto na supracitada patente, pois o agente virtual só conseguiria emular o comportamento do sujeito humano em segmentos de pista que tivessem sido previamente amostradas em treinamento pelo mesmo, o que impediria o uso do avatar treinado por um indivíduo específico em pistas que o mesmo não tenha jogado. Contudo, os próprios autores sugerem um caminho de solução, por meio do método de aprendizagem reforçada, técnica que isoladamente já oferece bons resultados ao simular comportamento humano em outros simuladores de corrida de carros. Observando a capacidade preditiva dos Drivatars, ao serem submetidos a contextos para os quais não foram diretamente treinados, estamos inclinados a concordar com a sugestão de que a estratégia de aprendizagem reforçada tem sido utilizada em combinação com as demais técnicas que constituem o comportamento desses oponentes virtuais.

3.2 Inteligência artificial e emoção real

A despeito de existirem games com funções específicas, como treinamento militar ou profissional, educação, ou mesmo com a função de avaliar alguma habilidade de um indivíduo, parece ser ponto pacífico entre os estudiosos do assunto de que a maioria das pessoas joga games por diversão/entretenimento (ADAMS, 2014, cap. 1), (NOVAK, 2012, cap. 4), (MILLINGTON e FUNGE, 2009, cap. 2), (SCHUYTEMA, 2008, cap. 8), (LECKY- THOMPSON, 2008, cap.2), (BUCKLAND, 2005, XIX-XXI), sustentando o argumento de que cuidados devem ser tomados para que o jogador continue engajado depois de começar a jogar.

Aparentemente, os inventores da tecnologia de base dos Drivatars estavam bem cientes da importância da sensação de interação humana nos games de corrida para o fator “diversão” quando propuseram sua tecnologia. Basta vermos parte da problematização apresentada por eles para justificar sua invenção:

[...] Outra característica popular desses games (de corrida) é a oportunidade de competir contra um ou mais oponentes humanos. Por exemplo, dois amigos podem

99 competir um contra o outro no mesmo console ou por meio de uma rede, essas partidas de Humanos X Humanos costumam proporcionar uma corrida muito mais variada e interessante porque os competidores humanos tendem a desenvolver seus estilos próprios de corrida e a se movimentar de maneira significativa e “não-ideal”. O resultado costuma ser uma competição mais dinâmica, imprevisível e excitante. Contudo, quando não há outros competidores humanos disponíveis, o jogador costuma ficar limitado a jogar contra oponentes controlados por uma IA nem um pouco humana 9 [tradução nossa] (HERBRICH, TIPPING e HATTON, 2006, coluna 1, linha 54).

Contudo, como “diversão” é um termo muito incerto e abrangente, principalmente considerando-se que nem todos jogadores terão as mesmas reações emocionais quando expostos aos mesmos elementos do game – o que faz um adolescente rir pode fazer uma criança chorar e um adulto sentir desgosto – Adams (2014, p.21) menciona uma pesquisa feita com mil jogadores de games para identificar quais emoções eles sentiam, e dentre elas quais eram as mais apreciadas, enquanto jogavam. Dessa pesquisa surgiu uma lista das dez emoções mais apreciadas pelos mesmos, que sintetizamos a seguir em ordem de ocorrência:

1- Divertimento [Amusement ] – emoção mais recorrente e a segunda mais desejada.

2- Contentamento [Contentment ] – descrita pelos jogadores como um tipo de satisfação mais profunda, mais associada ao momento da solução de quebra- cabeças complicados e de completar tarefas complexas no game.

3- Maravilhamento [Wonderment ] – surpreendentemente, essa foi a emoção mais almejada pela maioria absoluta dos jogadores, e além do Divertimento foi a única outra selecionada nos dois âmbitos por todos participantes.

4- Excitação [Excitement ] – embora esteja entre as primeiras, foi considerado surpreendente o fato de essa emoção não ser recorrente e, mais ainda, de não figurar entre as mais desejáveis.

9 “[…] Another popular feature of such games is the opportunity to compete against one or more human competitors. For example, two friends can compete against each other at the same console or over a network. Such human vs. human competition typically offers a much more varied and interesting race because human competitors tend to develop their own styles of racing and make significant, non-ideal moves during the race. The result is often a more dynamic, unpredictable, and exciting competition. However, when there are no human competitors available, a human player is generally stuck With playing the very non-human AI controlled competitor” (HERBRICH, TIPPING e HATTON, 2006, coluna 1, linha 54).

100 5- Curiosidade [Curiosity ] – a maioria dos jogadores quer descobrir todos segredos dos games, abrir todas as portas e achar todos itens/tesouros/etc.

6- Triunfo [Triumph ] – a sensação de elação ao vencer um adversário, seja ele virtual ou real.

7- Surpresa [Surprise ] – independentemente de ser algo que os faça rir ou que os assuste, os jogadores afirmaram apreciar essa emoção.

8- Naches – termo iídiche que corresponde ao prazer que se sente ao ver um filho, ou aprendiz, sair-se bem em algum desafio. Segundo os relatos captados na pesquisa, os jogadores veteranos de games MMORPG – Massive Multiplayer Online Role Playing Game – que optam por ficar algum tempo próximos aos portais de entrada dos novatos, ensinando e auxiliando, costumam ser considerados “viciados” nessa emoção.

9- Alívio [Relief ] – emoção que não requer esclarecimento, ocorre quando o desafio se mostra tão desgastante que, quando superado, o alívio supera as sensações de triunfo ou contentamento.

10- Êxtase [Bliss ] – satisfação máxima e sem “desgastes”, não é comum de ocorrer intencionalmente nos games – emoção considerada incidental – mas bastante apreciada quando acontece e uma das mais desejadas pelos jogadores.

Paul Schuytema (2008, pp. 183-200) enumera e explica elementos do game que afetam as percepções e alteram as emoções do jogador – efeitos sonoros (passos, motores, água, vento, tiros etc.), música, vozes de personagens, movimento, luz e cor, padrões e percepção de imersão – para então se dedicar a explicar as emoções predominantemente relevantes à experiência do jogar, que devem ser estimuladas pelo criador de games sempre que possível. Ele menciona o estado emocional de fluxo – de “fluir com o game”, também chamado de “entrar na zona do game”, de “hiperfoco” ou de “transe do game” – bem como as emoções resultantes de realização de algo, de resolução de problemas, de reagir aos personagens da história, de experimentar momentos inesperados, da sustentação de um comportamento viciante e, a mais relevante para nosso recorte de pesquisa, a emoção resultante da socialização.

Nesse novo contexto, as interações sociais acontecem dentro da estrutura e do mundo do game, porém a interação pode ser puramente social (dois amigos conversando por intermédio de seus personagens, mas não necessariamente “dentro” do game), ou pode acontecer no contexto do jogo (personagens gritando ordens um para o outro enquanto

101 tentam um ataque do pelotão à base de outra tribo). A interação social é uma experiência humana muito satisfatória, e muitos jogadores de games online citam esse aspecto de um jogo como a principal razão para jogar. Como seres humanos, ficamos muito confortáveis com a interação com outros seres humanos por meios indiretos (cartas, e-mails, ligações telefônicas, mensagens instantâneas etc.), então a comunicação com outros seres humanos através do veículo de um game e de um avatar não é tão estranha (SCHUYTEMA, 2008, pp.195-196)

Essa valorização da socialização se dá nos games de corrida de carros com a mesma passionalidade de quaisquer outros gêneros de games. O efeito emocional de jogar com os amigos, disputando em um Gran Prix virtual, gera uma experiência muito mais desejável do que a de competir contra bots controlados por agentes de IA tradicionais.

Nesse ponto, quando o jogador entra no “fluxo” de um game da franquia Forza , competindo contra Drivatars que emulam seus amigos, comportando-se de maneira crível como as mesmas pessoas com as quais ele costuma jogar, a sensação de socialização pode ser preenchida de maneira bastante satisfatória, principalmente se for um grupo de amigos que não costuma conversar durante as disputas – algo comum nesse gênero de games, em que é necessário manter alto nível de concentração por longos períodos de tempo, e uma pequena distração ou atraso de reflexo pode implicar em um acidente virtual e na perda da “pontuação” do campeonato.

Outro efeito curioso: do mesmo modo que os competidores que também se conhecem pessoalmente fora do mundo do game em si – seja no mundo físico, seja por meio de alguma rede social – costumam conversar sobre as disputas entre eles e contar “casos” das disputas travadas contra outros conhecidos em comum, pode-se observar o novo hábito de abrir espaço na conversa para contar os detalhes das disputas virtuais travadas contra os Drivatars uns dos outros, gerando o mesmo tipo e resposta emocional do que os casos que dizem respeito às disputas entre humanos.

Um fator que costuma detrair da experiência de jogar contra os bots é o de que, por melhor que seja o balanceamento da IA que o controla – o equilíbrio das habilidades da entidade controlada pela máquina, de modo a manter a competição interessante, sem torná-la muito “fraca” nem muito “forte” e inserindo “erros” em seu comportamento – raramente o resultado é consistentemente crível. Um veículo controlado por uma IA “convencional” pode simplesmente perder o controle em um trecho plano e reto de pista, se esse for o momento

102 calculado para isso acontecer em seu “bioritmo” (conforme mencionamos em 3.1.1), gerando uma oportunidade de ultrapassagem para o jogador de maneira não-verossímil, muitas vezes removendo-o do “fluxo” e negando a experiência emocional desejada pelo mesmo.

Esse é outro aspecto de ilusão emocional muito significativo da estratégia de atuação dos Drivatars, pois eles não só erram nas mesmas condições que os seres humanos o fazem, mas também cometem os erros mais comuns de seus usuários, de modos convincentemente variados e na mesma proporção estatística que eles, atribuindo credibilidade à experiência e sustentando a sensação ilusória de estar acompanhado de amigos e conhecidos, mesmo sendo o único humano na competição virtual.

Outro detalhe que a IA principal do game administra conjuntamente com os dados que compõem os Drivatars é o “grid” de largada, pois a distribuição dos mesmos se dá em função das habilidades de cada piloto simulado para cada pista. Exceto pela posição do jogador humano, a quase totalidade dos games de corrida utiliza um sistema aleatório de sorteio para distribuir os veículos no “grid”, salvo aqueles que o fazem com base estatística nas características simuladas de cada veículo virtual.

A estratégia de os Drivatars utilizarem não somente o nome de seu usuário, mas também os mesmos veículos do acervo de seu usuário humano, colabora muito para a experiência de “socialização simulada”, mas é o conjunto das IAs atuando harmonicamente para utilizar os dados gravados dos usuários que tornam a experiência emocionalmente rica.

103 104 CONSIDERAÇÕES FINAIS

Nossa pesquisa teve como tema de estudos a IA, com foco em sua aplicação no desenvolvimento de games, sendo o nosso recorte a utilização de elementos de IA para a construção de uma ilusão emocional que, no processo de interação de elementos de game com o usuário, é capaz de afetar sua percepção e provocar reações emocionais características de relações entre humanos. O mediador desse fenômeno foi tomado como nosso objeto de estudo, um sistema de simulação de comportamento humano nomeado comercialmente como Drivatar, baseado em aprendizagem de máquina por meio de coletas massivas de dados de jogadores das versões mais recentes dos games de corrida de carros da franquia Forza Motorsport , da empresa Turn10 Studios, em parceria com a Microsoft.

O que nos estimulou inicialmente por esse trajeto investigativo foi o fato de, ao final de uma partida no modo single-player – jogador único – tornar-se comum um jogador, para fins de confirmação e saneamento de dúvida, entrar em contato imediatamente com o “dono” de algum Drivatar – que seja seu conhecido ou amigo – após presenciar uma manobra ou comportamento peculiar, de autoria facilmente identificável, que colocara em dúvida se era o humano ou sua simulação que estava competindo.

Nos estágios iniciais de testes e verificações prévios à investigação acadêmica em si, já descobrimos que os Drivatars podiam chegar a ser suficientemente sofisticados a ponto de funcionar como sistemas preditivos. Por exemplo, ao competir em uma pista nunca experimentada por seu “usuário”, um Drivatar suficientemente “treinado” conseguia apresentar comportamentos, estilo e características que anteviam o que seria feito pelo jogador humano quando este viesse a usar tal cenário pela primeira vez. Tal “criatividade preditiva” nos pareceu impressionante, beirando algo profético. Uma ilusão de tamanha credibilidade mereceu o foco de nossa atenção e começamos a investigação.

Nossa primeira iniciativa foi a de contatar as empresas proprietárias do sistema dos Drivatars, Microsoft e Turn10 Studios. Depois de quase um ano de trocas de mensagens e esclarecimentos, que ao longo do caminho resultaram na promessa de liberação da documentação das primeiras implementações dos Drivatars para viabilizar nossa investigação, recebemos a informação abrupta de que mudanças nas políticas da Turn10 os impediriam de fornecer os documentos por nós solicitados.

105 Com a pesquisa dos pressupostos já em estado avançado, restava-nos o caminho de utilizar os materiais públicos disponíveis e as pesquisas aproximadas feitas por outros acadêmicos para podemos inferir, em termos gerais, quais elementos estariam em uso para causar o efeito que tanto nos espantara. No processo de “escavação documental”, conseguimos descobrir uma série de patentes registradas pela Microsoft referentes à franquia Forza Motorsport , até que localizamos a patente específica (HERBRICH et al. 2006) da tecnologia dos Drivatars, solicitada em 2003, uma década antes de seu lançamento comercial. Mesmo estando “desatualizada”, esse marco em nossa investigação permitiu um refinamento de percurso e nos possibilitou a, heuristicamente, inferir com bastante adequação os avanços tecnológicos incorporados posteriormente ao nosso objeto de estudos.

Nosso trajeto inicial foi o de estabelecer definições de game, sistema, inteligência, inteligência artificial, aprendizagem de máquina, algoritmos e interatividade. Prosseguimos com o estudo de desenvolvimento de games, traçando antes um trajeto histórico desde seu surgimento, em meados do século XX, acompanhando os avanços das tecnologias ao longo das décadas e destacando aquilo que julgamos relevante para nossa investigação.

Investigamos então os modelos e estruturas fundamentais dos games para entender seu desenvolvimento, focalizando os elementos dos jogos de corrida de carros. Pesquisamos as entidades controladas pelo sistema, começando pelos N.P.C.s ( Non-Playable Characters) e os diferenciamos dos bots , visando o detalhamento dos bots de corrida, ancestrais dos Drivatars. Descobrimos que elementos de IA fraca, os agentes especializados, já faziam parte do desenvolvimento de games desde muito cedo na história dessas tecnologias de entretenimento. Contudo, passamos a entender o grau de complexidade e sofisticação da área de IA voltada para games, um gigantesco e sedutor parque de possibilidades de investigação e estudos que nos inspirou para novas pesquisas futuras.

Analisamos o conceito da representação do conhecimento voltada para o uso em computação, estudamos seus elementos básicos e consequentemente abordarmos a aprendizagem de máquina, componente fundamental de IA que possui diversas modalidades. Descobrimos que a forma de utilizar tais modalidades seria a chave da diferenciação entre os Drivatars e os bots de corrida convencionais.

Focalizando no que chamamos de “jogo da ilusão”, aspecto emocional dos jogadores, identificamos alguns modos como diversas IAs fracas especializadas, operando conjuntamente, geram o efeito ilusório de comportamento humano, provocando e controlando

106 as emoções dos usuários, explorando, de certo modo, os conhecimentos adquiridos a respeito dos mesmos.

Assim, considerando a falta de documentação oficial a respeito do desenvolvimento recente dos Drivatars, limitando nossa investigação aos documentos públicos, incluindo o registro da patente original, e pela larga utilização de processos de análise, comparações e inferências, embasando-nos na bibliografia especializada, consideramos que obtivemos êxito dentro das possibilidades que as informações disponíveis nos viabilizaram, pois identificamos os elementos mais prováveis que tornam possível a ilusão da percepção afetiva que nos propusemos a investigar, ainda que a política de segredo em torno da tecnologia nos cerceie o acesso às definições últimas por trás das patentes.

107 108 REFERÊNCIAS BIBLIOGRÁFICAS

ADAMS, Ernest. Fundamentals of Game Design, Third Edition . Indianapolis: New Riders, 2014.

ALPAYDIN, Ethem. Machine Learning . Cambridge: The MIT Press, 2016.

ARTERO, Almir Olivette. Inteligência Artificial: Teoria e Prática . São Paulo: Editora Livraria da Física, 2009.

BAER, Ralph H. Videogames: In the Beginning . Springfield: Rolenta Press, 2005.

BOURG, David M. e SEEMAN, Glenn. AI for Game Developers . Sebastopol: O´Reilly Media Inc, 2004

BUCKLAND, Mat. Programming Game AI by Example . Sudbury: Jones and Bartlett Publishers LLC, 2005

CERUZZI, Paul E. Computing: A Concise History . Cambridge: MIT Press, 2012.

CHAMPANDARD, Alex J. AI Game Development: Synthetic Creatures with Learning and Reactive Behaviors . Indianapolis: New Riders, 2004.

CHAPMANN, Joshua. Machine Learning Algorithms: Fundamental Algorithms for Supervised and Unsupervised Learning. Columbia: Joshua Chapmann, 2017.

COLLINS, Allan & HALVERSON, Richard. Rethinking Education in the Age of Technology: The Digital Revolution and Schooling in America . New York: Teachers College, Columbia University, 2009.

COPI, Irving M. Introdução à Lógica . Tradução: Álvaro Cabral. 3ª ed. São Paulo: Editora Mestre Jou, 1981.

DORMEHL, Luke. Thinking Machines: The Quest for Artificial Intelligence and Where It´s Taking Us Next . New York: TarcherPerigee Books, 2017.

FENG, Jianfeng. Computational Neuroscience: A Comprehensive Approach . Boca Raton: Chapman & Hall/CRC, 2004.

109 FINLAY, Steven. Artificial Intelligence and Machine Learning for Business: a Non-Nonsense Guide to Data Driven Technologies . Columbia: Relativistic Books, 2017.

GEE, James Paul. The Anti-Education Era: Creating Smarter Students through Digital Learning . New York: Palgrave Macmillan, 2013.

GOTTFREDSON, Linda S. “Mainstream Science on Intelligence: An Editorial With 52 Signatories, History, and Bibliography”. The Wall Street Journal , New York, Dec. 13, 1994, INTELLIGENCE suppl., num. 24(1), pp. 13-23.

HEMSTEIN, Richard J. e MURRAY, Charles. The Bell Curve . New York: The Free Press, 1994.

HERBRICH, Ralf; TIPPING, Michael E. e HATTON, Mark. Personalized Behavior of Computer Controlled Avatars in a Virtual Reality Environment . Patente registrada nos E.U.A. em 15 de agosto de 2006. – US Patent: 7.090.576 B2, 2006.

HERMAN, Leonard. Phoenix: The Fall & Rise of Videogames (Third Edition) . Springfield: Rolenta Press, 2001.

HUIZINGA, Johan. Homo Ludens: o jogo como elemento da cultura . Trad. João Paulo Monteiro. São Paulo: Perspectiva, 2014.

ISBISTER, Katherine. How Games Move Us: Emotion by Design . Cambridge: The MIT Press, 2016.

KARPOUSIS, Kostas e YANNAKAKIS, Georgios N. (orgs.). Emotion in Games: Theory and Praxis . Cham: Springer, 2016

KOTSIA, Irene; ZAFEIRIOU, Stefanos; GOUDELIS, George; PATRAS, Ioannis e KARPOUSIS, Kostas. “Multimodal Sensing in Affective Gaming” in KARPOUSIS, Kostas e YANNAKAKIS, Georgios N. (orgs.). Emotion in Games: Theory and Praxis . Cham: Springer, 2016

LALANDE, André. Vocabulário Técnico e Crítico da Filosofia . Trads. Fátima Sá Correia, Maria Emília V. Aguiar, José Eduardo Torres e Maria Gorete de Souza. São Paulo: Martins Fontes, 1999.

110 LECKY-THOMPSON, Guy. AI and Artificial Life in Video Games . Boston: Cengage Learning, 2008.

LIMA, Isaías; PINHEIRO, Carlos A. M. e SANTOS, Flávia A. Oliveira. Inteligência Artificial . Rio de Janeiro: Elsevier, 2014.

MARK, Dave. Behavioral Mathematics for Game AI . Boston: Charles River Media/Cengage Learning, 2009.

MARR, David. Vision: A Computational Investigation into the Human Representation and Processing of Visual Information . Cambridge: The MIT Press, 2010.

MCGONIGAL, Jane. Reality Is Broken: Why Games Make Us Better and How They Can Change the World . New York: Penguin Press, 2011.

MILLINGTON, Ian e FUNGE, John. Artificial Intelligence for Games – Second Edition. Burlington: Morgan Kaufmann, 2009.

NEISSER, Ulric et al. “Intelligence: Knowns and Unknowns”. American Psychologist , Washington, Vol. 51, Num. 2, pp. 77-101, Feb. 1996.

NOVAK, Jeannie. Game Development Essentials: an Introduction – Third Edition . Clifton Park: Delmar/Cengage Learning, 2012.

NYSTROM, Robert. Game Programming Patterns . Seattle: Genever Benning, 2014.

POMERANTZ, Jeffrey. Metadata . Cambridge: MIT Press, 2015.

PRIMO, Alex. Interação Mútua e Interação Reativa: uma proposta de estudo . Porto Alegre: Revista FAMECOS, junho 2000.

RABIN, Steve (org.). Game AI Pro: Collected Wisdom of Game AI Professionals . Boca Raton: CRC Press/Taylor and Francis Group, 2014.

_____. Introduction to Game Development, Second Edition . Boston: Charles River Media Inc, 2010.

_____. AI Programming Wisdom . Hingham: Charles River Media Inc, 2002.

111 RUPARELIA, Nayan B. Cloud Computing . Cambridge: MIT Press, 2016.

RUSSEL, Stuart e NORVIG, Peter. Inteligência Artificial . Trad. Regina Célia Simille de Macedo. Rio de Janeiro: Elsevier Editora, 2013.

_____. Artificial Intelligence: A Modern Approach - Third Edition . Upper Saddle River: Prentice Hall/Pearson Education Inc, 2010.

SALEN, Katie e ZIMMERMAN, Eric. Regras do Jogo: Fundamentos do Design de Jogos – Principais Conceitos / Vol.1 . Trad. Edson Furmankiewicz, São Paulo: Blucher, 2012a.

_____. Regras do Jogo: Fundamentos do Design de Jogos – Regras / Vol.2 . Trad. Edson Furmankiewicz, São Paulo: Blucher, 2012b.

_____. Regras do Jogo: Fundamentos do Design de Jogos – Interação Lúdica / Vol.3 . Trad. Edson Furmankiewicz, São Paulo: Blucher, 2012c.

_____. Regras do Jogo: Fundamentos do Design de Jogos – Cultura / Vol.4 . Trad. Edson Furmankiewicz, São Paulo: Blucher, 2012d.

_____. Rules of Play: Game Design Fundamentals . Cambridge: The MIT Press, 2004.

SANTAELLA, Lucia. Comunicação Ubíqua: repercussões na cultura e na educação . São Paulo: Paulus, 2013.

_____. A Ecologia Pluralista da Comunicação . São Paulo: Paulus, 2010a.

_____. Comunicação e Pesquisa . São José do Rio Preto: Bluecom, 2010b.

_____. Linguagens Líquidas na Era da Mobilidade . São Paulo: Paulus, 2007.

_____. Navegar no Ciberespaço: o perfil cognitivo do leitor imersivo . São Paulo: Paulus, 2004.

_____. Culturas e artes do pós-humano: da cultura das mídias à cibercultura . São Paulo: Paulus, 2003.

SANTAELLA, Lucia e LEMOS, Renata. Redes Sociais Digitais: a cognição conectiva do Twitter . São Paulo: Paulus, 2010.

112 SANTAELLA, Lucia e FEITOZA, Mirna (orgs.). O Mapa do Jogo: a diversidade cultural dos games . São Paulo: Cengage Learning, 2009.

SCHELL, Jesse. The Art of Game Design: A Book of Lenses . Burlington: Morgan Kaufmann, 2008.

SCHUYTEMA, Paul. Design de Games: Uma Abordagem Prática . Trad. Cláudia Mello Belhassof. São Paulo: Cengage Learning, 2008.

SCOTT, Bob. “The Illusion of Intelligence” in RABIN, Steve (org.). AI Programming Wisdom . Hingham: Charles River Media Inc, 2002.

SHANAHAN, Murray. The Technological Singularity . Cambridge: MIT Press, 2015.

TEIXEIRA, João de Fernandes. A Mente Pós-Evolutiva: A Filosofia da Mente no Universo do Silício . Petrópolis: Editora Vozes, 2010.

TURING, Alan M. Computing machinery and intelligence. Mind , Oxford, Vol. LIX, No. 236, pp. 433-460, October, 1950.

YANNAKAKIS, Georgios N. e TOGELIUS, Julian. Artificial Intelligence and Games (Second Public Draft) . No prelo. (Conforme download disponível em http://gameaibook.org/ em Julho de 2017).

113

114