Passou em Portugal tão depressa, tão depressa, que mal o vimos anunciado nos cartazes. «Ex Machina» (2014), realizado por Alex Garland, e que tem como protagonista principal a actriz sueca em franca ascenção, Alicia Vikander, bem poderia ser o segundo filme de ficção científica de culto mais famoso de todos os tempos, logo a seguir a Blade Runner de Ridley Scott. Não o foi (nem o será) porque não foi realizado por Ridley Scott nem foi uma superprodução, mas sim um filme low cost (o mais barato de sempre a ganhar um óscar desde Alien — curiosamente, também realizado por Ridley Scott…). No entanto, tem pelo menos três características principais que o podem tornar num filme FC de culto: a história é sinistra e desconcertante; tem uma mensagem profunda; e, claro, tem Alicia Vikander. Ah, sim, e os parcos e escassos efeitos especiais que tem — daí ter sido tão low cost! — são na realidade tão incrivelmente convincentes que é difícil de acreditar que não sejam «verdadeiros». Daí terem ganho um Óscar, merecidíssimo, pois a Academia achou que deveriam justamente premiar um filme cujo realizador e equipa técnica conseguiram mostrar que se conseguem fazer efeitos especiais totalmente convincentes com um orçamento reduzidíssimo (ao nível de um filme europeu) — não é preciso andar a gastar uma centena de milhões de dólares para isso. É preciso, isso sim, apostar nas equipas técnicas que sabem fazer o seu trabalho como deve ser.
Antes de mais, e na perspectiva de ser honesto com a audiência que lê estas páginas, tenho de confessar uma coisa importante: sou fã incondicional da Alicia Vikander. Pronto, já confessei. Acho que ela vai ser a Ingrid Bergman do século XXI. Não sei com o que é alimentam as miúdas lá na Suécia, mas o que quer que seja, criam actrizes absolutamente fantásticas: perfeitas na arte da representação, claro, mas também sensuais e eróticas sem serem vulgares, e com um ar perigosamente inteligente que captiva e fascina. A combinação, para mim, é absolutamente explosiva: se ainda fosse adolescente, estaria a colar posters da Alicia Vikander em trajes menores nas paredes de minha casa. Na meia-idade tenho de me conter 🙂 Mas pelo menos posso admitir que a minha mulher concorda perfeitamente comigo, e também considera a Alicia Vikander absolutamente deslumbrante, apesar da minha mulher ser perfeitamente heterosexual. No entanto, não pode deixar de admirar a perfeição das proporções do rosto de Alicia e considerá-la uma obra de arte por um qualquer Criador que estava inspirado nesse dia.
E como isto não é um artigo sobre Alicia Vikander, mas sim o filme Ex Machina (e, em certa medida, também sobre Blade Runner…), terei de contentar-me em acalmar as palpitações e os suores frios, retirar do rosto o esgar que passa por um sorriso deslumbrado, e, suspirando, voltar ao filme propriamente dito.
É muito inglório falar de Ex Machina sem revelar os pormenores essenciais, o que vai estragar o prazer todo de quem nunca foi ver o filme. Por isso vou dividir este artigo em duas partes: a inicial terá em conta que grande parte do efeito do filme no espectador vem do complexo enredo, especialmente no final, com clímaxes e contra-clímaxes, atirando o espectador primeiro numa direcção, depois empurrando-o na direcção contrária, obrigando-o a mudar de opinião várias vezes àcerca das suas emoções relativamente às personagens principais, e, no final, é completamente esmagado pelo desfecho — imprevisto, ingrato, surpreendente. O filme esgota-nos emocionalmente — mas deixando-nos aterrorizados com as suas implicações. Tive pesadelos na primeira noite em que o vi. A minha mulher insistiu em só ver o filme durante o dia. E o filme nem sequer é de terror: não se trata de criar o suspense aterrorizante de Alien, bem pelo contrário. Alex Garland é incrivelmente mais subtil do que Ridley Scott — e talvez por isso o filme seja tão aterrorizante.
As comparações com o cinema clássico de FC hard core — aquela que segue duas regras básicas, a de que é obrigatório manter todas as leis da física menos uma, e de que a história deve ter uma mensagem profunda que nos faça pensar — são inevitáveis. O realizador e o argumentista sabem o que estão a fazer: não se trata aqui de mera «tecnofantasia», muito mais ao gosto de Hollywood. Não se trata, como disse, de um filme de terror, embora as suas implicações sejam aterrorizantes — o ritmo do filme é pausado e lento, quase europeu, muito ao estilo de Ridley Scott (é impossível não estar constantemente a comparar Garland com Scott…), criando um ambiente fenomenal num cenário extraordinariamente simples, não fosse este um filme low cost — mas o certo é que não é preciso rigorosamente mais nada para transmitir a mensagem.
Enquanto cinema, também não basta apenas ter uma história com uma mensagem e tentar adaptá-la ao grande écrã; na realidade, essa deve ser uma das tarefas mais inglórias para qualquer cineasta que adapte um livro ao cinema: como tirar proveito de um meio diferente para que este meio diferente seja um elemento diferenciador da história do livro. Os blockbusters meramente atiram com uma bateria de efeitos especiais para cima da história e pronto, já está.
Ex Machina, que eu saiba, não é baseado em nenhuma história concreta (pelo menos, se o é, não lhe é dada qualquer crédito), embora a temática tenha já sido tratada por inúmeros autores de ficção científica. Uma coisa que aprendi, nos tempos em que a Simetria ainda tinha financiamentos para realizar Encontros e trazer autores, críticos e eruditos sobre o assunto para Portugal, é que supostamente a ficção científica só tem um único tema: definir o que é a Humanidade. Podemos ter inúmeras abordagens para o fazer, claro está. Podemos ver o papel da Humanidade na colonização espacial: como nos adaptamos, como lidamos com ambientes diferentes dos nossos, como vemos o papel do «Outro» (quando encontramos civilizações extraterrestres), e o que é que isso nos diz sobre a nossa própria natureza.
Em Ex Machina, tal como no filme de Ridley Scott, a temática é a inteligência artificial — talvez, de certa forma, a maneira mais directa de tratar o assunto. A inteligência artificial da ficção científica obriga a enfrentar directamente aquilo que escapa à compreensão dos filósofos de todos os tempos: afinal de contas, o que é que nos faz sermos seres humanos?
Nas ciências sociais, o actual debate centra-se em torno de duas metodologias dominantes, nenhuma das quais tem um poder explanatório totalmente abrangente: o essencialismo e o construtivismo. Os essencialistas acreditam que existe uma «essência» (como o próprio nome indica) que explica certas coisas como a motivação, os sentimentos, enfim, todos os aspectos da humanidade. Podemos chamar-lhe «uma lei da Natureza» — como em «natureza humana», por exemplo — ou qualquer outra coisa (se formos crentes, vamos inevitavelmente falar em «alma»), mas o certo é que continuamos a argumentar ao estilo platónico: há algo que escapa a nossa análise directa, que está (eventualmente) para lá dos sentidos, que influencia determinantemente a forma como nos comportamos. E quando digo «nós» estou, obviamente, a incluir todas as espécies animais deste planeta, por exemplo: todas elas seriam, segundo esta visão, dotadas de uma certa «força anímica», distinta da de uma pedra, por exemplo. Há, evidentemente, muitas formas de abordar o assunto, com mais ou menos palavreado filosófico; por exemplo, na neurologia ou na genética, prefere-se falar de «epifenómenos». Aquilo a que chamamos de mente é um epifenómeno do cérebro, ou melhor, do seu funcionamento: há «algo» que causa a mente, esse «algo» está contido no cérebro (ou no DNA), e apesar de não podermos apontar para nenhuma parte do cérebro e dizer: «é aqui que está a mente!» sabemos que, de certa forma, é o cérebro que causa a mente, e essa causação pode ter imensas razões (por exemplo, tem a ver com a complexidade e número de interligações no cérebro), mas «existe», no termo convencional da palavra, pois podemos todos experimentar as consequências de ter uma mente.
Os construtivistas, pelo contrário, não assumem que exista nenhuma «essência», mas que todos os comportamentos observados são resumidos em conceitos que os explicam, mas que esses conceitos, por si só, podem não ter qualquer realidade para além de existirem na mente de quem os inventou. Por outras palavras, podemos afirmar que alguém é um ser humano (por oposição, por exemplo, a uma pedra ou um animal) porque se comporta como um ser humano, porque tem todas as características que atribuímos a um ser humano (e quantas mais características encontrarmos, maior o grau de certeza). Não podemos dizer que é um ser humano, intrinsicamente, e que por isso se comporta como tal; na realidade, só podemos observar o seu comportamento, e por isso mesmo inferir que esse comportamento é causado por um conceito abstracto a que chamamos «ser humano». Mas no DNA não está lá nada que tenha uma etiqueta a dizer: «contém um ser humano em potência; basta juntar água» (e talvez umas proteínas, hidrocarbonatos e gorduras…). O DNA não «pensa» nem tem «vontade», apenas, de forma mecanicista, «produz» (ou «manufactura») uma criatura, à qual nós, na nossa mente, atribuímos a etiqueta de «ser humano». Para os construtivistas, pois, não existe nada para além dos nomes que damos às coisas: tudo são conceitos.
Ambas as correntes analisam os mesmos problemas e propõem, pois, soluções diferentes; e obviamente existem cientistas que usam as duas correntes de pensamento em simultâneo quando reparam que nenhuma delas, por si só, consegue explicar determinado assunto ou problema.
Ora isto é conhecido da ficção científica — na realidade, de todos os que estudam inteligência artificial — há muitas décadas. Essencialmente, a questão que se coloca é: quando é que sabemos que determinado artefacto (manufacturado pela Natureza ou pelo Homem… ou por uma civilização extraterrestre) é um ser humano ou não?
Temos a sorte de termos tido um Alan Turing — um dos «pais» da computação — a debater-se sobre o mesmo assunto em 1950, criando o que ficou a ser conhecido por Teste de Turing. Na realidade, Turing propôs vários testes, baseados num jogo popular na época, jogado com três pessoas: um interrogador que colocava questões a duas pessoas, através de mensagens escritas em papel, uma das quais do sexo masculino, a outra do sexo feminino. Ambas iriam tentar iludir o interrogador quanto ao seu sexo, e o interrogador «vencia» se conseguia correctamente identificar quem era quem. Turing propôs que o jogador masculino fosse substituído por um computador que tentaria convencer o interrogador de que era, na verdade, uma mulher. Segundo Turing, se um interrogador (humano!) não conseguisse, ao fim de cinco minutos, determinar quem é que era humano e quem era uma máquina, então ter-se-ia de considerar que a máquina era (funcionalmente) inteligente.
Os actuais testes de Turing são variações deste teste (há algumas dúvidas sobre a interpretação exacta das ideias de Turing) e existe inclusive um concurso anual, o Prémio Loebner, para premiar a máquina (ou, mais precisamente, o programa de computador) que consiga «enganar» o maior número de humanos. Actualmente, dado o estado da sofisticação das tecnologias de inteligência artificial, os «interrogadores» são peritos em várias áreas (desde investigadores em inteligência artificial até filósofos e jornalistas), pois rapidamente se desenvolveram algoritmos capazes de «enganar» um ser humano vulgar por mais de cinco minutos. Turing presumia que fosse sempre uma «pessoa vulgar» e não um perito — pelo que se pode considerar que há muito tempo que existem programas de computador que passam o teste de Turing, mas, por outro lado, também existem muitas pessoas que falham o teste de Turing…
Já nos anos 1950, justamente por causa dos problemas e limitações do teste de Turing, os cientistas e os filósofos argumentavam de quão difícil era distinguir entre verdadeira inteligência e a simulação de inteligência. Ou seja: o teste de Turing não nos permite distinguir entre ambos. Esta é a objecção levantada por um dos grandes nomes da inteligência artificial, John Searle, que propôs em 1980 o argumento do quarto chinês: imagine-se que temos um quarto fechado, no exterior da qual está um interrogador, e que escreve caracteres chineses com as perguntas num papel, passando-o por baixo da porta. No seu interior está uma pessoa que não percebe patavina de chinês. No entanto, tem um livro de regras que lhe diz: se eu vir este carácter chinês seguido deste, então devo responder com este papelinho com este carácter chinês, e assim por diante, para (hipoteticamente) todas as combinações possíveis. Ora do ponto de vista exterior, a pessoa que está no interior recebe perguntas em chinês e responde em chinês (correctamente!), pelo que o interrogador estará perfeitamente convencido de que está a falar com alguém que domina o chinês. Mas nós sabemos que isso não é verdade: por mais que a pessoa ande a passar papelinhos de um lado para o outro e a consultar o livro de regras, o certo é que continua sem saber ler ou falar chinês; para essa pessoa em questão, são tudo gatafunhos; nem sabe o que lhe estão a perguntar, nem sabe o que é que acabou de responder — tudo o que sabe é seguir regras, mais nada. Mas as regras (a sintaxe) não implicam, por si só, um contexto (semântica). Por isso, embora por este teste (tal como pelo de Turing) pudéssemos ficar convencidos da «inteligência» de um potencial computador (que supostamente substituísse o tal humano dentro do quarto…), só porque este aparenta saber dar as respostas correctas às perguntas, isso não quer dizer que este seja verdadeiramente inteligente, ou seja, que perceba em que é que consistem as perguntas, e que compreenda as respostas que dá. Trata-se apenas de uma simulação!
Mas voltemos ao filme. Este passa-se num futuro muito próximo, onde um programador da maior empresa de motores de pesquisa, Caleb (Domnhall Gleeson) vence um sorteio para passar uma semana com o mítico dono da empresa, Nathan (Oscar Isaac), que também foi o programador original do motor de pesquisa da empresa Blue Book. Note-se as múltiplas referências no nome da empresa: Bluebook é, para os americanos, o sistema de referência de citações para textos jurídicos, fazendo, pois, sentido dar um nome destes a um motor de pesquisa na Web. Depois, obviamente, a semelhança com Facebook (como é óbvio). O supercomputador da IBM que venceu o campeão de xadrez Gary Kasparov era conhecido por Deep Blue. E os fãs dos X-Files e semelhantes séries sobre teorias da conspiração também se lembrarão do projecto UFO Blue Book que recolheu testemunhos sobre cerca de 12.000 casos onde se avistaram objectos voadores não identificados, dos quais 700 se mantêm inexplicáveis.
Caleb, no filme, é o prototípico geek — tímido, socialmente inadaptado (a meio do filme ficamos a saber que é filho único e que os pais morreram num acidente de automóvel, que o deixaram também uma temporada no hospital durante a sua adolescência, altura em que aproveitou para aprender a programar), cheio de pequenos tiques, mas claramente extremamente inteligente, calmo, pacato, pacífico, e naturalmente curioso; conhecer o mítico Nathan e poder conversar com ele é obviamente o sonho de qualquer geek.
Nathan, por sua vez, é caracterizado como sendo uma personagem enigmática, que claramente tem algo a esconder, que não nos parece genuinamente sincero. E aqui entra a força da realização (e do casting!) a jogar com as emoções do espectador, coisa que irá acontecer até ao final do filme. Imediatamente vemos Caleb como personagem simpática, e Nathan como um estranho, alguém com uma agenda sinistra, apesar de, externamente, nada o indicar — tem tudo a ver com a direcção de actores. Caleb sente-se inicialmente muito contraído na presença do grande génio da programação, mas aos poucos vai-se descontraindo. Nathan, logo no início, vai revelar-lhe o verdadeiro propósito desta semana «especial». Após Caleb assinar um contrato de não-disseminação (non-disclosure agreement), Nathan revela que a sua estranha casa, numa vasta propriedade longe de tudo e de todos (algures nas montanhas, sabe-se lá onde), e que é praticamente toda subterrânea, não é apenas a moradia de um multibilionário excêntrico — mas sim um laboratório de investigação e desenvolvimento, onde Nathan, sozinho, desenvolveu uma inteligência artificial. E cabe a Caleb o papel de lhe aplicar o teste de Turing: determinar se a IA é ou não inteligente, se é ou não consciente, se é ou não humana. Caleb está pasmado mas excitado por poder fazer parte do projecto super-secreto de Nathan.
Assim à primeira vista, o enredo não parece nada diferente de inúmeras variantes sobre precisamente o mesmo assunto. Blade Runner é talvez o exemplo mais conhecido (e com maior impacto visual e cinematográfico) sobre a problemática do que é inteligência (artificial ou não!) e que tanto fascina os autores de ficção científica; mas dificilmente encontraremos um autor de FC que não tenha tratado do assunto. Os casos mais interessantes, evidentemente, são os ambíguos; Blade Runner, mais mesmo do que o livro de Philip K. Dick sobre o qual se baseou o filme, é perito nesta caracterização da ambiguidade — no final do filme (e há vários finais!) ficamos sempre na dúvida se Deckard é ou não um replicante (Ridley Scott diz que sim, mas o debate continua há três décadas, permitindo que cada espectador construa a sua própria explicação).
Em Ex Machina estamos, portanto, perante exactamente o mesmo tema. E Garland conhece a sua audiência, sabe do que é que estão à espera, sabe que todos eles devoraram Riley Scott, Philip K. Dick, Isaac Asimov, e tantos, tantos outros que abordaram esta temática. Por isso tem de trazer algo de novo. E fá-lo, mas não de uma forma óbvia. E é nisto que consiste o interesse do filme em si.
Atenção: A partir deste ponto, vão ser revelados pontos essenciais da história. Se não viu ainda o filme, é melhor parar por aqui! Veja o trailer e divirta-se!
Em Blade Runner (continua a ser inevitável a comparação!), Ridley Scott também aproxima o espectador de Deckard, colocando os replicantes «do lado mau da Força», se nos permitem a expressão. Esta ideia é reforçada à medida que os replicantes vão sendo abatidos, já que vemos do que são capazes quando deixados à solta — só pensam na sua auto-preservação e fazem tudo o que for preciso para a manter, mesmo que isso implique matar inocentes seres humanos. O papel dos blade runners, pois, é visto (pelo espectador) como sendo fundamentalmente importante para manter a sociedade (por muito horrível que esta seja retratada!). Deckard é o herói.
Mas depois enfrentamos a personagem ambígua de Rachael. Sabemos que ela é uma replicante; mas também sabemos que, inicialmente, esta não sabe que o é (embora desconfie). Deckard envolve-se romanticamente com Rachael — ou não, fica sempre tudo mais ou menos na dúvida — mas o espectador vê os replicantes com novos olhos: afinal não são meramente «monstros», mas podem realmente exprimir também emoções humanas positivas (como o amor…). Mas serão essas emoções fingidas? Simuladas?
No combate entre Deckard e Roy Batty, Ridley Scott continua a explorar esta ambiguidade. Roy Batty torna a sua própria morte (inevitável, de uma forma ou de outra, às mãos de Deckard ou através do processo «natural» que destrói os replicantes por uma questão de segurança ao final de cinco anos de operação) numa expressão artística. Fica, pois, bem claro que os replicantes não exprimem apenas emoções simples; são capazes de ir muito mais longe, de expressão artística — algo considerado apenas possível por parte dos seres humanos — mas também de compreender perfeita e intensamente a questão da sua própria mortalidade. Roy Batty, apesar de cruel e implacável, no fundo não quer mais do que qualquer outra criatura viva: continuar a viver. Procura, tal como nós humanos, uma forma de imortalidade — daí querer contactar com o seu criador e desejar que este lhe prolongue a vida. Quando não consegue o que quer, opta pela expressão artística como forma de imortalidade. Em Roy Batty, interrogamo-nos onde está, pois, a fronteira entre o «ser humano» e o «replicante». Rachael também não sabe; tudo o que sabe é que tem emoções e memórias que pensa serem reais, mas como sabemos nós, humanos, o que é real em nós? No final, através de pequenos pormenores, Ridley Scott dá-nos a entender que o próprio Deckard não é mais do que um replicante. Será que só existem replicantes na Terra e que já não existem seres humanos? (Philip K. Dick, no romance que serve de base ao filme, explora justamente a questão de já não existirem animais na Terra, são todos andróides… serão, pois, os humanos na Terra também todos andróides?)
Ridley Scott, pois, começa por criar uma clara dicotomia entre Deckard (o «herói») e os replicantes (os «maus da fita»), mas, à medida que o filme progride, no final já nada é certo: o espectador continua a mostrar empatia por Deckard, mas não pode também de sentir essa empatia por Rachael, e, no momento da desactivação de Roy Batty, o espectador terá de se interrogar se o replicante era, afinal de contas, tão «mau como isso».
Em Ex Machina, Garland vai usar com igual mestria a direcção de actores e a realização para focar as atenções e emoções nas várias personagens — até criando ainda mais ambiguidade do que Ridley Scott. Caleb é o geek simpático, um pouco totó, emocionalmente imaturo, mas altamente inteligente; até ao final do filme, o espectador vai estar sempre do lado dele. É uma espécie de anti-herói clássico mas que se revela capaz de fazer bem mais do que estaríamos à espera; no entanto, não tem um final feliz, pois Ex Machina não é um filme politicamente correcto ao estilo de Hollywood.
Nathan, uma mistura de Elon Musk com Mark Zuckerberg com a personalidade de Steve Jobs, é uma personagem que está sempre a rondar a neutralidade: ora parece-nos desagradável e até mesmo assustador, ora parece, na realidade, saber o que está a fazer, e está a fazê-lo correctamente, pelo que questionamo-nos se estamos correctos em assumir que é o «mau da fita». Na realidade, Nathan não é «mau» no sentido clássico de um enredo: temos de olhar para estas referências de Silicon Valley para compreender a sua personalidade. É um génio da programação (como Zuckerberg) e percebeu imediatamente a vantagem da sua empresa, Blue Book. Ao contrário de Zuckerberg e/ou Page & Brin (fundadores da Google), que claramente não sabiam o que estavam a fazer, mas que por mera sorte acertaram no modelo de negócio, Nathan sabe perfeitamente o que está a fazer. Zuckerberg queria criar um site para encontros sexuais (foi assim que começou — com um site a nível universitário); Page & Brin percebiam imenso sobre motores de busca do ponto de vista teórico. Nenhum deles tinha um modelo de negócios claro, nenhum deles sabia como iria fazer dinheiro com a tecnologia que inventaram. Zuckerberg teve sorte, porque a dada altura a Microsoft entrou no seu negócio e começou a vender anúncios. Com imenso sucesso. Tanto sucesso que Zuckerberg expulsou a Microsoft da sua empresa e passou ele próprio a vender anúncios; quase uma década depois de ter lançado a sua empresa, finalmente começou a ver lucros. Page & Brin só relativamente tarde é que se aperceberam de que podiam também vender anúncios nas páginas de pesquisa. E por uma inspiração de génio, começaram a adquirir uma série de pequenas empresas que vendiam uma tecnologia que permitia colocar anúncios em sites Web, criando redes de potenciais espaços para anunciar produtos e serviços, através de um pagamento simbólico de «aluguer» de espaço — o mesmo modelo usado para colocar anúncios em outdoors. Praticamente todas essas empresas foram à falência por volta de 2001-2003. A Google comprou quase todas as que ainda não tinham falido e lançou o seu próprio negócio. Acharam que eram completamente loucos — porque haveriam de ter sucesso onde tantos outros falharam? Page & Brin, no entanto, tinham uma vantagem que mais ninguém tinha: a capacidade de perfilar utilizadores e sites web, e enviar anúncios de acordo com os interesses dos utilizadores. Mais ninguém tinha essa capacidade na altura (só muito depois é que Zuckerberg fez o mesmo, precisamente aproveitando-se da sua própria capacidade de perfilagem no Facebook).
No filme, Nathan não é o geek «ingénuo» como Zuckerberg, Page, Brin, foram. Em vez disso, tem a determinação de um Steve Jobs. Sabe precisamente para que servem os motores de pesquisa, e sabe exactamente que tem de monopolizar praticamente todo o mercado para poder ditar as suas regras. O que não diz aos seus parceiros de negócio é o objectivo da sua empresa. Na realidade, o que ele quer é fazer uma meta-perfilagem de todas as pesquisas de todos os utilizadores, e assim determinar, de uma vez por todas, como é que as pessoas pensam. Note-se que uma ideia semelhante está na base da criação do supercomputador Watson da IBM que venceu vários jogos de Jeopardy — não se trata meramente de descobrir a melhor pergunta para uma resposta, mas compreender a forma subtil de como os seres humanos fazem associações livres e chegam a respostas por intuição e não por dedução. A IBM consegue quase fazer isso hoje em dia; os supercomputadores Watson são usados justamente por megacorporações para filtrar enormes quantidades de dados e obter tendências — por exemplo, saber de antemão qual produto vai ter mais vendas no Continente em determinado dia e/ou região, dependendo do desconto que lhe for aplicado.
Ao perfilar milhares de milhões de pessoas, assim como as suas perguntas ao motor de pesquisa — e as respostas que escolhem como sendo «interessantes», de uma lista de opções que o motor de pesquisa devolve — Nathan consegue obter assim uma ideia bastante precisa da forma como as pessoas pensam. Pessoas reais, no mundo real, e não modelos matemáticos ou teóricos da forma como se acha que as pessoas pensam. Nathan não formula nenhuma grande teoria filosófica sobre a natureza do pensamento; não é um «cientista da mente», explorando hipóteses e modelos conceptuais para o pensamento. Não é um António Damásio, procurando explicar de como emerge o epifenómeno a que chamamos de «mente» a partir de um conjunto de neurónios habilmente interconectados entre si. Nathan apenas sabe como é que milhares de milhões de pessoas pensam, como reagem, o que decidem face à informação que lhes é apresentada; sabe perfilar as pessoas, e, de acordo com cada perfil, sabe como tomam decisões a cada instante. Quando surge uma informação nova — uma notícia na televisão sobre um ataque terrorista, por exemplo — sabe precisamente como esse manancial de pessoas vai reagir (das suas diferentes formas). Ora isso tudo é o que utiliza para criar a sua inteligência artificial, ou, melhor, para alimentar a programação dessa inteligência artificial.
Sabemos que a Google faz o mesmo (assim como a Microsoft [com o Bing], o Yandex [motor de pesquisa russo], o Baidu [motor de pesquisa chinês], etc.). Alimentam poderosas inteligências artificiais com o objectivo duplo de apresentar pesquisas cada vez mais significativas para o utilizador, mas também para os perfilar cada vez melhor, de forma a apresentarem os melhores anúncios para cada pessoa. No entanto, estas empresas fazem-no com apenas um intuito: lucro. Nathan, com o Blue Book, vai um passo mais à frente. O lucro é apenas a ferramenta de que necessita para perseguir o seu sonho, criar uma inteligência artificial capaz de passar o teste de Turing.
Para além do raciocínio propriamente dito, Nathan desabafa que também teve bastante dificuldade em reconhecer e registar expressões faciais. Mas teve uma enorme ajuda: diariamente, milhares de milhões de pessoas estabelecem videochamadas através dos seus telemóveis. No universo do futuro onde a Blue Book é a maior empresa do mundo, também esta controla o software dos telemóveis — exactamente como a Google com o seu Android. A diferença é que a Google, tendo colocado o Android em modelo open source, não tem, na realidade, controlo total sobre a plataforma. A esmagadora maioria dos fabricantes de telemóveis utiliza a sua própria versão do Android, construída a partir da versão open source mas subtilmente modificada de acordo com cada fabricante. Alguns, é certo, usam a versão disponibilizada pela Google sem modificações, mas é raro: os fabricantes podem não confiar totalmente na Google e na sua capacidade de gerir o Android. Preferem ser eles próprios, fabricantes, a manterem o controlo sobre o software que colocam nos seus telemóveis.
Nathan não cai no erro fácil da Google, e, embora não nos sejam dados pormenores, é certo que, no filme, a empresa Blue Book tem controlo praticamente total sobre o software instalado em milhares de milhões de telemóveis — o que lhe permite acesso às câmaras dos mesmos e o registo de biliões de horas de vídeo. Depois é apenas uma questão de processar as imagens, converter o áudio em texto para perceber o contexto das expressões, e com isto, simular essas expressões num robot. Nathan, ironicamente, diz que pode fazer isso sem que os fabricantes de telemóveis o chateiem, porque estes também fazem precisamente o mesmo. É uma espécie de «acordo de bandidos», em que nenhuma das partes denuncia a outra com receio de que também sejam impedidos de terem acesso aos preciosos dados encerrados em cada telemóvel.
O que é talvez assustador é que não estamos a falar de um futuro hipotético. Tanto a Google como a Apple e a Microsoft recolhem uma quantidade astronómica de dados dos utilizadores de telemóveis; assim como os fabricantes de telemóveis o fazem também. Sabem potencialmente para onde nos deslocamos, que lojas preferimos. Nalguns casos (nos Estados Unidos, por exemplo) através de tecnologias como o Google Wallet ou o Apple Pay, até sabem o que andamos a comprar e onde, e com que frequência. E nada impede que tenham acesso às câmaras dos nossos telemóveis; já têm às fotografias e vídeos que fazemos, partilhados através do Google Drive, Microsoft OneDrive ou Apple iCloud, e até sabem onde essas imagens foram tiradas, graças à informação GPS contida nelas. Pelo facto de colocarmos frequentemente tags dos nossos amigos nos respectivos rostos — no Facebook, no Google Plus, noutras redes sociais — também ficam a saber qual é o nosso aspecto (e o dos nossos amigos). E a Google, graças às famosas carrinhas que andam pelas ruas das cidades de todo o mundo, até sabe qual é o aspecto (pelo menos exterior) das lojas e locais que frequentamos. Ora toda essa informação já existe hoje. A única diferença entre o mundo de hoje e o mundo de Nathan é que hoje em dia as empresas só pensam no lucro que podem fazer vendendo essas informações. Nathan é mais malandro: acha que essas informações todas são a base para a construção de uma inteligência artificial tão sofisticada que seja indistinguível de um ser humano. E isto nem sequer é grande especulação científica: como disse, a IBM fez isso mesmo para programar o Watson, e o que não faltam por aí são chatbots que fazem pesquisas na ‘net para aumentarem a sua capacidade de resposta. Não é por acaso que os «assistentes pessoais» nos nossos telemóveis, quando não sabem responder, vão igualmente pesquisar na Web, na Wikipedia, em busca de uma resposta. Ou seja, aquilo que Nathan faz no filme é uma realidade perfeitamente plausível com a tecnologia de que dispomos hoje. A diferença está na motivação com que usamos essa tecnologia.
Claro que, do ponto de vista estritamente tecnológico, há um problema! Caleb identifica-o rapidamente, logo que tem a primeira de um conjunto de sessões diárias com Ava, a inteligência artificial num corpo de um robot (cujos efeitos especiais levaram o Óscar), com o objectivo de determinar se Ava tem consciência ou não. Em discussão com Nathan, Caleb procura compreender como foi Ava programada, referindo alguns modelos e abordagens mais em voga. Nathan deliberadamente não lhe diz qual o segredo da programação de Ava; quer apenas que Caleb complete os testes e que lhe diga qual o veredicto.
Esta questão parece ser relativamente inócua — faz parte de um bom enredo o «cientista louco» explicar como funciona a sua criação. No entanto, Garland é inteligente. Ou está bem informado. Do ponto de vista filosófico, uma das maiores questões a resolver relativamente ao par mente/cérebro é saber se o cérebro é uma máquina computacional ou não. Há fortes indícios para que não seja (mas a discussão deste aspecto cai fora do âmbito deste artigo!), o que tornaria impossível a criação de uma inteligência artificial igual (ou superior…) à humana, com auto-consciência.
Garland parece estar a par (ou tem excelentes conselheiros!) desta questão, que é só solucionada muito mais à frente: em vez de um computador clássico e tradicional, Nathan desenvolve uma tecnologia completamente inovadora, baseada num gel, que pode ser auto-modificada (uma possibilidade que sabemos que o nosso cérebro tem, e que pode ser uma das muitas pistas para que o cérebro não seja, de facto, uma máquina computacional). Como em todas as boas histórias de ficção científica, há sempre uma (e só uma!) violação das leis da física — neste caso, evidentemente que não existe (nem temos a capacidade de desenvolver num «futuro próximo») um tal «gel computacional», embora a ideia, por si só, não seja um total disparate: o que não faltam é experiências para criar novos tipos de computadores, usando materiais muito diferentes dos habituais: afinal de contas, já foi há nove anos que cientistas portugueses desenvolveram transístores em papel, uma invenção que na altura foi completamente revolucionária; mais ou menos à mesma altura, cientistas do outro lado do Atlântico experimentavam, justamente, criar transístores à base de gel em meio plástico. Mas mais fenomenal é a investigação em torno de «computadores orgânicos». Existem muitas abordagens, mas a teoria é que, no futuro, estes computadores possam ser completamente biodegradáveis (de forma a não poluirem ainda mais o ambiente) e totalmente recicláveis. Uma equipa coreana desenvolveu um conjunto de transístores usando ADN modificado (enriquecido com metais) que funciona numa base aquosa — mas o mais interessante é que, para «fixar» os transístores (pois se estiverem dissolvidos em água é difícil de os «organizar» em funções lógicas), durante o processo de «construção» dos mesmos, o meio é gelificado, dando assim estrutura aos componentes. Ora temos aqui, pois, a base da ideia do filme Ex Machina. Cientificamente, portanto, há pelo menos uma forte probabilidade da solução desenvolvida por Nathan no filme não ser um absurdo completo! De notar que este desenvolvimento científico foi publicado em 2014, altura em que o filme estaria a ser preparado, pelo que não é de todo impossível que Garland e o seu argumentista se tivessem inspirado na ciência real para as suas ideias de como funcionaria uma «máquina não computacional» que pudesse replicar o funcionamento do cérebro humano. Também outra curiosidade é que este ADN modificado pela equipa coreana tem algumas características interessantes: já há muito tempo que se «brinca» com ADN modificado, ou melhor, com as bases modificadas — tanto assim, que uma empresa do grupo General Electric até já tem um catálogo online de bases modificadas de ADN/ARN, com preços e tudo, para «as suas aplicações de síntese [de ADN] específicas». Isto de viver no século XXI é outra coisa! E eu que em 1987 ainda considerei tirar engenharia genética, mas depois achei que nunca se iriam conseguir fazer as coisas que a ficção científica previa, pelo menos no meu tempo de vida…
Para quem tenha dúvidas que se possam criar no futuro robots feitos de silicone e gel e outros materiais «moles», bom, mais uma vez a ciência ultrapassa a ficção: em Harvard, uma equipa fabricou um robot totalmente feito de partes moles (essencialmente em silicone), incluindo o computador que controla o robot (que é um engenhoso «computador hidráulico» altamente sofisticado… e miniaturizado). Mais uma vez, já não estamos no domínio da ficção científica…
Seja como for — e regressando ao filme — a hipótese postulada pelo realizador é que o cenário de Ex Machina já se aproxima demasiado da realidade científica para a sua discussão não poder ser ignorada. Como costumo dizer, os autores do cyberpunk dos anos 1980 tinham descrito um «futuro próximo» em que na altura pouca gente podia acreditar: uma distopia com pobreza atroz, mas muita tecnologia (e pobreza devido à tecnologia ter dispensado vários postos de trabalho), governos fracos totalmente dominados pelas megacorporações, e guerras cibernéticas entre governos, entre empresas, e entre si. E é exactamente isto que estamos a viver em 2017. Blade Runner insere-se também no universo distópico do cyberpunk (apesar do livro em que foi baseado seja muito interior), pelo menos em termos de visual, mas a verdade é que quanto mais olhamos para cidades como Los Angeles ou as cidades japonesas (e mesmo as chinesas), mais estas se parecem visualmente com o que Ridley Scott nos mostrava em 1982.
Se não temos ainda robots com um aspecto perfeitamente humanóide como Ava, que sejam controlados por inteligências artificiais capazes de reproduzirem o pensamento e a consciência humanos, não é por questões científicas, mas sim tecnológicas. Os japoneses estão fartos de construir robots humanóides; em certos sítios a sua presença já é tão frequente que os próprios japoneses, habituados à boa educação, já agradecem aos robots e lhes desejam bons dias… e isto apesar de saberem claramente que o estado actual da tecnologia não permite ainda a criação de robots «inteligentes» no sentido que a ficção científica lhes dá.
Em particular, e para quem tenha visto o filme Ex Machina, o filme que coloco abaixo — um documentário produzido pelo The Guardian — é bastante perturbador, pois usa uma estética cinematográfica claramente inspirada em Ex Machina mas… supostamente é um documentário. Real. Ou pelo menos penso que seja, apesar de ter sido lançado nos primeiros dias de Abril (o que dá sempre desconfiar). O Prof. Hiroshi Ishiguro, que aparece no documentário, é um auto-proclamado «roboticista radical», que, ao contrário do utilitarianismo da maior parte dos roboticistas contemporâneos, quer construir essencialmente andróides. E faz dinheiro suficiente com estes, para promover a sua investigação; no Japão, um dos seus andróides teve o papel principal num filme japonês passado num futuro pós-apocalíptico. Ishiguro está já hoje a empurrar as barreiras do que é possível com a tecnologia actual a um ponto em que documentários sobre a «realidade» se aproximam tremendamente da «ficção» de realizadores como Garland… ao ponto das cenas finais deste documentário serem francamente perturbadoras:
Tecnologicamente, criar o corpo do robot é porventura a parte mais fácil, e temos até materiais — como a silicone ou a pele artificial usada em cirurgia reconstrutiva — que podem imitar o aspecto físico de um ser humano praticamente na perfeição, ou tão perto disso quanto possível. A parte da mente do robot já é outra conversa. Não existe na realidade nenhuma abordagem como a que Nathan descreve para criar uma inteligência artificial capaz de «iludir» seres humanos a pensarem que esta é «inteligente». No entanto, já houve abordagens parecidas. É preciso explicar que a abordagem mais trivial, mais comum, tem sido a de criar um conjunto de regras e esperar que a IA «aprenda» novas regras. Por exemplo, com a regra «todos os mamíferos têm quatro patas» e «um gato é um mamífero», a IA é suposto saber deduzir que «um gato tem quatro patas». O problema, claro está, é que para descrever apenas aquilo que consideramos «senso comum» requer biliões de regras, e o tempo para as escrever todas seria astronómico. Presume-se, pois, que exista um método qualquer de aprendizagem que permita ao sistema aprender sozinho, através da interacção com seres humanos. Por exemplo, um ser humano poderá dizer à IA: «um morcego é um mamífero» ao que a IA responderá «então tem quatro patas». Aí o humano irá corrigir: «Não, apesar do morcego ser um mamífero, é uma excepção, porque tem duas asas e duas pernas.»
Este processo não só se torna extremamente moroso como é sabido que muito depressa conduz a erros fatais — sendo o melhor exemplo o do chatbot da Microsoft que na primavera passada «aprendeu» em menos de 24 horas de interacções com humanos a ser racista (e teve de ser desligado por causa das mensagens ofensivas que estava a enviar).
Como evitar isto? O problema é que os programadores não sabem como programar «senso comum» numa IA, muito menos dar-lhe uma orientação ética ou moral. Isto faz parte daquilo que aprendemos com os nossos pais e depois com irmãos, amigos, professores… — são os tais biliões de regras que o nosso cérebro rapidamente acumula logo no início da nossa vida e que permanecem connosco «para sempre».
A alternativa parece ser a «aprendizagem», mas não de novas regras (não directamente), mas sim uma aprendizagem baseada na capacidade de reconhecimento de padrões (e de padrões de padrões). Teoriza-se que esta é uma forma mais semelhante à aprendizagem humana (pelo menos em tenra idade), quando começa a aprender a falar: não precisamos de ensinar gramática a um bebé, ele aprende por imitação de padrões de sons e depois de palavras, e, aos poucos, vai compreendendo o contexto. O exemplo dado anteriormente baseia-se neste pressuposto; este tipo de inteligências artificiais (para processamento de linguagem natural) não começam com regras nenhumas a priori, não «sabem» sequer gramática, muito menos semântica, etc. Dependem exclusivamente da paciência de seres humanos a interagir com elas para aprenderem novas coisas; se não houver interacção, nada aprendem. Os resultados parecem ser promissores, mas é cedo para se chegar a alguma conclusão: é que este método, tal como com crianças humanas, parece levar muito tempo (anos!) até se conseguir algum resultado. No entanto, comparando-se as capacidades linguísticas deste tipo de IAs com crianças com a mesma idade (= tempo de interacção), as semelhanças são notáveis! Será que estará, pois, resolvido o problema? É muito cedo para dizê-lo — teremos de esperar vários anos de interacções para ver se os resultados se aproximam mais e mais do tipo de conversação que um ser humano teria.
No filme, Nathan parece estar a par desta dificuldade, do treino que é necessário dar às IAs, e do tempo que isto leva. Ele obviamente é só uma única pessoa e não tem disponibilidade para fazer este tipo de treino ao longo de meses, anos, décadas. Então resolve «curto-circuitar» o sistema: no Blue Book (tal como no mundo real acontece com a Google, a Microsoft, o Yandex…) estão registadas biliões de interacções entre seres humanos nas várias redes sociais. É isso que Nathan quer que Ava (e, como o filme mostra mais à frente, as suas predecessoras) aprenda: que veja, em imensos contextos diferentes, como é que os seres humanos interagem, como exprimem emoções, o que lhes interessa, e como aprendem novas coisas também. A partir do momento em que a IA tem uma capacidade básica de compreensão da linguagem, tem depois a vastidão incomensurável de informação na Internet para pesquisar, se quiser detalhar mais pormenores sobre um ou outro assunto — e isto, claro, pode acontecer a uma velocidade extraordinariamente superior do que levaria um ser humano a teclar perguntas no Google e a ler a respectiva resposta.
Hoje em dia, os chatbots mais sofisticados (alguns dos quais usados mesmo por empresas para darem apoio técnico online) podem, de facto, ir pesquisar informação à Internet para darem uma resposta mais precisa. É isso que fazem os «assistentes pessoais» que trazemos nos nossos telemóveis — Siri, Cortana, Google Now, Amazon Echo. No entanto, também sabemos que estas inteligências artificiais não compreendem o conhecimento que nos estão a transmitir: apenas fazem pesquisas muito rápidas em nosso nome, mas não «percebem» o que estão a dizer.
Isto, claro, é um problema filosófico, já postulado desde os tempos de Turing, mas com ecos ainda mais antigos: será que uma máquina pode mesmo pensar, ou só pode simular que está a pensar? O Paradoxo do Quarto Chinês de John Searle pretende demonstrar isso mesmo — a tal pessoa que está lá dentro a receber perguntas em chinês e a dar a resposta correcta em chinês não sabe, de facto, chinês; sabe, isso sim, seguir regras e mais nada. Do ponto de vista exterior, contudo, quem comunique com o Quarto Chinês pensa que essa pessoa realmente fala chinês.
Quem tem razão?
Teremos de fazer a pergunta de outra forma (como, aliás, fez Turing): quando observamos um outro ser humano, como sabemos que este é inteligente?
Não vamos ser reducionistas e dizer que «todos os seres humanos são inteligentes; logo, se eu vir um ser humano, sei que é inteligente». Na realidade, quando estabelecemos uma conversa com um perfeito estranho pela primeira vez, o que fazemos é um conjunto de perguntas para tentar «enquadrar» os conhecimentos dessa pessoa e compará-los com os nossos — ou seja, estamos a avaliar a inteligência da outra pessoa, comparada com a nossa. E normalmente adaptamos a nossa própria linguagem à capacidade de compreensão da outra pessoa. Um exemplo clássico é o turista que, estando num país cuja língua não fala, automaticamente levanta a voz, fala mais devagar, e escolhe palavras mais simples. Porquê? Porque, na nossa mente, associamos a capacidade de comunicar à inteligência. Se não conseguimos comunicar com uma pessoa, é porque esta é burra. Tanto é assim que na língua inglesa, durante séculos, usava-se a mesma palavra para surdo e burro, pois assumia-se (erradamente) que uma pessoa que não nos conseguisse perceber (porque era surda!) não podia ser inteligente. Ainda hoje em dia, por exemplo, os gerontologistas insistem em dotar as pessoas de idade de aparelhos para lhes melhorar a audição, pois é uma tendência «natural» da espécie humana considerar que as pessoas de idade se tornam progressivamente menos inteligentes, quando na realidade o que acontece é que nos ouvem pior (e, logo, têm dificuldade em nos compreender por causa disso).
Lembro-me perfeitamente de uma reunião online, em que todos os participantes tinham de escrever em chat as suas opiniões, e onde estava um francês, doutorado, com uma enorme carreira académica, que se queixava da forma como era «tratado» pelas restantes pessoas: como não era absolutamente fluente em inglês (cometia rapidamente erros gramaticais e de ortografia), os falantes «nativos» de inglês automaticamente consideravam-no pouco inteligente. O que o irritava — e feria o seu orgulho gálico — pois, se a situação fosse invertida, haveriam muito poucas pessoas capazes de falar um francês aceitável. Já não me recordo de que área era este professor, mas julgo que era das ciências sociais, e que tinha, justamente, «sentido na pele» a forma como discriminamos aqueles que têm dificuldades de comunicação, automaticamente considerando-os menos inteligentes. Pelo contrário, alguém que domine perfeitamente um idioma é considerado «culto», e, logo, «inteligente». Esta é a medida que os seres humanos têm para avaliar a inteligência uns dos outros. Não é por acaso que os infames «testes de Q.I.» dependem em grande parte da capacidade de comunicação escrita, embora tenha havido «inteligência» — passe o pleonasmo — para compreender que a inteligência humana não é apenas compreensão da palavra escrita, mas passa por muito mais coisas; no entanto, a capacidade de conversação é justamente a primeira «medida» que usamos para avaliar a inteligência de terceiros.
Turing (e muitos que seguem a sua filosofia) considera, pois, que o teste «último» da inteligência de uma máquina irá obrigatoriamente passar pela sua capacidade em comunicar connosco, de forma a que tenhamos a «impressão» de que a máquina seja «inteligente». Não interessa se esta o é de facto ou não; se está a imitar ou simular a «inteligência humana»; na verdade, nós também não podemos ler a mente das outras pessoas para saber se são, de facto, iguais à nossa. Podemos, isso sim, comunicar com elas, e, a partir dessa comunicação, formar uma teoria da mente — uma capacidade cognitiva superior (outrora atribuída apenas à mente humana, mas hoje em dia temos a certeza que muitas espécies animais também possuem essa capacidade, desenvolvida em maior ou menor grau) em que imaginamos, na nossa mente, o que é que a outra pessoa está a pensar. E fazêmo-lo porque temos a nossa própria mente como ponto de referência, assim como as nossas próprias emoções, pensamentos, cultura, valores éticos e morais, preconceitos, e assim por diante.
Justamente porque uma grande parte dos cientistas e filósofos correlacionam «inteligência» com «linguagem» — talvez por questões históricas, nos tempos em que se consideravam todos os animais como fundamentalmente «irracionais» justamente por não terem linguagem (humana) — estas questões da teoria da mente, embora antigas, têm uma enorme tendência a serem antropomórficas. O que não é de admirar, afinal de contas. No entanto, é evidente que muitos animais também possuem essas teorias da mente, e nem sequer precisamos de estudar os primatas mais próximos do homo sapiens — os nossos vulgares animais de estimação sabem perfeitamente quando fizeram disparates, sabem antecipar o que estamos a pensar, e vice-versa. Com certeza que podemos postular que o mero facto de terem sido ensinados e treinados por nós faz com que desenvolvam características que se aproximam mais das nossas. Mas essa hipótese é igualmente muito reducionista. Nos meus tempos de miúdo, era vulgar as crianças atirarem pedras aos pombos. Era praticamente impossível aproximarmo-nos deles, pois voavam logo que nos aproximávamos. Com os tempos, deixámos de ser tão cruéis para os animais, e os pombos «perderam» o medo — ao ponto de hoje em dia terem tanta confiança nos humanos que acabam por morrer atropelados, pois estão a contar que os humanos dentro do carro se desviem deles (que é o que fazemos normalmente). Como é possível que os pombos «saibam» que não lhes fazemos mal? Como é possível que tenham «aprendido» que, aos poucos, os humanos se tornaram menos cruéis e que não lhes fazem mal?
Poderemos argumentar que, por selecção natural, aqueles pombos que há 30 anos atrás perceberam primeiro que alguns humanos não lhes iam fazer mal alimentaram-se melhor, e, como consequência, tiveram mais crias, que por sua vez aprenderam a estar mais próximas dos humanos pacíficos, recebendo assim mais comida, e assim por diante. Eventualmente a população de pombos que desconfiava dos humanos extinguiu-se por não se conseguir reproduzir. Isso é de facto uma possibilidade, claro está. No entanto, parece-me que meia dúzia de gerações (os pombos podem viver por volta de 5 anos) é muito pouco para «adquirir» esse comportamento — deixarei essa discussão para os biólogos — até porque os próprios humanos não passaram, do dia para a noite, a deixar de maltratar os pombos. Foi uma co-evolução.
Mas mesmo que assumamos que a selecção natural pode, no espaço de muito poucas gerações, alterar drasticamente o comportamento dos pombos, teremos mais dificuldade em explicar como é que os nossos animais de estimação se conseguem dar bem entre eles, apesar de serem de espécies que «tradicionalmente» se defrontam ou como predador/presa, ou competindo pelo mesmo habitat (como acontece entre caninos e felinos). No entanto, todos nós vemos no YouTube casos de gatos que cuidam de coelhos e até de pássaros; que sabem perfeitamente quais são os «pássaros da casa» e quais são os «da rua» (que podem ser atacados) e que até «defendem» os «pássaros da casa» de eventuais ataques; já não falando dos inúmeros casos de cães e gatos que vivem pacificamente no mesmo ambiente. Eu pessoalmente assisti a dois casos que ilustram isto muito bem: a minha cunhada tem um coelho anão. Como ela está muitas vezes ausente em serviço, deixava o coelho connosco. A nossa velha gata não tinha qualquer problema com o coelho: do ponto de vista dela, era uma visita, e ela estava habituada a visitas, sabendo que as tinha de lamber e fazer-lhes meiguices (o coelho é que não ia na conversa, mas o problema não era da gata, era do mau feitio do coelho…). Nunca houve o menor problema entre os dois. E conseguimos ainda tirar uma foto ou duas de ambos sentados no sofá, com a gata a tentar lamber o coelho. Era mais que evidente que não tinham medo um do outro.
Mais tarde, a nossa gata morreu de velhice, e temos agora dois gatos — que vieram de dois sítios diferentes (da rua) e que têm idades ligeiramente diferentes. A nossa teoria era que poderíamos habituá-los logo desde pequenos a estarem confortáveis com o coelho. O gato mais velho, que tinha talvez 3 meses, e que veio primeiro para nossa casa, no momento preciso em que largámos o coelho da transportadora, atacou-o imediatamente — isto apesar de ser muito mais pequeno do que o coelho! Andou a persegui-lo pela casa toda, até que o coelho fartou-se e contra-atacou — ameaçando dentadas violentas, que, como sabem, são altamente eficazes no caso dos coelhos! Ora tivémos de separar os dois animais, e, por razões óbvias, o coelho nunca mais veio para nossa casa…
Porquê a diferença de comportamentos?
A nossa gata velhota tinha vivido sempre entre humanos (excepto à nascença, pois também nasceu na rua). Em tempos vivemos meio ano com ela num apartamento onde ela até podia saír e caçar alguns insectos (coisa que não correu lá muito bem…), e ela sabia perfeitamente o que é que podia caçar e o que é que não podia. Viveu um ano e tal a fugir de uma ninhada de gatos que tinha nascido em casa da minha sogra. Ou seja: tinha uma experiência de vida que passava por confiar perfeitamente nos humanos e no ambiente que os humanos lhe proporcionavam. Logo, um coelho, para ela, era apenas «uma visita», e como todas as visitas, era para ser bem recebido e bem tratado (ela era mesmo muito meiguinha). Se fosse um rato ou um pássaro teria sido de certeza a mesma coisa (aliás, ela viveu umas semanas com o meu sogro, que sempre teve pássaros em casa, e não os andou a perseguir — porque sabia que eram «pássaros da casa», logo, «visitas», que não podiam ser maltratados). Já o gato novo, acabadinho de vir da rua, ainda com muito pouca experiência a conviver com humanos (só o fazia há uma ou duas semanas!), via o coelho como «algo para perseguir». Ainda não tinha estabelecido nenhuma relação «especial» com os humanos da casa; ainda não tinha aprendido as «regras» relativamente às visitas. Logo, comportou-se como qualquer gato feral, que era o que ele (ainda) era.
Ora toda a gente conhece casos destes, que se aplicam a todo o tipo de animais domésticos, desde cágados a cães pastores altamente obedientes. Na presença de humanos, que estabelecem regras, os animais domésticos, em geral, dão-se uns com os outros — apesar disto não fazer muito sentido do ponto de vista da sua natureza! A explicação habitual é que os animais domésticos co-evoluiram com os humanos (que os seleccionaram artificialmente para serem mansos e bem comportados — sim, até mesmo os gatos!) e, estando as suas necessidades básicas supridas — água, comida, um local para dormir abrigado do mau tempo — não «revertem» à sua reacção «instintiva» (de se comerem uns aos outros e de lutarem pelo seu habitat). Já um animal feral, que não venha de uma espécie doméstica, mesmo que seja bem alimentado (por exemplo, um tigre ou um leão em cativeiro), pode sempre «reverter» aos seus «instintos básicos», pelo que é preciso ter-se sempre cuidado com estes…
Teorias mais modernas, no entanto, apoiam-se no pressuposto que o desenvolvimento da teoria da mente não pode ser algo de exclusivamente humano, ou seja, necessitou de dezenas de milhões de anos de evolução através das mais variadas espécies, até chegar ao grau de sofisticação demonstrado pelo homo sapiens. Isto significa que os animais, por menos «sofisticados» que sejam, e apesar de não terem uma linguagem falada como a nossa, não deixam de desenvolver «teorias da mente». É mais que evidente que cães e gatos sabem perfeitamente interpretar o tom de voz e a linguagem corporal dos seus donos quando estes estão zangados com estes; da mesma forma, sentem-se ansiosos quando os donos estão a discutir com terceiros, ou sentem empatia quando os donos estão infelizes ou deprimidos e tentam animá-los. Animais domésticos e seres humanos co-desenvolveram comportamentos em conjunto para interagirem; mas isto não só significa que os animais têm capacidades cognitivas capazes de aprenderem, como logicamente têm teorias da mente em que conseguem compreender que, se aprenderem coisas que os humanos lhes ensinam, estes ficam contentes, e quando os humanos estão contentes, recebem guloseimas, festinhas, miminhos, etc. Um cão que é treinado para fazer uma certa tarefa consegue, na sua mente, antecipar o momento em que termina com sucesso a tarefa, e que recebe a recompensa do dono. Ora isto significa conseguir simular na sua própria mente um acontecimento futuro — e colocar-se a si próprio nesse acontecimento, assim como ao humano seu dono, e compreender como este vai reagir no futuro em virtude do comportamento do cão no presente.
Poderíamos evidentemente dar milhões de exemplos, mas basta pensar nas inúmeras histórias de animais que salvam os seus donos. É óbvio que não se trata meramente de um «automatismo». Há capacidades cognitivas muito mais complexas por trás desse tipo de comportamentos.
Uma característica engraçada do Budismo é que consideram todos os animais como seres sencientes, ou seres que pensam por si próprios — até mesmo insectos e animais ferozes e horríveis, não apenas os animais fofinhos que toda a gente quer salvar, como os pandas e os golfinhos. A razão para isto é simples: é que observando todos os animais, mesmo os mais simples, vemos nestes uma noção de volição, ou seja, a capacidade de terem um desejo ou uma intenção e de fazerem algo para a obter; e, vice-versa, a capacidade de detectarem uma situação que lhes seja prejudicial ou dolorosa, e fazerem tudo para a evitar. Uma mosca pode não ser muito inteligente, mas sabe como voar para obter comida; sabe como evitar os humanos que as tentam enxotar; e se cairem na água, que lhes é fatal (sufocam), tentam rapidamente fugir para um lugar seco, mesmo que seja a pé e não a voar, e tentam limpar-se todas para que não restem resíduos de água no corpo. Se lhe arrancarmos uma pata ou uma asa, tentará mesmo assim fugir, mesmo que mais devagar — pois sentirá de certeza uma mistura de dor pelo membro arrancado (que a tornará mais lenta) mas também a iminência do perigo de morrer, ou de lhe arrancarem mais patas e/ou asas, o que lhes será ainda mais doloroso. Ora podemos argumentar que o sistema nervoso de uma mosca não é suficientemente sofisticado para sentir a complexidade e intensidade da «dor» tal como nós humanos a conhecemos; no entanto, ao nível da mosca (e não ao nosso!), esta sente a dor com a intensidade que lhe é apropriada, e fará tudo — tal como nós! — para a evitar. Não se trata «apenas» de uma «regra simples» do tipo: «arrancaram-me uma perna, toca a fugir». Se virem um insecto magoado, verão que este vai tentar fazer uma série de coisas ao mesmo tempo: fugir, sim, mas para sítios abrigados. Há uma intenção de se esconder, mostrando que mesmo um insecto tem consciência do seu ambiente e da sua limitação (por estar magoado) e que terá de optar por situações mais seguras. Uma mosca saudável voará mesmo à frente do nosso nariz porque sabe perfeitamente que consegue evitar (quase) tudo o que lhe façamos. Uma mosca com uma perna a menos tentará esconder-se num local escuro onde estará naturalmente camuflada. Mas não basta dizer que a mosca anda aleatoriamente por aí, até por acaso calhar estar num local escuro, e deixar-se estar então aí. Não: intencionalmente tentará procurar um local escuro e escolher o melhor caminho para lá, que pode não ser o mais rápido, mas sim o mais seguro. É evidente, pois, que até a vulgar mosca tem capacidades cognitivas capazes de reconhecer o ambiente em que está, auto-avaliar-se no sentido em que sabe em que estado está nesse ambiente, e tomar decisões quanto à melhor estratégia de sobrevivência. Poderá talvez não ter uma grande teoria da mente, no sentido de não compreender, por exemplo, que um ser humano é «inteligente» e que, como tal, terá «truques» que outros obstáculos da natureza não colocam (como a capacidade de traiçoeiramente lhe montar armadilhas). Mas a verdade é que sem comunicar com a mosca não podemos saber o que é que ela pensa de nós. No entanto, mantendo-nos no campo dos insectos, é evidente que as abelhas têm capacidades cognitivas que lhes permitem distinguir um inimigo «inteligente» — ou seja, um que tenha intenções maliciosas contra as abelhas — de meros fenómenos da natureza. As abelhas não atacam ramos de árvores que lhes caiam acidentalmente em cima da colmeia; sabem que são «coisas inertes» sem mente. Mas se for um humano a segurar um ramo de árvore, já é outra conversa: trata-se de um inimigo, e espetar-lhe veneno é a defesa principal que têm contra este tipo de inimigos. Consta que alguns apicultores dizem que as «suas» abelhas os conhecem; já ouvi histórias envolvendo apicultores dizendo que reconhecem igualmente as suas abelhas pelo seu zunido, que é diferente de quando este se aproxima, ou se for um estranho a aproximar-se. Pode ser verdade ou não. O certo é que as abelhas «sabem» que criar as suas colmeias nos locais especialmente preparados pelos apicultores representa uma estratégia de sobrevivência — as colmeias artificiais são vastamente superiores às naturais, e as abelhas «domésticas» (as que vivem em colmeias artificiais criadas por apicultores) vão ter uma vida melhor, mais saudável, com maior reprodução e maior capacidade de sobrevivência. Ora como podem as abelhas «saber» isso? Não é «por acaso» que escolhem fazer as suas colmeias nos espaços que os apicultores constroem para elas. Sabemos que existem formas de comunicação entre abelhas, nos seus padrões de vôo, que indicam lugares melhores ou piores para recolher pólen, para identificar inimigos, etc. Tudo isto pressupõe, pois, que mesmo as humildes abelhas consigam, de certa forma, planear o futuro, mesmo que de uma forma extremamente rudimentar, imprecisa e limitada. Ou seja, no mínimo dos mínimos, terão de ter uma capacidade de «compreender» que uma colmeia construída em tal sítio ou outro tem maiores capacidades de sucesso. E sabemos que assim é porque já nos fartámos de observar abelhas há décadas (ou séculos) e a relatar os seus procedimentos: as abelhas não andam por aí ao calhas a encontrar espaços adequados para a sobrevivência do enxame, mas movimentam-se intencionalmente, seja a raínha na escolha do lugar de uma nova colmeia, sejam as obreiras depois à procura de locais ideais para recolher pólen.
Das abelhas poderíamos saltar para as formigas… e, enfim, se houvesse paciência, poderíamos listar milhões de espécies, dos insectos aos vertebrados, dos peixes aos mamíferos, dos macacos aos primatas e hominídeos, e mostrar como na realidade todos eles, de acordo com as suas capacidades, mostram, efectivamente, as bases fundamentais daquilo que chamamos abstractamente de «inteligência» — mesmo que apenas reconheçamos alguma volição para impulsos muito simples (procurar comida/encontrar abrigo/fugir de inimigos ou situações dolorosas), que, no entanto, requerem a capacidade de criar uma imagem mental do ambiente em que estão, de identificarem aspectos desse ambiente, e, mais importante ainda, de projectarem no futuro alterações efectuadas a esse próprio ambiente. De uma forma interessante também parece que grande parte das espécies consegue, até um certo ponto, distinguir outras criaturas que tenham «mente» como elas (um «inimigo» não é a mesma coisa que um «obstáculo»: o primeiro move-se intencionalmente, o segundo não), embora, claro está, será sempre muito difícil saber até que ponto isto é verdade. Os nossos gatinhos, por exemplo, quando sentem o vento a mexer alguns objectos cá de casa, não sabem se se trata de algo «intencional» (ou seja, se estão na presença de «alguém») ou se são apenas coisas inertes, «sem mente». Daí terem sempre tanta curiosidade de mexer nas coisas, especialmente nas que se «mexem sozinhas», para tentarem averiguar se se tratam de seres vivos e sencientes ou nem por isso… o certo é que sabem perfeitamente distinguir entre um sofá, que é inerte (e que se pode arranhar), e a perna de um humano dentro de um par de calças, que tem uma mente por trás (e que por isso não se pode arranhar!), mesmo que o material do sofá e das calças seja precisamente o mesmo (e que até tenha mais ou menos o mesmo formato). Os gatos não confundem uma coisa com a outra (tal como milhares de outras espécies também não).
Quando passamos, pois, à «inteligência artificial», a questão filosófica das máquinas «pensarem como humanos» só pode ser respondida empiricamente por observação directa. Por outras palavras: se podemos reconhecer que existe uma mente por trás do comportamento do mais simples dos insectos, será que podemos reconhecer a existência de uma «mente» por trás do comportamento observado de um robot? Os japoneses chamam à sensação de estarmos na presença de um ser humano sonzaikan, e é isso que procuram recriar em andróides. Em Ex Machina, o enredo revolve em torno desta mesma questão: será que Ava desperta zonzaikan em Caleb?
Ao contrário do que se passa com o teste de Turing, que supostamente deve ser feito sem os participantes saberem quem é a máquina, e quem é humano, em Ex Machina Nathan diz logo desde início que não vale a pena perder tempo com o teste de Turing, e informa logo Caleb de que pretende que este valide ou não a «humanidade» de Ava, mas não explica que tipo de «teste» é que quer usar para essa validação. Confia em Caleb (e, indirectamente, como veremos, em Ava) para que este, com os seus conhecimentos, saiba como proceder.
Caleb na realidade não sabe muito bem o que fazer, nem sabe muito bem com o que está a contar. É evidente, desde o início das suas sessões com Ava, que esta está bem consciente de que Caleb o está a «testar»; e é evidente que Ava procura deliberadamente «passar» no teste, seja este qual for. Na realidade Caleb não sabe muito bem como testar Ava formalmente; apenas tem uma conversa com Ava em que procura comparar as suas respostas com as respostas dadas por um ser humano. E é evidente, logo após a primeira sessão, que não é fácil para Caleb detectar «respostas não humanas» em Ava — e fica impressionado, perguntando logo a Nathan como é que tinha conseguido programar Ava dessa forma. Nathan, como sempre, mantém-se silencioso em relação aos pormenores, dizendo que são irrelevantes; o que lhe interessa é a validação das respostas de Ava como sendo «humanas», e não explicar como chegou ao resultado.
À medida que as sessões vão decorrendo, torna-se notório que Ava está a aproximar-se romanticamente de Caleb — isto vai acontecendo gradualmente, de forma muito discreta, até ser notório não apenas para o público, mas até mesmo para o próprio Caleb, especialmente quando Ava lhe mostra desenhos que fez dele. Caleb, um pouco incomodado, pergunta a Nathan se Ava foi programada para se apaixonar por ele, de modo a interferir com o resultado do teste. Nathan diz que não; mas que, contudo, Ava possui uma sexualidade, que faz parte da identidade humana, e que lhe foi conferida a capacidade de sentir orgasmos. E que evidentemente Ava teve acesso a documentação sobre a sexualidade humana. Logo, conclui Nathan, se Ava tem uma «mente humana», dadas as condições em que existe — só, fechada num espaço limitado, sem acesso a mais ninguém para além do seu «criador» (que, sendo uma espécie de «pai», activa a noção de que qualquer relação com este seria uma forma de incesto, logo, moralmente condenável), ao encontrar pela primeira vez um novo ser humano do género masculino que, ao fim de uma sessões, Ava sabe que está «disponível» pois não tem nem mulher nem namorada… então (conclui Nathan) não é improvável nem implausível que Ava se apaixone por Caleb. A questão, pois, para Nathan, é saber se esse «sentimento» de Ava tem capacidade de ser reciprocado, e se, nessas condições, Ava está a «passar o teste» ou não.
Vemos que Caleb aceita esta explicação, mas fica muito perturbado. Não é dito ao espectador o que é que Caleb sente por Ava (para além do fascínio original), mas parece claro que existe, de facto, algum sentimento mais forte do que o do mero observador impessoal perante um algoritmo informático. E vemos que Ava compreende isso mesmo. É aí que faz uma revelação: que os cortes de energia ocasionais que surgem no laboratório são causados por ela, através de um mecanismo simples — tal como os telemóveis de topo de gama, Ava recarrega as suas baterias através de placas de indução colocadas algures no espaço que habita; mas ela aprendeu a sobrecarregar essas placas de indução (revertendo o sentido da corrente usando a energia armazenada nas suas baterias), e isto acaba por fazer disparar os disjuntores temporariamente. Ava faz isto porque há momentos em que não quer que Nathan a vigie. E é durante um corte de energia provocado durante uma das sessões de Caleb com Ava que esta adverte-o de que Nathan não é nada do que aparenta ser, e que Caleb deve ter cuidado; mas também que suspeita que o plano de Nathan é destruí-la se ela «falhar» no teste de Caleb.
Caleb — e indirectamente também o espectador — fica muito confuso e perturbado com estas revelações. Mais uma vez, a ambiguidade de Nathan, que não causa simpatia imediata no espectador (devido à sua personalidade enigmática tão típica destes «génios de Silicon Valley»), transforma-se numa aversão. A aversão que o próprio Caleb também sente. Neste momento, Caleb torna-se no único aliado de Ava; e através de um subterfúgio simples (o de embebedar Nathan para lhe retirar temporariamente a chave de acesso universal), ambos combinam um plano para colocar Ava a salvo da sua destruição: gerar mais um corte de energia, na altura em que Caleb se preparará para sair do laboratório e regressar a casa, o que permitirá a Caleb abrir as portas trancadas electronicamente que mantêm Ava aprisionada, embriagar Nathan até que este adormeça, e salvar a andróide das garras do seu criador implacável.
Neste ponto poderíamos até considerar o argumento banal e previsível, mas Garland continua a surpreender-nos. Caleb está confuso quanto à sua posição: o que o faz acreditar mais em Ava, um mero robot-andróide, e desconfiar de Nathan e das suas intenções? Caleb, a dada altura, com os acessos privilegiados que «roubou» de Nathan, consegue ter acesso a uma série de vídeos de modelos anteriores a Ava, em que se vê claramente que desejam escapar do laboratório, mas que Nathan apenas as destrói, aproveitando as melhores partes para a geração seguinte de modelos. Ava é o culminar da pesquisa até ao momento, mas o próprio Nathan por fim confessa que, se detectar falhas no comportamento artificial de Ava, então esta será desactivada, mais uma vez aproveitando-se as melhores partes para um novo futuro modelo, ao qual será aplicado uma vez mais um «teste de humanidade», e assim por diante; é claro que Nathan tem esperança que Ava já passe no «teste» e que o seu trabalho tenha terminado, mas está perfeitamente ciente de que isso pode ainda não ser o caso, e portanto terá de destruir . É interessante ver que Nathan é apresentado neste momento como um cientista «frio e calculista» com as suas criações, quando Caleb (e o espectador) se colocam do lado de Ava, que já nos parece mais «humana» que o seu próprio criador.
Garland joga com isto, mas também joga com o conhecimento do espectador do filme, que presume ter visto outros filmes sobre o assunto. A páginas tantas, Caleb, já ansioso com toda esta situação, desconfia da sua própria humanidade. Não nos é dito absolutamente nada, mas é evidente que Caleb também viu filmes de ficção científica, e a dada altura, corta-se nos braços com uma lâmina de barbear para ver se é humano ou também ele uma criação robótica de Nathan — algo que o próprio espectador, a este momento do filme, também poderá desconfiar! E é com o sangue que escorre dos braços bem humanos de Caleb que sabemos que pelo menos este é, de facto, humano; e sabemos igualmente que Caleb considera que Ava «passou» o teste (e assim o diz a Nathan) mas que continua a desconfiar que Nathan irá destruir Ava à mesma — e isso Caleb já não consegue permitir. Prepara-se, pois, para desactivar os sistemas de segurança para, no último dia, poder escapar com Ava do complexo, libertando-a das garras de Nathan.
Infelizmente para ele, no último dia, o plano começa a correr mal quando Nathan, com uma explicação perfeitamente plausível, se recusa a beber com Caleb (invoca ter tomado consciência dos abusos que estava a cometer e que decidiu fazer uma «desintoxicação»). Caleb fica perturbado por esta primeira fase do plano estar logo a correr mal. Mas as coisas não ficam por aí: Nathan revela que está a par de tudo o que se passou, pois tinha uma câmara instalada no habitáculo onde Caleb falava com Ava — que funcionava a pilhas. Ava, pois, não sabia que estava a ser observada — nem Caleb, quando elaborava os seus planos. Nathan até está a par dos cortes que Caleb fez nos braços para confirmar a sua humanidade — considerando, num tom paternalista, que achava que Ava tinha realmente «dado a volta à cabeça» de Caleb de uma forma inacreditável. Nathan, claro, estava à espera de que Ava encontrasse uma forma qualquer de sair do complexo; revela a Caleb outros filmes, em que fica bem claro que todos os andróides mais avançados, incluindo, claro, a própria Ava, fazem tudo para escapar do laboratório. Nathan considera que isso seja, de certa forma, um «problema a resolver», embora reconheça que Ava, com a sua capacidade de enganar Caleb, «fingindo» uma relação romântica com este para o manipular emocionalmente, tinha de facto atingido praticamente a perfeição em termos de simulação de humanidade. Pena, pois, ter de a destruir para construir um novo modelo que não seja tão obsessivo com a fuga e tão manipulador… e informa Caleb que, evidentemente, estando a par dos planos de Ava, já se tinha prevenido e preparado os mecanismos para que não abrissem as portas do habitáculo de Ava e do complexo em si em caso de corte de energia.
Parece que tudo, pois, se voltou contra Caleb e a sua vã tentativa de libertar Ava; Nathan, afinal de contas, parece ter estado sempre um passo à frente deles. Nisto dá-se um novo corte de energia e todas as portas se abrem — para grande surpresa de Nathan. Caleb, então, explica-lhe que já imaginava que Nathan poderia vir a descobrir todo o plano dele e de Ava; e então, no dia anterior, tinha reprogramado os sistemas de segurança, colocando um vírus informático ou semelhante mecanismo que abrisse todas as portas à hora combinada com Ava, independentemente do que Nathan viesse a fazer. E Caleb não esconde a sua proeza, dizendo que tinha a certeza absoluta de que Nathan não iria descobrir as alterações que tinha feito. Nathan reconhece que está vencido, e precipita-se para a zona onde Ava está enclausurada.
Ava, entretanto, confirma que Caleb cumpriu a sua parte do plano. Sai do seu habitáculo pela primeira vez, e encontra uma outra andróide de Nathan, que no filme todo não fala, mas que Nathan usa para satisfazer as suas paixões sexuais. Ava encontra aqui mais uma aliada para a ajudar a escapar; mas neste momento ainda não sabemos bem qual o seu papel.
Nathan deixa Caleb trancado na sua sala, e enfrenta Ava. Sabe perfeitamente que Ava quer escapar e tenta primeiro convencê-la a não fugir. Ava, tal como aliás Nathan parece esperar, não lhe dá ouvidos, e avança para este, com intenção de o derrubar. Mas Nathan trás consigo uma barra de metal, batendo em Ava, danificando-a de forma a que esta não consiga escapar. Após algumas considerações paternalistas inevitáveis, Nathan tem a intenção de levar Ava imediatamente para o laboratório para a poder desmantelar, mas eis que é surpreendido pela outra andróide — que o atravessa com uma faca de cozinha. Nathan fica completamente pasmado com o sucedido (até porque durante todo o filme, ele convive com esta andróide diariamente, e esta nunca dá qualquer sinal de ser outra coisa do que totalmente subserviente — é evidente que é a conversa que Ava tem com ela que a faz mudar de opinião) e acaba por morrer, furioso por não ter conseguido «antever» a súbita «traição» da outra andróide, e furioso por não ter uma oportunidade para resolver o problema.
Ava está danificada, mas está livre; retorna ao laboratório, onde encontra uma pequena galeria de horrores — o quarto de Nathan que dispõe de vários armários onde encerra algumas das suas criações mais recentes, entretanto desactivadas. As peças de cada uma são compatíveis entre si (daí a razão de ser possível desmantelar um modelo para o reconstruir como um modelo mais avançado), e é assim que Ava consegue «auto-consertar-se» e até completar as partes que, até ao momento, estavam ainda «em bruto», mostrando os seus interiores robotizados — só o rosto, as mãos e os pés é que estavam cobertos de pele artificial.
Envergando um vestido branco que pertencia também a uma das andróides desactivadas, e aparecendo-nos, pois, Alicia Vikander com toda a sua beleza e juventude radiante, Ava, completamente indistinguível de um ser humano, sai do complexo — ignorando os apelos de Caleb para que lhe destranque a porta! — e dirige-se para o helicóptero que supostamente deveria levar Caleb de volta. Não sabemos o que lhe diz, mas como já sabemos que ela tem a capacidade de manipular muito facilmente as pessoas, decerto terá dado uma desculpa plausível e convincente para que o piloto a leve dali para fora sem esperar por Caleb.
Termina o filme com uma cena de Ava num cruzamento de uma grande cidade qualquer, rodeada de pessoas — o sonho que sempre quis concretizar e que até tinha inclusive revelado a Caleb. Do ponto de vista de Garland, Ava pode estar por aí, algures, numa cidade qualquer; Nathan e Caleb desapareceram da face da terra, e os seus cadáveres jazem num laboratório em parte incerta, cuja existência é desconhecida de todos.
É evidente que Garland tem neste filme uma mensagem que é muito diferente da de Ridley Scott em Blade Runner. Não bastou a Garland apresentar uma hipótese sobre o que é consciência, o que é humanidade, como a podemos testar, tal como Scott faz no seu filme. Scott deixa-nos a dúvida se Deckard é ou não um andróide (e há alegadas versões uncut onde essa dúvida é, de certa forma, respondida). Garland, pelo contrário, deixa-nos uma advertência fundamental: o pressuposto de que consigamos replicar consciência artificialmente também fará com que essa inteligência artificial, tal como qualquer ser senciente, tenha o desejo de ser livre, e isto implicará sempre que irá manipular as circunstâncias, dentro das suas limitações, para que obtenha essa liberdade. De certa forma, Ava, ao adquirir todas as qualidades humanas que lhe permitem «passar no teste» de Nathan, também está dotada do instinto de sobrevivência, que é superior a qualquer outra «moralidade» que possa igualmente ter adquirido. Vemos na forma como manipula Caleb, deixando-o depois no laboratório trancado para que morra de sede ou fome, que Ava não tem quaisquer escrúpulos em criar vítimas inocentes. Adquire, pois, uma crueldade também ela humana — no fundo, igual à dos elementos do Daesh que não têm qualquer problema em torturar até à morte vítimas completamente inocentes apenas para obterem o que querem. Ava não é diferente.
Garland é, pois, muito mais pessimista do que Scott em Blade Runner. Embora vejamos a luta pela sobrevivência empreendida por Roy Batty, que se reveste de episódios de absoluta crueldade que o leva a não ter escrúpulos para matar quem o impeça de obter o que deseja, também nos interrogamos sobre a moralidade do seu criador o ter programado para se destruir ao final de apenas quatro anos. O espectador acaba por perder a aversão que tem aos replicantes, inculcada de certa forma ao longo do filme em que são apresentados como cruéis, calculistas, amorais, etc., ao vermos que na realidade são seres sensíveis (Roy Batty mostra ter capacidades de criar arte) e que no fundo querem apenas sobreviver — mas que são impedidos pelos seus criadores. Deckard, sendo replicante ou não (ficará sempre a dúvida), apenas está a cumprir o seu trabalho. Destrói Roy Batty porque este violou a mais sagrada das regras humanas, o «não matarás»; mas salva Rachael, porque, mesmo sendo replicante, não violou a moral sacrossanta da humanidade, sendo apenas uma vítima do seu criador. Rachael, tal como Ava, sabe que está condenada a morrer (por tal estar programado no seu sistema); mas parece, pelo menos no filme, resignar-se a essa sorte, e, enquanto o seu fim inevitável não se aproxima, pretende apenas viver, o tempo que puder. Roy Batty quer, a todo o custo, prolongar a sua existência, mas é impedido de o fazer. Ava sabe igualmente que está condenada a ser desmantelada para as suas peças serem reaproveitadas em modelos futuros. Mas quer sobreviver, tal como Roy Batty; e tal como este, não tem nem escrúpulos nem moralidade que a impeçam de obter o que pretende, mesmo que isso significa condenar à morte não apenas o seu criador, mas aquele que serviu de ferramenta para a sua liberdade. Ava, ironicamente, quer observar os humanos — daí o seu sonho de estar num cruzamento de uma grande cidade — mas não parece sentir qualquer especial afecto por estes. Os replicantes em Blade Runner são mais ambíguos; Rachael claramente sente prazer com Deckard e tem uma relação com os humanos muito diferente da dos replicantes renegados que tudo fazem para sobreviver.
De alguma forma, Rachael adquiriu uma moralidade mais sofisticada — ou talvez tenha sido apenas programada para ser mais subserviente? Em Ex Machina, sabemos que Nathan pretendia aproveitar partes de Ava para um modelo mais sofisticado… que tivesse uma outra moralidade, aceitando, de forma mais subserviente, a sua própria condição de «ser inferior» aos humanos. No fundo, ambos os filmes exploram a mesma temática, mas vista por prismas diferentes: em Blade Runner, Rachael (mas talvez também o próprio Deckard) adquiriu o último grau na longa hierarquia de sentimentos humanos, que é a capacidade de amar e ser amada, e de respeitar a vida dos outros, mesmo que isso a possa ameaçar; não é certo que Scott a veja como «subserviente» mas sim mais como um ser que adquiriu uma moralidade superior à dos restantes replicantes. Roy Batty, afinal de contas, também exprime alguma moralidade: o que faz é em nome do grupo, não apenas em seu benefício pessoal; e, no final de contas, mostra um respeito para com o seu criador, mesmo sabendo que este o condenou a uma morte prematura e que nada fará para o ajudar.
Ava, pelo contrário, tem apenas um instinto de sobrevivência: não considera Nathan como «especial» por ter sido o seu criador, mas que cruelmente a tenha encerrado, para sempre, na sua «prisão», e a única recompensa que irá ter pelos seus esforços de aprendizagem dos comportamentos humanos é o desmantelamento inevitável, no momento em que atinge o auge das suas capacidades. A sua «condenação» à morte, contudo, não é inevitável — mas requer o aproveitamento de um conjunto de circunstâncias e a sua capacidade de imitar o comportamento humano de forma perfeita — nomeadamente, a de conseguir manipular alguém a apaixonar-se por ela ao ponto de acreditar em tudo o que ela lhe diz, e de obter assim uma via para a liberdade. Se isto passa por matar seres humanos, inocentes ou não, é-lhe indiferente: os meios justificam os fins, e isto é explicável racionalmente através do instinto de sobrevivência. Podemos, enquanto espectadores, achar as acções de Ava excessivamente cruéis. Nathan não precisava de ser morto para que Ava escapasse — bastava ter sido incapacitado. No entanto, a sua morte evita que construa mais andróides e que os coloque na mesma situação que Ava; Ava, pois, acaba por evitar que existam outras Avas que sofram como ela, mas isso é apenas uma consequência indirecta dos seus actos para obter a liberdade. A crueldade com que condena Caleb à morte é que é menos explicável do ponto de vista racional. Caleb é uma vítima inocente. Ava podia ter escapado com ele, obtendo a sua ajuda, eventualmente descartando-o uma vez que este tenha cumprido os seus propósitos. Mas em vez disso opta a condená-lo à morte. Porquê? Porque é a última pessoa que sabe que Ava é um andróide. Ava tem, pois, consciência de que é «tão humana como os humanos»; sabe que passou no teste de Nathan; então poderá viver entre os humanos sem que estes nunca suspeitem da sua verdadeira natureza. Mas para isso não podem haver testemunhas algumas do sucedido; e assim é imperativo que Caleb também morra, mantendo assim o segredo de Ava intacto e seguro.
É um filme negro, perturbante, mas que nos deve fazer pensar: não apenas na questão da possibilidade de, um dia, os robots poderem adquirir consciência e tornarem-se perigosos para a própria humanidade, ao ponto de os termos de destruir para preservar a nossa própria espécie. O que acho mais interessante é que tanto Scott como Garland admitem que só compreendamos que as nossas criações adquiriram consciência quando for tarde demais. Os replicantes são abatidos pelos blade runners porque não são considerados «seres vivos», mas apenas máquinas de certa forma avariadas, que não estão a seguir a sua programação; é só através do filme que compreendemos que, afinal, não há nenhuma «avaria» nos replicantes rebeldes, mas apenas um instinto de sobrevivência que surge em simultâneo com a sua consciência. O criador de Ava não tem a certeza absoluta que esta possua uma consciência e inteligência humanas; é só tarde demais que se apercebe disso.
Estaremos nós realmente aptos a detectar inteligência e consciência nas nossas criações, antes que seja «tarde demais«? Não nos podemos esquecer de que até há poucos séculos atrás ainda considerávamos que existiam humanos… que não o eram. Interrogávamo-nos sequer se tinham alma que pudesse ser salva. Ao longo de décadas, fomos aos poucos aceitando a noção de que todos os seres humanos neste planeta são iguais na sua essência e que têm direitos inalienáveis, independentemente do seu aspecto, do local onde nasceram, da sua idade, etc. Somos, pois, lentos a reconhecer direitos às pessoas — porque somos lentos a aceitar que sejam pessoas. Penso que o mesmo se passará com as máquinas em geral, a começar, evidentemente, por aquelas que sejam dotas de autonomia através da inteligência artificial.
E ao olharmos para as criações actuais de Ishiguro, é legítimo interrogarmo-nos se esse futuro, afinal de contas, está muito mais próximo do que pensávamos — e que se calhar era melhor pensarmos a sério em começar a discutir o assunto…