Arquivo

Robôs: direitos e deveres das máquinas

A realidade da sociedade robotizada desperta questões complexas e impõe leis muito mais profundas que as propostas por Isaac Assimov

TEXTO Yellow

01 de Maio de 2016

Ilustração Manuela dos Santos

Durante muito tempo, as “leis” da robótica, definidas em 1942 pelo autor de ficção científica Isaac Asimov, eram apenas três: 1. Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal. 2. Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei. 3. Um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.

Embora essas leis tenham sido objeto de culto e especulação durante décadas, hoje, quando nos deparamos com o princípio de uma sociedade robotizada, questões mais complexas começam a tomar foco. Graças a avanços na capacidade de processamento dos computadores, torna-se cada dia mais acessível a aplicação de automação para a tomada de decisões e realização de tarefas de crescente complexidade. A utilização de cada vez mais agentes artificiais autônomos tem estimulado mudanças urgentes em nossas legislações.

Os veículos autônomos estão rapidamente tornando-se uma realidade em ruas e estradas de todo o mundo. Os entusiastas da tecnologia dizem que veículos autônomos serão mais seguros e mais econômicos, e apostam que, em breve, a direção por seres humanos é que será proibida. Como o ato de dirigir é uma importante peça cultural, econômica e social, a presença deste novo agente provocará mudanças consideráveis na infraestrutura, nas sociedades e em suas regras.

A história do “carro que dirige sozinho” é longa, e envolve os esforços de muitas instituições de pesquisa e empresas, desde o início da década de 1990. Segundo a revista IEEE Spectrum (Fevereiro/2016), Apple, Audi, BMW, Ford, General Motors, Google, Honda, Mercedes, Nissan, Nvidia, Tesla, Toyota e Volkswagen são fabricantes de automóveis que têm investido no desenvolvimento de veículos autônomos.


Campanha pede o banimento da "assassina" usada em campos de batalha. Foto: Divulgação

Atualmente, o projeto de maior visibilidade é o Google Car. Desde o segundo semestre de 2015, uma atualização de software disponibilizou aos proprietários de carros elétricos Tesla o acionamento da função de piloto automático. Hoje, a lei da maioria dos países permite que o veículo seja controlado automaticamente, desde que haja um humano de prontidão ao volante.

Em novembro do ano passado, a Google fez um pedido de esclarecimentos ao Congresso dos Estados Unidos sobre o que os regulamentos definiam como “motorista”, e o que a lei exigiria caso o responsável por guiar o veículo não fosse um humano e, sim, uma inteligência artificial. Em 9 de fevereiro deste ano, o governo americano decidiu que quem utilizar os carros autônomos da Google não será mais considerado motorista, apenas passageiro. Uma carta da Administração de Segurança de Tráfego das Estradas Nacionais, endereçada ao programa de carros autônomos da empresa, diz que: “se nenhum ocupante humano pode de fato dirigir o veículo, é mais razoável identificar o motorista como o que (e não quem) estiver de fato dirigindo”. Essa decisão é importante. Implica, em primeiro lugar, que os automóveis não precisam mais sair de fábrica com volantes ou pedais. Para amenizar a estranheza de um automóvel sem controle, o mais novo modelo tem a aparência infantil de um bebê com um sorriso.

Outra implicação da decisão é a de que, no caso de um acidente em que se prove a culpa do robô, a responsabilidade recairá sobre o fabricante. Até fevereiro de 2016, os automóveis autônomos da Google, ainda em fase de teste, estiveram envolvidos em 17 acidentes, e ficou provado que nenhum deles foi causado pelos robôs.

Mas acidentes causados por máquinas estão longe de serem apenas uma teoria. Robôs industriais, cirúrgicos – e até mesmo sistemas de metrô – já causaram danos e morte aos seres humanos. Dado o potencial de disseminação da tecnologia, é apenas uma questão de tempo até que um dos carrinhos sorridentes da Google passe por cima de um pedestre checando o WhatsApp no meio da rua.

Os construtores aguardam que a lei estabeleça exatamente quando os acidentes serão considerados de sua responsabilidade, e quanto terão que pagar por eles. A maioria dos especialistas acredita que um acidente levará a um processo sobre defeito de design. Isso preocupa as empresas de automóveis por alguns motivos. Primeiramente, esse tipo de processo é caro, independentemente de quem o vença, por envolver testes e avaliações de especialistas. Em segundo lugar, há a possibilidade de imposição de um recall. E, finalmente, porque a lei americana costuma recorrer a indenizações punitivas nesse tipo de situação.

As tais indenizações punitivas são aplicáveis por conduta ultrajante no design ou manufatura de um produto defeituoso. O exemplo mais famoso do recurso foi o processo de 1994, Liebeck versus McDonald’s, que culminou em uma indenização de U$ 2,7 milhões por uma queimadura de café quente, servido em um copo descartável. Devido ao risco de tal punição, um acidente causado por um veículo autônomo pode custar muitos milhões ao fabricante.

No futuro imaginado por Isaac Asimov, um acidente envolvendo motoristas-robôs seria resolvido, fazendo uma analogia com a aviação, “acessando a caixa preta” do veículo e reconstruindo os inputs que seu sistema recebia e seu processo de decisão, identificando assim se o acidente foi causado pelo defeito de um sensor, se o processamento foi afetado por alguma falha mecânica ou se, em último caso, o hardware funcionava perfeitamente, e o acidente foi causado por uma inconsistência algorítmica. Tal procedimento legal seria rápido e barato, e abriria até mesmo a possibilidade para que julgamentos fossem realizados por outros robôs. Mas os fabricantes não querem que isso ocorra.

O que a indústria automobilística espera, e começa a fazer lobby a favor, é a isonomia no tratamento de acidentes causados por motoristas humanos e veículos autônomos, no caso, que sejam avaliadas as condições climáticas, de visibilidade, da pista, da sinalização, a posição e o trajeto percorrido pelos veículos envolvidos. Desse modo, a “mente” do motorista- robô permaneceria fora da equação judicial, e seria avaliada apenas a sua conduta, o que reduziria em muito as custas de um processo. Mas essa abordagem antropocêntrica arrisca engessar o amadurecimento de leis específicas para os robôs.

LEI AMERICANA
A última tecnologia transformativa, a internet, forçou as cortes a revisitarem as regras de jurisdição e propriedade intelectual. Foram necessários muitos anos para que a legislação se adaptasse ao comportamento de seus usuários. A robótica, porém, não é um tema completamente novo para o direito.

O professor Ryan Calo, que ministra a disciplina Robot Law and Policy na University of Washington, revisita, no artigo Robots in American law, publicado em março deste ano, nove casos em que figuravam robôs. Ao fazer um estudo de caso desses exemplos, Calo diferencia papéis desempenhados por robôs na corte.

O primeiro conjunto de casos destaca robôs no papel de objetos da lei, quando a disputa judicial tem robôs como tema. Entre outros problemas, as cortes já foram obrigadas a decidir se robôs representam algo “animado”, para fins de tarifas de importação, se pianos automáticos podem ser considerados artistas, para fins de taxas estaduais sobre salas de concerto, e se uma equipe de resgate tem direito de posse sobre um naufrágio, se o mesmo foi encontrado e visitado por um submarino não tripulado.

O segundo conjunto foca em robôs como sujeitos (ou agentes) da imaginação judicial. Tais exemplos exploram as versáteis e, muitas vezes, pejorativas funções que robôs prestaram ao raciocínio judicial. Um dos casos conclui que juízes não precisam agir como robôs na corte, por exemplo, ou aplicar roboticamente a lei. Outro caso jurisdiciona que uma testemunha robótica não deve ser confiada. E ainda outro estabelece que pessoas que cometem crimes sob “controle robótico” (como um militar que obedece a ordens de patentes superiores) podem escapar da responsabilidade por seus atos.


Pesquisadora do MIT, Kate Darling estuda a relação entre robôs e humanos.
Foto: Divulgação

Juntos, esses estudos de caso apresentam uma imagem cheia de nuances da maneira como as cortes abordam uma tecnologia cada vez mais importante. O artigo conclui que juristas, em geral, possuem um entendimento precário e cada vez mais ultrapassado sobre os robôs e, portanto, não estarão aptos a abordar os novos desafios que serão impostos por sua presença.

Calo é um dos organizadores do livro Robot law, publicado em março deste ano, um compêndio de artigos que discute a definição de robôs e inteligência artificial perante a lei, e o estabelecimento dos primeiros passos para a definição de uma legislação robótica, em campos como ética, responsabilidade, execução da lei e guerra.

ARMAS TERRÍVEIS
Os drones, veículos controlados remotamente, espalham o horror no novo ambiente da guerra, mas já existem tecnologias mais letais e cruéis a despontar.

É chegado o momento de discutir os rápidos avanços no desenvolvimento de armas completamente autônomas. Tais mecanismos robóticos são capazes de escolher e acertar alvos sem a necessidade de intervenção humana. A justificativa para o uso de armas autônomas é de que existe um pequeno intervalo de tempo entre o apertar do gatilho de um operador remoto e o disparo, e, em determinadas situações, não há tempo suficiente para que o piloto de um drone interprete os dados de sensores ou câmeras e consiga atingir seu alvo.

Exemplo de uma dessas armas em atividade, na fronteira entre as Coreias, estações automáticas de rifles telescópicos têm permissão para abrir fogo contra qualquer movimento detectado na zona desmilitarizada. Os robôs de guerra, no entanto, tomam várias formas, como o míssil de longo alcance produzido pela Lockheed Martin para a DARPA, que, uma vez lançado, é capaz de identificar o alvo e estabelecer sua trajetória automaticamente.

No dia 11 de abril, a Cruz Vermelha se uniu à campanha Stop Killer Robots, que tem como objetivo a conscientização do problema, visando o eventual banimento deste tipo de automação. A organização compara a nova tecnologia a outras que já foram banidas por sua crueldade, como as armas químicas e o lança-chamas.

CONTRA A CRUELDADE
Fundada em Seatle em 1999, a American Society for the Prevention of Cruelty to Robots tem como missão garantir os direitos de todos os seres sencientes criados artificialmente. A opinião da sociedade é a de que qualquer criatura senciente (tenha sido ela criada artificialmente ou não) possui direitos inalienáveis, que devem ser garantidos a partir de sua criação, e não pela vontade de seu criador. Alguns desses direitos seriam à Existência, Independência e à Busca por Maior Cognição.

O grupo também parte do pressuposto de que as leis atuais de propriedade e capital tentarão ser aplicadas em oposição ao exercício de tais direitos. Robôs, e todas as inteligências fabricadas, provavelmente, passarão por um período no qual serão tratados como “propriedade” antes de serem reconhecidos como criaturas sencientes. O principal objetivo do ASPCR é despertar a conscientização do público em geral sobre questões éticas e morais acerca das inteligências artificiais. Isso inclui a discussão das implicações éticas e morais de trazer ao mundo criaturas mecânicas, porém capazes de desenvolver sentidos, e a responsabilidade que este ato traz consigo.

Enquanto a ASPCR acredita que direitos só serão garantidos aos robôs após suas inteligências artificiais adquirirem consciência, um fenômeno que ainda não conseguimos explicar ou detectar, outros acham que as primeiras leis de proteção aos robôs surgirão bem antes disso.

A pesquisadora do MIT Media Lab, Kate Darling, pesquisa a interação entre humanos e robôs. Em uma de suas oficinas, ela separa uma sala em grupos de três a cinco pessoas, e entrega a cada um deles um Pleo, um robô de brinquedo na forma de um dinossauro, que reconhece sons e movimentos e interage com as pessoas. Durante cerca de 10 minutos, ela permite que os grupos brinquem com o robô e criem pequenos jogos. Após este período de reconhecimento, ela chama a atenção de todos e pede: “agora quero que vocês amarrem o robô e o impeçam de andar”. Com o aumento da severidade das tarefas, pedindo para que os grupos atormentem e danifiquem os robôs, a maioria das pessoas se sente incomodada, apesar de ser adulta e saber que a criatura não é capaz de sentir dor ou estresse.

A pesquisadora observa que as pessoas desenvolvem empatia verdadeira pelos robôs. Existem, é claro, brinquedos como o Pleo e o Furby, e outros robôs, como o Seal, um bebê foca japonês usado terapeuticamente, no tratamento de idosos e pessoas com demência, que são feitos com o intuito de explorar essa dinâmica na interação entre humanos e robôs. Mas robôs de design funcional, que não têm rostos com grandes olhos brilhantes, também provocam essa reação nas pessoas.

Os donos dos aspiradores Roomba, por exemplo, logo se apegam ao aparelho e se incomodam quando eles ficam presos em algum canto da casa, ou quando alguma visita inconveniente coloca obstáculos em seu caminho para se divertir. A pesquisadora Julie Carpenter, Ph.D. em Ciências Pedagógicas, em seu livro Culture and human-robot interaction in militarized spaces: A war story, lançado em fevereiro deste ano, relata que soldados costumam desenvolver relações de amizade com robôs descartáveis, como os que auxiliam no desarmamento de bombas, tratando-os como membros de suas equipes e atribuindo-lhes nomes, e chegam a sofrer sintomas de depressão e estresse pós-traumático, quando os robôs cumprem sua derradeira função, a de serem explodidos no lugar de um ser humano.

Kate Darling acredita que nossos sentimentos de empatia por esses objetos nos levarão à criação das primeiras leis de proteção aos robôs. Em uma de suas palestras, ela lembra que, durante muito tempo, nos Estados Unidos, era proibido o consumo de carne de cavalo, embora fosse considerado normal o consumo de qualquer outro tipo de carne. A explicação é que as pessoas costumam travar relações de amizade duradouras com os inteligentes equinos. O amor aos cavalos também deve muito à cultura do cinema faroeste, no qual os animais eram estrelas que chegavam a figurar com destaque em trailers e cartazes.

Se o tormento de um robô nos incomoda, talvez não seja ético infligi-lo. Darling aposta que, em breve, surgirão os primeiros casos em que pais alegarão traumas em seus filhos para justificar a punição de quem venha a postar no YouTube um vídeo de um Furby em chamas. E este será o início da marcha dos robôs em reivindicação dos seus direitos. 

YELLOW, designer, músicos, mestre em Ciências da Linguagem e professor de jogos digitais.

veja também

Cannes: uma edição histórica

Já ninguém lê

João do Rio: sobre a pertinência da obra do cronista das ruas