Seguro obrigatório de responsabilidade civil e inteligência artificial no common law
segunda-feira, 26 de outubro de 2020
Atualizado às 08:48
Com o crescente desenvolvimento e propagação de tecnologias que se utilizam de inteligência artificial (IA), tem crescido também o estudo e o interesse por oferecer uma resposta adequada por os casos de danos decorrentes dessas tecnologias.
O Parlamento Europeu, em resolução de 16/2/2017, que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (2015/2103-INL), entre outros pontos, sugeriu "que uma possível solução para a complexidade de atribuir responsabilidade pelos danos causados pelos robôs cada vez mais autónomos pode ser um regime de seguros obrigatórios, conforme acontece já, por exemplo, com os carros".
Além disso, considerou "que, à semelhança do que acontece com os veículos motorizados, esse regime de seguros poderia ser complementado por um fundo de garantia da reparação de danos nos casos não abrangidos por qualquer seguro". E instou também "o setor dos seguros a criar novos produtos e novos tipos de ofertas que estejam em linha com os avanços na robótica"1.
Essa questão tem despertado a atenção de diversos autores do common law, os quais têm apresentado diferentes propostas de implementação de seguro obrigatório no contexto de inteligência artificial, como o autor inglês David Levy e os juristas norte-americanos Carrie Scholl2 e Jin Yoshikawa3. Nesta coluna, pelos limites naturais de espaço que detém, enfocarei apenas a recente e interessante proposta do autor britânico.
David Levy, especialista em IA, propõe um "sistema de seguro inteligente para robôs". O ponto de partida dessa proposta, segundo ele próprio declara, é o artigo publicado em 2010 por Anniina Huttunen e colegas finlandeses e alemães. Segundo Levy, esse estudo foi o primeiro a propor e expor a conveniência de se segurar contra acidentes causados por robôs4.
No referido estudo de 2010, Anniina Huttunen et. al. resumem essa necessidade ou conveniência, afirmando que, "na estrutura do seguro, uma máquina pode se tornar uma máquina definitiva emancipando-se de seu fabricante/proprietário/operador. Isso pode ser alcançado através da criação de uma estrutura legal em torno dessa máquina definitiva, que nela mesmo tem valor econômico. O primeiro passo na criação de uma estrutura legal em torno da máquina é tornar obrigatória a solicitação do seguro"5.
Em 2012, David Levy deu um passo a mais, defendendo "um processo de monitoramento acionado eletronicamente por agências de aplicação da lei, por meio do qual elas podem verificar se um robô está adequadamente segurado". Se for detectado que determinado robô não está devidamente segurado, ele será temporariamente desativado. A desativação se dará por meio de mensagem eletrônica transmitida remota e automaticamente, pelas autoridades, à caixa preta do robô, para que ele não funcione. Além disso, ela irá anunciar ao usuário que sua cobertura de seguro é inadequada ou expirou. O sistema de monitoramento não deve apenas desativar os robôs não segurados, mas também deve informar as autoridades a respeito de qualquer tentativa de contornar a tecnologia de monitoramento6.
Segundo propõe Levy, quando um robô é vendido pelo seu fabricante, deveria ser cobrado um prêmio de seguro pelo primeiro ano de operação. Esse prêmio já deve estar incluído no preço de venda do produto e, até que seja pago, ele não funcionará. Em torno de um mês antes do vencimento do prêmio pago, o proprietário do robô receberia uma mensagem da seguradora, avisando que seu seguro precisa ser renovado. Quando o pagamento da renovação é realizado, uma mensagem eletrônica é enviada para a caixa preta do robô, instruindo-a a permitir a continuidade da operação da máquina. Mas se, até a data de vencimento, o proprietário não conseguir renovar o seguro, o robô deixará de funcionar e passará a anunciar: "Por favor, renove meu seguro antes de tentar me usar novamente"7.
Mais recentemente, em 2020, David Levy complementou essa ideia. Segundo afirma, fundamental para sua nova proposta estendida de seguro obrigatório é a necessidade de um sistema de classificação de robôs de acordo com seu potencial de risco, bem como de um sistema de registro. Essa classificação fornecerá às seguradoras um dos fatores a serem levados em consideração na estimativa de riscos e na definição de prêmios. O registro de um robô garantiria a existência de um elo entre o número de registro exclusivo do robô e sua apólice de seguro e fundo de compensação de reserva8.
A esse respeito, Ryan Calo faz observação complementar, que liga o tipo de robô a um nível adequado de pagamento do seguro: "o nível de seguro deveria depender da natureza do robô que está sendo segurado". Muitos robôs não precisariam de seguro, ou precisariam apenas ser segurados minimamente. Esses seriam os casos, por exemplo, de pequenos robôs usados principalmente para entretenimento. Por outro lado, "robôs maiores com funcionamento mais autônomo - por exemplo, robôs de segurança que patrulham um estacionamento - exigiriam maior cobertura"9.
Segundo o próprio David Levy, a lógica por detrás dessa proposta de 2012 é a seguinte: o emprego de um conjunto de dados relativos ao histórico de acidentes com robôs como um guia para definir prêmios de seguro tem uma consequência benéfica: se seus produtos forem mais propensos a acidentes do que a média, os desenvolvedores e fabricantes de robôs sentirão os efeitos em seus resultados corporativos. O sistema de seguro de robôs que Levy concebe será autorregulado para a indústria de robôs, pois marcas e modelos propensos a acidentes atrairão rapidamente prêmios de seguro mais altos, aumentando assim seus custos de varejo e incentivando os consumidores a comprar produtos com melhores registros de segurança. De maneira semelhante, os proprietários de robôs terão um incentivo financeiro para cuidar de como usam seus robôs, pois podem sofrer prêmios mais altos com a perda de seus bônus de não reivindicação10.
Para fazer valer a exigência de seguro obrigatório para robôs, será necessário, como adverte David Levy, aplicar sanções legais pesadas contra proprietários e/ou operadores de robôs que não estejam adequadamente segurados ou que não tenham seguro, mas que de alguma forma conseguiram superar a tecnologia desativadora do robô presente na sua caixa preta. Se um especialista em computador conseguir invadir o programa de renovação de seguros do robô e permitir que um robô não segurado seja usado, ele estará cometendo uma ofensa criminal. Enquanto monitora o status da apólice de seguro do proprietário, a caixa preta do robô pode transmitir uma mensagem de alerta às autoridades reguladoras competentes, informando sobre o uso de um robô não segurado, ou sobre uma modificação irregular de um robô já segurado, juntamente com o nome do proprietário e detalhes de contato11.
Nem todos os robôs precisariam de seguro. Para justificar a exclusão de alguns deles do universo dos seguráveis, David Levy utiliza-se, como referencial, do que acontece com o seguro de veículos a motor: em muitos países, existem alguns tipos de veículo que não são considerados veículos a motor para fins de seguro. No Reino Unido, exemplifica o autor, isso inclui cortadores de grama e algumas bicicletas elétricas. Essas exclusões, segundo Levy, fornecem um modelo que pode ser facilmente estendido ao seguro de robô. Alguns robôs de brinquedo projetados para crianças, ilustra ele, não precisam ser segurados, porque o risco de ferimentos graves ou morte causados por um brinquedo é muito pequeno e etiquetas de aviso podem ser facilmente afixadas no brinquedo para cobrir reais possibilidades de dano, como a de a criança engolir peças removíveis12.
Um desafio para um sistema como o que David Levy propõe, segundo reconhece o seu próprio idealizador, é apresentado por consumidores que, após a compra inicial, adquirem posteriormente complementos de hardware ou software que influenciam os riscos apresentados pelo robô. Para atender a esses possíveis perigos, Levy propõe que o software de um robô poderia ser programado para detectar esses complementos e enviar uma mensagem eletrônica ao "atuário" da seguradora, que calcularia o impacto da alteração sobre o valor do prêmio e o proprietário seria informado da correspondente mudança. Ainda mais perigoso poderiam ser entusiastas de robôs que possuem o conhecimento técnico para modificar seus robôs, gerando novamente a possibilidade de um risco agravado, transformando um robô inócuo em um perigoso. Nesses casos, a caixa preta do robô imporia ao proprietário a necessidade autenticar o robô alterado, preenchendo um formulário eletrônico com detalhes da modificação, para que um correspondente aumento no prêmio do seguro pudesse ser calculado. O proprietário que forneça informações falsas sobre sua modificação deverá poder ser processado13.
No contexto da inteligência artificial, para situações que exponham terceiros a um risco aumentado de dano, o seguro de responsabilidade compulsória pode dar às vítimas um melhor acesso à compensação e proteger possíveis infratores contra o risco de responsabilidade. Neste âmbito que se insere a interessante proposta de sistema de seguro inteligente para robôs, defendida por David Levy, o qual oferece um processo de monitoramento acionado eletronicamente a partir do qual é possível verificar se um robô está adequadamente segurado.
__________
1 Sobre essa resolução, ver: PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do parlamento europeu. Revista brasileira de políticas públicas, vol. 7, n. 3, p. 239-255, dez.-2017.
2 SCHROLL, Carrie. Splitting the bill: Creating a national car insurance fund to pay for accidents in autonomous vehicles. Northwestern University Law Review, vol. 109, n. 3, p. 814 ss., 2015.
3 YOSHIKAWA, Jin. Sharing the Costs of Artificial Intelligence: Universal No-Fault Social Insurance for Personal Injuries. Vanderbilt Journal of Entertainment & Technology Law, vol. 21, p. 1178, 2019.
4 LEVY, David. Intelligent no-fault insurance for robots. Journal of Future Robot Life, vol. 1, p. 50, 2020.
5 HUTTUNEN, Anniina; KULOVESI, J.; BRACE, W.; LECHNER, L.G., Silvennoinen, K. & Kantola, V. Liberating intelligent machines with financial instruments. Nordic Journal of Commercial Law, vol. 2, p. 13-14, 2010.
6 LEVY, David. When robots do wrong. In: Conference on Advances in Computing and Entertainment (ACE), Kathmandu, 2012 apud LEVY, op. cit., p. 51.
7 LEVY, David. When robots do wrong. In: Conference on Advances in Computing and Entertainment (ACE), Kathmandu, 2012 apud LEVY, op. cit., p. 51.
8 LEVY, David. When robots do wrong. In: Conference on Advances in Computing and Entertainment (ACE), Kathmandu, 2012 apud LEVY, op. cit., p. 51.
9 CALO, M. Ryan. Open robotics. Maryland Law Review, vol. 70, p. 138-139, 2011.
10 LEVY, David. When robots do wrong. In: Conference on Advances in Computing and Entertainment (ACE), Kathmandu, 2012 apud LEVY, op. cit., p. 51-52.
11 LEVY, David. When robots do wrong. In: Conference on Advances in Computing and Entertainment (ACE), Kathmandu, 2012 apud LEVY, op. cit., p. 52.
12 LEVY, David. When robots do wrong. In: Conference on Advances in Computing and Entertainment (ACE), Kathmandu, 2012 apud LEVY, op. cit., p. 52.
13 LEVY, David. When robots do wrong. In: Conference on Advances in Computing and Entertainment (ACE), Kathmandu, 2012 apud LEVY, op. cit., p. 52.