Responsabilidade civil e autonomia em tempos de pandemia e de automação
quinta-feira, 18 de junho de 2020
Atualizado às 08:28
Texto de autoria de Maria Cláudia Cachapuz
No livro O futuro da natureza humana, Habermas - ao discutir a possibilidade contemporânea de submissão de um embrião que se encontra num estágio de oito células a um exame genético de precaução, para, dentre outras coisas, evitar-se o risco de transmissão de doenças hereditárias quando da realização de um procedimento de fertilização in vitro - lança o debate quanto à possibilidade de alcance de distintas margens de decisão para a tomada de resoluções concretas na vida de relação. Conforme o autor1, ou decide-se de forma autônoma, a partir de considerações normativas que se inserem na formação democrática da vontade, ou resulta-se, noutra margem, sujeito à arbitrariedade de soluções utilitaristas, fundadas em preferências subjetivas, que serão satisfeitas pelo mercado. O assombro de Habermas é relacionado à constatação de que um progresso das ciências biológicas, associado ao desenvolvimento da tecnologia, permite tanto ampliar as possibilidades de ações humanas conhecidas, como possibilitar um novo tipo de intervenção sobre a própria geração da vida do outro - e, por consequência, da responsabilidade pelos danos daí decorrentes.
Quando, mais recentemente, há o conhecimento da recomendação do Parlamento Europeu, por meio de resolução normativa, no sentido de que sejam estabelecidas disposições de Direito Civil sobre Robótica - especialmente no campo da Responsabilidade Civil -, por ser "necessário criar uma definição geralmente aceite de robô e de Inteligência Artificial (AI) que seja flexível e não crie obstáculos à inovação"2, de certa forma, observa-se que, mais do que uma margem de decisão, encontra-se adotada uma tomada clara de posição, por parte da comunidade jurídica europeia - até então ainda resistente -, tendente ao estabelecimento de diretrizes gerais de cunho utilitarista no tema. É a posição resultante de uma praxis adotada de acordo com os princípios da racionalidade voltada para fins específicos, no que Habermas identifica uma perigosa transigência sobre o estabelecimento de formas políticas de vida.
Seguindo-se essa orientação de mercado, mesmo que a filosofia prática contemporânea tenha a preocupação de elucidar, do ponto de vista moral, os critérios adotados para analisar situações que possam enfrentar os temas (i) do igual interesse de cada um e (ii) do igualmente bom para todos em sociedade, vê-se não haver mais uma convicção paralela do porquê há o dever de ser moral a partir de uma ética universalista a priori. Numa redefinição do alcance do conceito de autonomia, a partida hermenêutica, seguindo a premissa utilitarista, deve ocorrer sob a consideração de uma realidade tecnológica de vida nova, aceita e compartilhada em sociedade, ainda que originada de preferências subjetivas satisfeitas pelo mercado. Não há freio jurídico desejado ao avanço tecnológico, mas apenas uma necessidade de regramento, voltado ao campo dos efeitos - como é próprio ao instituto da responsabilidade civil -, sobre a ampliação do ambiente em que reconhecidos os espaços de compartilhamento de liberdades (reais e virtuais) e os seres que os habitam (reais e virtuais).
Esta disciplina sobre os espaços disponíveis, como no exemplo da recomendação do Parlamento Europeu, inclusive, nem mais pressupõe uma universalidade que parta, por definição, da ideia de que vivemos em uma comunidade moral, definida como um agrupamento de indivíduos livres e iguais que se sentem obrigados a tratar uns aos outros como fins em si mesmos. E, aí sim, há o assombro.
Textualmente, entre as premissas consideradas para o estabelecimento de um novo consenso para o regramento da responsabilidade civil em tempos de robótica, encontram-se apenas os pressupostos de que (i) existe a possibilidade real de ultrapassagem da capacidade intelectual humana pelo desenvolvimento de uma racionalidade própria à robótica e de que (ii) urge a necessidade de estabelecimento de garantias à (re)inserção do controle humano nos processos decisórios automatizados e definidos por operações algorítmicas. Um exercício jurídico, portanto, que não está mais centrado no teste da universalização das causas originárias desta necessidade de controle - o que se daria pela tônica normativa voltada à determinação de ilicitudes -, mas que se traduz numa preocupação com o campo específico dos efeitos - e, portanto, voltado com maior ênfase a análise exclusiva dos danos. Em outras palavras, na defesa da ética de mercado e em nome do progresso tecnológico, não se deve proibir, mas apenas regrar o que fazer para enfrentar os prejuízos.
Tal realidade nem mesmo nas perspectivas mais sombrias de Hannah Arendt - de que "o governo que não é nem da lei, nem dos homens, mas dos escritórios ou computadores autônomos, cuja dominação inteiramente despersonalizada pode vir a se tornar uma ameaça maior à liberdade e àquele mínimo de civilidade sem o qual nenhuma vida comunitária é concebível"3 - seria imaginável como aceita de forma tão automática e natural, como uma simples consequência da evolução cultural e tecnológica da humanidade. O fato é que, quando se parte de uma ética utilitarista, em que toda a construção do juízo - em termos cognitivo, volitivo, normativo - se dá por uma ética de iguais interesses, o risco de ausência de uma reflexão moral de caráter amplo, mesmo que a posteriori, é sempre existente.
A construção de uma disciplina normativa para a responsabilidade civil em tempos de automação ou mesmo em momentos excepcionais que demandem o enfrentamento de questões de maior emergência numa era tecnológica - como a atualmente vivida em tempos de pandemia - exige, portanto, reflexões sérias que devem ir além das fronteiras da simples ponderação acerca de uma ética de mercado.
Primeiro, ter consciência de que há razões suficientes a exigir pré-compreensão que não esteja fundada num raciocínio estritamente pré-etico, como apontado por Singer no seu Ética Prática4. Ainda que exista escassez de meios e urgência no atendimento de demandas, o debate a ser enfrentado não pode ser resumido, exemplificativamente, à discussão rápida de a quem deva se entregar o respirador disponível seguindo-se o protocolo asséptico de realidades genéricas. Não se trata de um "ponto sem retorno", como alertaria Bauman5, em termos interpretativos. Ao contrário, é necessário retomar o teste da universalização para a questão particular e compreender em que medida se dá a construção de um juízo deontológico suficiente e com pretensão de correção para o atendimento da situação em análise, observadas (i) as condições fáticas e jurídicas que se apresentem para o caso e (ii) a conduta esperada e capaz de ser universalizada para situações assemelhadas em perspectiva futura.
Segundo, é preciso ter claro que o estabelecimento de princípios gerais a toda normatividade nova deva igualmente passar por um reexame das questões pertinentes aos direitos de personalidade em termos universais - pela capacidade de ser válido a todos os que se dispõem ao compartilhamento desses novos espaços de liberdade -, ainda que exigido um condicionamento prévio, embora cauteloso, à aceitação de ausência de freios aos avanços tecnológicos. Veja-se que a exigência de uma capacidade reflexiva, para a construção de juízos, em termos volitivos e normativos, conduz, justamente, à dupla dinâmica de enfoque em relação à dimensão de autonomia à pessoa - como individualidade e como intersubjetividade -, aproximando a discussão filosófica do campo de análise da liberdade em termos jurídicos.
Quando se fala em autonomia, se está, em verdade, discutindo questão mais ampla que a pressuposta num direito geral de liberdade à condição da pessoa. Habermas é quem estabelece uma distinção bastante clara: os conceitos se diferenciam pelo âmbito de sua abrangência. Enquanto a liberdade é sempre subjetiva, porque fundada nas peculiaridades do indivíduo - suas máximas de prudência, preferências ou motivos -, a autonomia é um conceito que pressupõe uma estrutura de intersubjetividade, determinado por máximas aprovadas pelo teste da universalização. Isso significa compreender que, para efeito de análise de qualquer problema posto dentro das bases de um discurso jurídico, ainda que se possa reconhecer a liberdade à pessoa em abstrato, é necessário que lhe seja possível visualizar também autonomia em potencial, porque autorizada a percepção como participante de uma comunidade moral. Participar dessa forma de linguagem não importa, portanto, em simples verificação de pressupostos de liberdade em sociedade, pelas escolhas que são desejadas ou idealizadas de forma ampla. É preciso que se reconheça a capacidade de correção na construção de juízos pela perspectiva do outro - justamente com quem se compartilha os espaços de liberdade no âmbito público.
Como ressalta Sandel, quando a ciência avança mais depressa do que a compreensão moral, homens e mulheres lutam para articular seu mal-estar. E este incômodo só existe porque há o sentimento de ameaça sempre presente quanto aos fins que o próprio ser humano, em sociedade, pretende ver alcançados no exercício de sua liberdade. Não é, necessariamente, uma inquietação decorrente do avanço tecnológico em si mesmo, mas do que é feito desse progresso em perspectiva futura. E, portanto, de como lidar com estruturas morais que são capazes de afetar tanto a natureza das coisas como o que é produto do mundo de cultura: "O desafio é identificar como essas práticas reduzem a nossa humanidade" e, por isso mesmo, ameaçam aspectos de liberdade e de "florescimento"6 do que se reconhece como humano na contemporaneidade. Um desafio e tanto em tempos de automação e pandemia.
*Maria Cláudia Cachapuz é magistrada. Professora universitária da UFRGS e Feevale/RS.
__________
1 HABERMAS, Jürgen. O futuro da natureza humana. São Paulo, Martins Fontes, 2004.
2 Resolução do parlamento Europeu, de 16 de fevereiro de 2017, que contém recomendações à Comissão sobre Disposições de Direito Civil sobre Robótica (2015/2013 -INL).
3 ARENDT, Hannah. Responsabilidade e julgamento. São Paulo, Companhia das Letras, 2004, p. 66.
4 SINGER, Peter. Ética práctica. Madrid, Akal, 2009, p. 26.
5 BAUMAN, Zygmunt. Vigilância líquida. Rio de Janeiro, Zahar, 2013, p. 106.
6 SANDEL, Michael J.. Contra a perfeição. Ética na era da engenharia genética. Rio de Janeiro, Civilização Brasileira, 2013, p. 35.
__________
Esta coluna é exclusivamente produzida pelos associados do IBERC (Instituto Brasileiro de Estudos de Responsabilidade Civil).