COLUNAS

  1. Home >
  2. Colunas

Migalhas de IA e Proteção de Dados

Oferecer uma visão 360º sobre a Lei Geral de Proteção de Dados.

Nelson Rosenvald, Cristina Godoy Bernardo de Oliveira, Evandro Eduardo Seron Ruiz, Cintia Rosa Pereira de Lima e Newton de Lucca
A ideia de inteligência artificial surgiu a partir do trabalho de Warren McCulloch e Walter Pitts, em 19431. Este trabalho foi estruturado em três premissas: conhecimento da fisiologia básica e função dos neurônios no cérebro; análise formal da lógica proposicional ("e", "ou", "não"); e a teoria da computação de Turing (que será descrita abaixo). O resultado foi a proposta de um modelo de neurônios artificiais capazes de responder a estímulos.2 A partir destes estudos, a expressão foi utilizada pela primeira vez por John McCarthy,3 considerado como o "pai" da Inteligência Artificial (IA ou Artificial Intelligence - AI). John McCarthy, professor assistente de matemática em Dartmouth College (Hanover, Nova Hampshire), juntamente com outros três pesquisadores: Marvin Minsky de Harvard, Nathan Rochester da IBM e Claude Shannon do Bell Telephone Laboratories, passaram a estudar as possibilidades da IA. McCarthy, um visionário à época, acreditava que um computador poderia simular muitos ou todas as funções cognitivas humanas avançadas, chegando a afirmar: "Every aspect of learning or any other feature of intelligence can be so precisely described that a machine can be made to simulate it."4 Assim como no mito de Pigmalião, no qual este personagem da mitologia grega cria uma estátua tão perfeita que se apaixona por ela e pede aos deuses que a tornem humana. Semelhantemente, McCarthy, tão entusiasmado com as possibilidades da aplicação da inteligência artificial, acabou passando a ideia de que estes sistemas podem parecer ter características humanas, como aprendizado, adaptação e até mesmo "personalidade". Há quem defenda que estes entes, por ficção jurídica, teriam personalidade como as pessoas jurídicas, e assim como estas teriam um representante legal.5 Todavia tal alegação não pode prosperar,6 na medida em que se deve questionar a conveniência e possibilidade de se atribuir à inteligência artificial personalidade jurídica. Para tanto tais funcionalidades devem demonstrar a capacidade de sentir e raciocinar como seres humanos singulares e não meramente "imitando seres humanos". Todavia, diante do atual desenvolvimento tecnológico não se pode chegar à tal conclusão, razão pela qual não seria possível atribuir personalidade jurídica às funcionalidades de IA.7 No âmbito da União Europeia, o Parlamento Europeu editou a Recomendação 2015/2103 (INL), de 16 de fevereiro de 20178, com recomendações à Comissão de Direito Civil sobre Robótica. Quanto à responsabilidade civil, o documento sugere a aplicação das modalidades de responsabilidade objetiva ou de gestão de riscos (art. 53),9 o que foi levado em consideração pelo Regulamento Europeu sobre Inteligência Artificial, conhecido como AI Act, objeto de análise em diversos textos desta coluna. A resolução recomenda, ainda, que a solução a ser adotada não minimize os danos causados pelo fato de não terem sido provocados por um agente humano, máxime sob a perspectiva da pessoa lesada (art. 52). Segundo o entendimento da Comissão, atualmente a responsabilidade deve ser imputada a um ser humano, não a um robô, aniquilando qualquer intenção de se atribuir ao robô personalidade jurídica para fins de responsabilidade civil. Todavia, em sendo o regime atual insuficiente para solucionar alguma controvérsia futura envolvendo o surgimento de uma IA mais complexa e autônoma, o regime de responsabilidade civil objetiva ou de gestão de riscos deverá considerar proporcionalmente o nível de autonomia da máquina e o tempo de aprendizado que lhe for proporcionado, ressalvado o machine learning (art. 56). O regime de responsabilidade objetiva ali proposto pode ser suportado pelo usuário/consumidor ou pelo produtor/fornecedor. No primeiro caso, imputa-se a responsabilidade pelo comportamento da IA à pessoa jurídica em nome de quem ela age, aplicando-se a ideia de IA como ferramenta, em um regime de responsabilidade similar a dos pais por danos causados por seus filhos, ou donos de animais, relativamente aos danos causados por estes. No segundo caso, o produtor ou fornecedor pode ser responsabilizado pelo fato do produto, ou seja, quando não adotar os cuidados necessários ou legalmente exigidos de segurança e de informação ao consumidor sobre os riscos da IA.10 No caso da abordagem pela gestão de riscos, a responsabilidade por danos provocados pela IA se justifica pelo ônus de prova extremamente gravoso que poderá recair ao consumidor em algumas hipóteses de responsabilidade pelo fato do produto, especialmente devido à autoaprendizagem da máquina.11 Daí a importância de se prever a inversão do ônus da prova como o faz o Projeto de Lei brasileiro n. 2.338 (§2º do art. 27 do PL n. 2.338). Por outro lado, a responsabilidade por gestão de riscos também pode ser fundamentada na teoria do deep-pocket, importada do direito estadunidense, segundo a qual o beneficiário possui o dever de compensar os danos causados por sua atividade lucrativa que gera riscos à sociedade. Neste sentido, o atual parágrafo único do art. 927 do Código Civil brasileiro, bem como o Código de Defesa do Consumidor parecem estar alinhados a tal concepção. O Projeto de Lei 2.338 de 202312 traz uma classificação de risco arts. 14 a 16 (sobre o risco excessivo) e arts. 17 e 18 (sobre alto risco), para determinar a responsabilização objetiva na primeira hipótese (§ 1º do art. 27) e responsabilização subjetiva com culpa presumida (§ 2º do art. 27), com previsão de inversão do ônus da prova. Deve-se atentar, é verdade, para o justificável chilling effect ("efeito de medo") provocado por tentativas de lege ferenda de responsabilização civil de agentes e empresas que trabalham na linha de desenvolvimento e produção de IA, independentemente de culpa. No entanto, o melhor caminho a ser seguido no plano legislativo brasileiro consiste na aplicação de uma tipologia múltipla e setorial de responsabilidade civil por danos causados por IA. Em outras palavras, deve-se considerar o tipo mais apropriado para cada IA em concreto. Do mesmo modo, o interesse de todos os atores no desenvolvimento tecnológico e otimização do bem-estar que pode ser promovido pelo avanço da IA exige uma solução equilibrada de repartição dos riscos entre desenvolvedores, fornecedores e consumidores desses mecanismos inteligentes, o que torna bastante pertinentes as iniciativas como a exigência de seguros e de certificação por parte dos usuários para manejo de alguns tipos mais complexos e sujeitos a riscos de IA. Em suma, toda e qualquer "idealização" da IA seja no sentido de que são ferramentas perfeitas e, portanto, não causarão risco algum; seja no sentido contrário, que pelo desconhecido a responsabilização tem que ser a mais gravosa possível, não são adequadas e vão na contramão do necessário desenvolvimento sustentável das tecnologias para a melhoria da qualidade de vida humana. Inteligência artificial não é perfeita e nem pretende sê-lo; assim como os seres humanos não são perfeitos como na reflexão feita por Ray Kurzweil:13 The idea stems from the realization that as software systems become more complex, like humans, they will never be perfect, and that eliminating all bugs is impossible. As humans, we use the same strategy: we don't expect to be perfect, but we usually try to recover from inevitable mistakes. __________ 1 McCULLOCH, Warren; PITTS, Walter. A Logical Calculus of Ideas Immanent in Nervous Activity. In: Bulletin of Mathematical Biophysics, vol. 5, no. 4 (1943), pp. 115-133. 2 RUSSELL, Stuart J.; NORVIG, Peter. Artificial Intelligence: A Modern Approach. 3. ed. New Jersey: Prentice-Hall, 2010. pp. 17. 3 McCARTHY, John; MINSKY, M. L.; ROCHESTER, N.; SHANNON, C. E. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. In: Stanford Edu, 1955. Disponível aqui, acessado em 20 de dezembro de 2019. 4 McCARTHY, John; MINSKY, M. L.; ROCHESTER, N.; SHANNON, C. E. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. In: AI Magazine, vol. 27, número 4 (2006), pp. 12 - 15. p. 12. Disponível aqui, acessado em 20 de dezembro de 2019. 5 SOLUM, Lawrence B. Legal Personhood for Artificial Intelligences. In: North Carolina Law Review, vol. 70, n. 4, 1992, pp. 1.231 - 1.287. Disponível aqui, acessado em 17 de junho de 2024; KERR, Ian. Spirits in the material world: intelligent agents as intermediaries in electronic commerce. In: Dalhousie Law Journal, vol. 22, 1999, pp. 189 - 249. Disponível aqui, acessado em 17 de junho de 2024. 6 Em sentido contrário à personalidade jurídica dos sistemas de inteligência artificial: RUSSEL, Stuart; NORVIG, Peter. Op. cit., p. 1.036: "To our knowledge, no program has been granted legal status as an individual for the purposes of financial transactions; at present, it seems unreasonable to do so. Programs are also not considered to be "drivers" for the purposes of enforcing traffic regulations on real highways. In California law, at least, there do not seem to be any legal sanctions to prevent an automated vehicle from exceeding the speed limits, although the designer of the vehicle's control mechanism would be liable in the case of an accident." 7 LIMA, Cíntia Rosa Pereira de; OLIVEIRA, Cristina Godoy Bernardo de; RUIZ, Evandro Eduardo Seron. Inteligência Artificial e Personalidade Jurídica: Aspectos Controvertidos. In: BARBOSA, Mafalda Miranda [et alli] Direito Digital e Inteligência Artificial: diálogos entre Brasil e Europa. Indaiatuba: Foco, 2020. 8 UNIÃO EUROPEIA. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com recomendações à Comissão de Direito Civil sobre Robótica. Disponível aqui, acessado em 27 de junho de 2024. 9 53.  Considera que o futuro instrumento legislativo deverá basear-se numa avaliação aprofundada da Comissão que determine se a abordagem a aplicar deve ser a da responsabilidade objetiva ou a da gestão de riscos; 10 PAGALLO, Ugo. The laws of robots: crimes, contracts, and torts. Heidelberg: Springer, 2013. p. 33. 11 CERKA, Paulius; GRIGIENE, Jurgita; SIRBIKYTE, Gintare. Liability for damages caused by Artificial Intelligence. Computer Law & Security Review, Elsevier, v. 31, n. 3, p. 376-389, jun. 2015. p. 386. 12 BRASIL. Senado Federal. Projeto de Lei n. 2.338 de 2023. Disponível em: , acessado em 27 de junho de 2024. 13 The Singularity Is Near: When Humans Transcend Biology. Nova York: Viking (Penguin Group), 2005. p. 191: "A ideia deriva da percepção de que, à medida que os sistemas de software se tornam mais complexos, como os humanos, eles nunca serão perfeitos e que é impossível eliminar todos os erros. Como seres humanos, usamos a mesma estratégia: não esperamos ser perfeitos, mas geralmente tentamos nos recuperar de erros inevitáveis." (tradução livre)
sexta-feira, 21 de junho de 2024

Dados pessoais e IA: problemas e soluções

A utilização de sistemas de inteligência artificial coloca especiais problemas em relação aos dados pessoais. Sendo os dados, em geral, e os dados pessoais, em particular, a matéria-prima que alimenta o software inteligente, garantindo a sua aprendizagem, não se podem ignorar os riscos que, neste horizonte, emergem. Entre tais riscos, e no tocante à ligação entre a IA e a utilização de dados pessoais, conta-se o risco de invasão à privacidade, pelo potencial intrusivo que o processamento de certos dados comporta, permitindo, em alguns casos, a sequenciação dos movimentos do titular daqueles ao longo de toda a sua vida; o risco de violação da igualdade, pelo perigo de discriminação que pode resultar da análise dos dados pessoais, tendo em conta as correlações estatísticas operadas pelos sistemas de inteligência artificial que, incapazes de aceder à dimensão semântica dos signos que mobilizam, podem gerar enviesamentos, e tendo em conta os próprios enviesamentos induzidos ao algoritmo; o risco de perturbação da liberdade, pelo fomento de fenômenos como o boxing, que tem expressão em termos comerciais e em termos políticos e ideológicos, abrindo-se as portas a formas de manipulação informativa, agravada pelas hipóteses de difusão de falsidades geradas pelos algoritmos generativos; o risco de perturbação da integridade psíquica do sujeito, como consequência de uma eventual manipulação emocional, resultante da criação de um espaço de interação pretensamente subjetiva que encerra o sujeito sobre si mesmo; o risco de violação da honra e do direito à identidade e verdade pessoal, pela produção de fake news e deep fake news a partir dos dados pessoais que são computados. A tudo isto acresce o potencial de distorção dos próprios resultados a que os sistemas, em geral, podem chegar, se e quando alimentados por dados de segunda geração (isto é, dados gerados por sistemas autónomos) corrompidos. Na verdade, tendo os algoritmos potencial para gerar novos dados a partir dos que foram inicialmente transmitidos, coloca-se o problema de saber se o fundamento que licitude do tratamento que deles seja feito é suficiente ou não para abarcar esta segunda geração de dados. Por outro lado, o modo de funcionamento da máquina, baseado no estabelecimento de correlações estatísticas - que estão muito longe de representar relações de causalidade -, pode estar na base de corrupção de dados que, posterior e sequencialmente, poderão ser utilizados como matéria prima para a aprendizagem algorítmica. Quer isto dizer que, para além do potencial de discriminação que os algoritmos encerram, eles exponenciam a possibilidade de se chegar a soluções erradas, eventualmente lesivas de direitos alheios, agravando-se, assim, um problema atinente aos vieses de programação que possam já existir. Acresce a tudo isto que nem sempre é fácil, atenta a autonomia e a opacidade dos sistemas, perceber quais os conjuntos de dados efetivamente utilizados na aprendizagem algorítmica. Num outro plano, as dificuldades comunicam-se à eventual concretização de uma pretensão indemnizatória. Na verdade, ainda que no tocante aos dados pessoais se parta, nos termos do artigo 82º RGPD, de uma presunção de culpa, esta poder ser facilmente ilidida pela prova do cumprimento de todas as regras decorrentes do regulamento. Lidando com sistemas autónomos, as lesões podem ser causadas pela corrupção de dados provocada pelo funcionamento algorítmico. E, nessa medida, as lesões deixam de poder ser imputadas ao controller, mesmo tendo em conta que ele pode responder pelos atos do processor, exceto se convocarmos, para fundamentar a responsabilidade, um regime diverso daquele que assenta no RGPD ou na disciplina privatística do Código Civil. É este um dos principais problemas da existência de dados de segunda geração que podem ou não ser dados pessoais, atenta a possível anonimização que deles venha a ser feita, a suscitar problemas atinentes não só à culpa como à causalidade. Mas o problema pode também ser causado com base nos dados de primeira geração: ou porque com base neles se podem criar deep fake news, ou porque podem conduzir a hipóteses de discriminação, ou porque podem gerar situações de manipulação (ideológica ou emocional), suscitando-se o problema de saber a quem pode ser imputada a lesão. Dir-se-ia, quanto à relação entre os dados pessoais usados ou gerados pela inteligência artificial e a responsabilidade civil, que as dificuldades são de dois tipos: em primeiro lugar, os dados que permitem o funcionamento da inteligência artificial podem sofrer uma corrupção, podendo não ser viável descobrir-se a sua origem ou não sendo o utilizador, distribuidor ou fabricante responsável por eles; em segundo lugar, os dados gerados pelo sistema autónomo, podendo eles próprios não ser fiáveis, podem resultar dos processos automáticos de autoaprendizagem. Os problemas em torno da proteção de dados pessoais parecem, contudo, agravar-se quando lidamos com algoritmos generativos, capazes de, por si próprios, a partir da análise de biliões de dados, gerar textos, obras de arte, responder a questionários, compreender e reproduzir imagens, gerar códigos de programação, etc. Em primeiro lugar, questionam os autores acerca da qualidade e atualização dos dados que são utilizados para os treinar, no âmbito de uma aprendizagem supervisionada. Na verdade, baseando-se a sua aprendizagem no deep learning, são utilizadas para os treinar técnicas de aprendizagem supervisionada e por reforço1, o que determina que os resultados possam ser mais fidedignos, mas, ao mesmo tempo, que os dados inseridos têm de ser constantemente atualizados. Por outro lado, servindo os dados utilizados para treinar o algoritmo para gerar respostas no que respeita aos mais diversos domínios e destinando-se o algoritmo generativo a ser integrado noutros sistemas de inteligência artificial (isto é, tratando-se de um sistema de inteligência artificial de finalidade geral), somos necessariamente confrontados com um problema de não pequena monta: qual a base jurídica que justifica a recolha em massa dos dados que são utilizados? Nos termos do artigo 6º RGPD, a licitude do tratamento fica dependente da existência do consentimento do seu titular ou, em alternativa, da verificação de uma das situações nele previstas: se o tratamento for necessário para a execução de um contrato no qual o titular dos dados é parte, ou para diligências pré-contratuais a pedido do titular dos dados; se o tratamento for necessário para o cumprimento de uma obrigação jurídica a que o responsável pelo tratamento esteja sujeito; se o tratamento for necessário para a defesa de interesses vitais do titular dos dados ou de outra pessoa singular; se o tratamento for necessário ao exercício de funções de interesse público ou ao exercício da autoridade pública de que está investido o responsável pelo tratamento; se o tratamento for necessário para efeito dos interesses legítimos prosseguidos pelo responsável pelo tratamento ou por terceiros, exceto se prevalecerem os interesses ou direitos e liberdades fundamentais do titular que exijam a proteção dos dados pessoais, em especial se o titular for uma criança. Por seu turno, tratando-se de categorias especiais de dados (dados que revelem a origem racial ou étnica, as opiniões políticas, as convicções religiosas ou filosóficas, a filiação sindical, dados genéticos, dados biométricos que identifiquem uma pessoa de forma inequívoca, dados relativos à saúde, dados relativos à vida sexual ou orientação sexual), as condições de licitude do tratamento tornam-se mais rigorosas. Ainda que o titular dos dados autorize, nos termos da relação firmada com a OpenIA para utilização do ChatGPT, o tratamento de dados, devendo o consentimento ser específico (isto é, orientado para as finalidades a que o responsável se propõe, nos termos dos artigos 12º e seguintes RGPD), sob pena de invalidade, e devendo o referido tratamento respeitar o princípio da limitação de finalidades, tornam-se percetíveis as dificuldades. Dito de outro modo, o consentimento deve ser prestado para um específico tratamento ao qual preside uma específica finalidade, o que está de acordo com o princípio da limitação das finalidades, nos termos do qual os dados pessoais são recolhidos para finalidades determinadas, explícitas e legítimas, não podendo ser tratados posteriormente de uma forma incompatível com as mesmas. Este princípio da limitação das finalidades é, contudo, mais amplo, não derramando a sua eficácia apenas no que toca à especificidade do consentimento. Na verdade, o referido princípio determina uma ligação incindível entre o fundamento que se invoca para o tratamento de dados e as concretas atividades que posteriormente podem ser legitimadas. Nos termos do artigo 13º/1 c) e do artigo 14º/1 c) RGPD, o responsável pelo tratamento de dados deve informar o titular dos dados acerca do fundamento desse tratamento, antes de ele iniciar e relativamente a uma finalidade específica. Admitem-se, é certo, tratamentos de dados posteriores, que não sejam considerados incompatíveis com as finalidades iniciais. Assim, os fins de arquivo de interesse público, os fins de investigação científica ou histórica e os fins estatísticos estão salvaguardados. A questão que se coloca é a de saber se o tratamento de dados posterior que seja feito, por exemplo, pela OpenIA ou por terceiros a quem sejam divulgados os dados - sejam estes dados originários ou dados gerados pelo algoritmo - é ou não compatível com este princípio. Além disso, os dados recolhidos devem ser adequados, pertinentes e limitados ao que é necessário relativamente às finalidades para as quais são tratados (princípio da minimização de dados). Assim, qualquer que seja o fundamento invocado, ele não legitima o tratamento de dados para além do que se revele essencial às finalidades invocadas. Há que estabelecer-se, portanto, um juízo ponderativo de exigibilidade no que respeita às diversas categorias de dados recolhidos. O problema com que lidamos, ao confrontarmo-nos com algoritmos generativos, é, porém, o de saber se este princípio pode ser cumprido atenta a falta de limitação de finalidades. Em causa pode estar, também, o princípio da exatidão. Os dados pessoais devem ser exatos e atualizados sempre que necessário, devendo-se adotar todas as medidas adequadas para que, em caso de inexatidão, sejam apagados ou retificados sem demora. Na verdade, nos termos do artigo 16º RGPD, o titular dos dados tem direito a obter, sem demora injustificada, do responsável pelo tratamento a retificação dos dados pessoais que lhe digam respeito e que sejam inexatos, ou que sejam completados os dados incompletos. O certo é que, por força da incapacidade de aceder a uma dimensão semântica, um sistema como o ChatGPT produz inúmeras vezes conteúdos que, podendo contender com dados pessoais, não são exatos. E ainda que haja direito a uma retificação, sendo esses dados transmitidos a terceiros que podem ser desconhecidos, coloca-se a questão de saber como pode ser operacionalizado o direito à retificação por parte do titular dos dados. Igualmente problemático pode ser o princípio da integridade e confidencialidade. Ausente do elenco de condições a que devem obedecer os dados pessoais de acordo com a lei 67/98, é explicitamente introduzido pelo RGPD, comunicando-nos que os referidos dados devem der tratados de uma forma que garanta a sua segurança, incluindo a proteção contra o seu tratamento não autorizado ou ilícito e contra a sua perda, destruição ou danificação acidental, adotando as medidas técnicas ou organizativas adequadas. Ora, há a possibilidade de os dados tratados por um sistema como o ChatGPT virem a ser expostos ou perdidos, faltando em muitos casos a transparência necessária para se compreender o processo. Parece, portanto, que os algoritmos generativos colocam, do ponto de vista normativo, muitas dificuldades no que respeita à compatibilização com a intencionalidade do RGPD. Além disso, se tivermos em conta que os princípios e deveres impostos pelo RGPD visam salvaguardar os titulares dos dados pessoais, mantendo-os incólumes nos direitos que, numa relação de interioridade constitutiva, subjazem ao direito à proteção de dados pessoais, haveremos de ter em conta que estes algoritmos generativos, como quaisquer outros, mas de forma incrementada, potenciam os riscos a que aludimos ab initio. Torna-se, por isso, fundamental ter em conta o Regulamento do Parlamento Europeu e do Conselho relativo à IA. A disciplina estabelecida pelo Regulamento estrutura-se em função de diversos níveis de risco, resultado da combinação da probabilidade de ocorrência de danos com a gravidade desses danos. Desde logo, há determinados sistemas que são considerados de risco inaceitável, sendo absolutamente proibidos. Por seu turno, os sistemas de IA de risco elevado são os sistemas destinados a ser usados como um componente de um produto ou os sistemas que sejam produtos e que estejam previstos no anexo I; os produtos cujo componente de segurança seja um sistema de IA ou os sistemas que sejam sujeitos a uma avaliação de conformidade por terceiros com vista à sua colocação em serviço, nos termos dos atos enumerados no anexo I; os sistemas constantes do anexo III, desde que cumpram as especificações previstas no regulamento. Este elenco não é fixo, podendo ser alargado ou diminuído, segundo os critérios do artigo 7º. Assim, um sistema de IA a que se refere o Anexo III não pode ser considerado de risco elevado se não representar um risco significativo de danos para a saúde, a segurança ou os direitos fundamentais das pessoas singulares, nomeadamente se não influenciarem de forma significativa o resultado da tomada de decisões. Mas, os sistemas de IA a que se refere o anexo III devem ser sempre considerados de risco elevado nos casos em que executarem a definição de perfis de pessoas singulares. Prevê-se, ainda, que a qualquer momento a comissão possa atualizar a listagem do anexo III. Para tanto, é necessário que se preencham determinados requisitos: os sistemas de IA destinem-se a ser utilizados em qualquer um dos domínios enumerados no anexo III; e os sistemas de IA representem um risco de danos para a saúde e a segurança ou de repercussões negativas nos direitos fundamentais, e esse risco seja equivalente ou superior ao risco de danos ou repercussões negativas representado pelos sistemas de IA de risco elevado já referidos no anexo III, estabelecendo-se diversos critérios para o efeito. Para além do risco elevado, prevê-se a existência de sistemas de risco moderado e limitado. São, ademais, tratados de forma específica os sistemas de inteligência artificial de finalidade geral, isto é, aqueles que têm capacidade para servir para diversas finalidades, tanto para utilização direta, como para integração noutros sistemas de IA. Quanto a estes há que estabelecer uma linha divisória entre os que importam risco sistémico e os que não envolvem. Os primeiros são os que apresentam capacidades de alto impacto, avaliadas com base em ferramentas e metodologias técnicas apropriadas, incluindo indicadores e referências, ou que, com base em uma decisão da Comissão, ex officio ou após um alerta qualificado pelo painel científico, sejam vistos como modelos de IA que tenham capacidades ou impacto equivalentes àqueles. Esta linha divisória será fundamental para se determinarem os deveres que vinculam os prestadores destes modelos. Aos sistemas de risco elevado está associado um conjunto mais exigente de deveres: deveres de conceção e de desenvolvimento, assumindo particular importância, para o tema que tratamos, a obrigação resultante do artigo 10º, passando a exigir-se que os dados que sirvam para treino e aprendizagem da máquina cumpram diversos critérios de qualidade ali previstos; e deveres dos prestadores de serviços (os prestadores de sistemas de IA de risco elevado devem assegurar que os seus sistemas de IA de risco elevado cumpram os requisitos previstos no regulamento; indicar no sistema de IA de risco elevado ou, se tal não for possível, na embalagem ou na documentação que o acompanha, consoante o caso, o seu nome, o nome comercial registado ou a marca registada e o endereço no qual podem ser contactados; dispor de um sistema de gestão da qualidade que cumpra o disposto no artigo 17º; conservar a documentação nos termos do artigo 18º; quando tal esteja sob o seu controlo, manter os registos gerados automaticamente pelos sistemas de IA de risco elevado que disponibilizam, conforme previsto no artigo 19º; assegurar que o sistema de IA de risco elevado seja sujeito ao procedimento de avaliação da conformidade aplicável, tal como previsto no artigo 43º, antes da colocação no mercado ou da colocação em serviço; elaborar uma declaração UE de conformidade, nos termos do artigo 47º; apor a marcação CE no sistema de IA de risco elevado ou, se tal não for possível, na embalagem ou na documentação que o acompanha, para indicar a conformidade com o regulamento; respeitar as obrigações de registo a que se refere o artigo 49º; adotar as medidas corretivas necessárias e prestar as informações, tal como estabelecido no artigo 20º; mediante pedido fundamentado de uma autoridade nacional competente, demonstrar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos pelo regulamento); deveres dos responsáveis pela implantação (dever de adotar medidas técnicas e organizativas adequadas para garantir que utilizam esses sistemas de acordo com as instruções de utilização que os acompanham; dever de atribuir a supervisão humana a pessoas singulares que possuam as competências, a formação e a autoridade necessárias, bem como o apoio necessário; nas hipóteses em que exerça controlo sobre os dados de entrada, dever de assegurar que os dados de entrada sejam pertinentes e suficientemente representativos tendo em vista a finalidade prevista do sistema de IA de risco elevado; dever de controlar o funcionamento do sistema de IA de risco elevado com base nas instruções de utilização; dever de manter os registos gerados automaticamente pelo sistema de IA de risco elevado, desde que esses registos estejam sob o seu controlo, por um período adequado à finalidade prevista do sistema de IA de risco elevado; dever de realizar uma avaliação de impacto sobre a proteção de dados; tratando-se de sistemas de risco elevado previstos no anexo III, que tomam decisões ou ajudam a tomar decisões relacionadas com pessoas singulares, dever de informar as pessoas singulares de que estão sujeitas à utilização do sistema de IA; dever de cooperar com as autoridades competentes em todas as medidas que essas autoridades tomarem em relação a um sistema de IA de risco elevado). Estabelecem-se, igualmente, especiais deveres de transparência relativamente a certos sistemas, nos termos do artigo 50º, bem como para os sistemas de finalidade geral, deveres esses que, neste último caso, divergirão consoante o sistema apresente risco sistémico ou não. Fundamental será, portanto, articular de forma compatibilizadora as regras resultantes do Regulamento IA com o regime instituído pelo RGPD. Os desafios, contudo, são muitos. E mais serão se pensarmos que uma eventual tutela ressarcitória não está ainda, sempre que se lide com a IA, totalmente assegurada, atentas as dificuldades que a esse nível se enfrentam. 1 Pedro Nunes, Um sistema de inteligência artificial nas bocas do mundo, Observatório Almedina, 2023.
A judicialização da saúde pública é um fenômeno cada vez mais presente em diversos países, incluindo o Brasil, caracterizado pelo aumento de demandas judiciais como meio para garantir o acesso a tratamentos médicos e medicamentos. Essa tendência reflete desafios significativos para o sistema de saúde, desde a alocação de recursos até a equidade no acesso aos serviços de saúde. No entanto, diante desses desafios, emergem oportunidades para explorar novas ferramentas e metodologias que possam contribuir para uma gestão mais eficiente e justa do sistema de saúde. Uma dessas ferramentas é a jurimetria, uma abordagem que emprega métodos estatísticos e analíticos para examinar dados legais e judiciais. Este resumo expandido visa explorar como a jurimetria pode ser aplicada para compreender melhor a judicialização da saúde e contribuir para soluções proativas. Analisaremos como essa metodologia pode ajudar na previsão de tendências, otimização de recursos e formulação de políticas públicas mais eficazes. Através da análise de dados e padrões em litígios de saúde, procuraremos identificar os principais desafios e oportunidades para melhorar a resposta do sistema de saúde às necessidades dos cidadãos, promovendo um acesso mais equitativo e sustentável à saúde pública. A jurimetria é uma abordagem que aplica métodos quantitativos e estatísticos ao direito, visando a análise de leis, decisões judiciais e padrões de comportamento legal. Essa prática é especialmente pertinente à tomada de decisões baseada em dados, uma vez que oferece uma base empírica sólida para entender tendências, prever resultados e otimizar estratégias jurídicas. Sua origem remonta ao artigo seminal de Lee Loevinger1, que a definia como a investigação científica de problemas jurídicos, e sempre foi analisada do ponto de vista conceitual, gerando distinção, originalmente, com a ideia de "cibernética jurídica"2 (ou justibernética) - mais ampla e, tecnicamente, mais apropriada para tais estudos -, a partir dos escritos de Mario G. Losano. Uma das vantagens da jurimetria é propiciar maior previsibilidade de decisões judiciais, pois permite analisar grandes volumes de decisões judiciais para identificar padrões e tendências. Isso pode ajudar advogados e clientes a preverem os resultados possíveis de seus casos com base em dados históricos, aumentando a precisão nas expectativas e estratégias. Além disso, contribui fortemente na análise de riscos, uma vez que, ao quantificar os riscos associados a diferentes estratégias legais, a jurimetria fornece uma ferramenta valiosa para gestores e advogados. Essa capacidade de quantificar riscos ajuda na tomada de decisões mais informadas e na escolha de abordagens que maximizem as chances de sucesso. Não se pode deixar de mencionar, também, seu valor para a otimização de recursos: com o uso de dados jurimétricos, é possível alocar recursos de forma mais eficiente3. Por exemplo, identificar quais tipos de casos têm maior probabilidade de serem resolvidos por acordo pode economizar tempo e recursos que seriam gastos em litígios prolongados. Na seara pública, o desenvolvimento de políticas públicas permite que governos e órgãos reguladores usem a jurimetria para entender o impacto das leis existentes e prever as consequências de novas legislações. Isso permite uma formulação de políticas mais fundamentada e eficaz. Por conseguinte, tem-se o fomento à inovação pela análise de dados jurídicos. Por exemplo, a criação de ferramentas automatizadas de compliance que ajudam sociedades empresárias a permanecerem em conformidade com as regulamentações vigentes. Na mesma toada, o incremento da transparência e da justiça pela utilização de dados estatísticos no direito também pode contribuir para uma maior transparência e justiça. Ao revelar tendências ocultas, como potenciais vieses em decisões judiciais, a jurimetria pode apoiar esforços para tornar o sistema jurídico mais equilibrado. Isso ainda conduz à personalização de serviços jurídicos, posto que, com o auxílio de análises detalhadas, é possível oferecer serviços mais personalizados e alinhados às necessidades específicas de cada cliente, baseando-se em insights derivados de dados4. A judicialização da saúde pública tem sido um tema recorrente no debate sobre a eficácia e a equidade dos sistemas de saúde. Este fenômeno, que se caracteriza pelo crescente recurso ao sistema judicial por cidadãos que buscam garantir o acesso a tratamentos e medicamentos frequentemente não disponíveis através dos canais regulares de saúde, apresenta diversos desafios. No entanto, a jurimetria, com sua capacidade de aplicar análises estatísticas ao direito, oferece oportunidades significativas para compreender e gerenciar melhor esta tendência5. Primeiramente, é importante entender que a judicialização pode refletir falhas sistêmicas na saúde pública, como a inadequação de políticas ou a insuficiência de recursos. A jurimetria permite uma análise detalhada dessas questões ao quantificar a frequência, os tipos e os resultados das ações judiciais relacionadas à saúde. Com esses dados, é possível identificar padrões e lacunas nas políticas de saúde, orientando reformas mais efetivas e baseadas em evidências. Por exemplo, se uma análise jurimétrica revela um alto número de litígios sobre um determinado medicamento ou tratamento, isso pode indicar a necessidade de revisão nos protocolos de disponibilidade e distribuição desses recursos. A análise dos sites do TRF2 e do CNJ sobre a judicialização da saúde revela dados e iniciativas relevantes que complementam a discussão sobre a utilização da jurimetria nesse contexto. O CNJ, por exemplo, aponta que entre 2015 e 2020, mais de 2,5 milhões de processos relacionados à saúde foram registrados, com destaque para questões como desabastecimento de medicamentos e falta de especialistas6. Esses dados, monitorados por painéis interativos disponibilizados pelo CNJ7, não apenas quantificam o problema, mas também fornecem insights para políticas judiciais e de saúde pública mais eficazes8. No Estado de Minas Gerais, a Secretaria de Saúde disponibiliza informações sobre a judicialização, destacando a colaboração entre o judiciário e a gestão de saúde para abordar essas questões proativamente, embora detalhes específicos sobre jurimetria não tenham sido encontrados durante a pesquisa9. Estas informações ressaltam a importância da jurimetria como ferramenta para analisar, prever e responder a tendências na judicialização da saúde, promovendo uma gestão mais informada e eficiente no acesso à saúde pública. Além disso, a jurimetria pode contribuir para uma alocação de recursos mais racional e justa. Ao identificar quais demandas são mais frequentemente submetidas ao judiciário, os gestores de saúde podem priorizar essas áreas, otimizando o uso de recursos limitados e reduzindo a necessidade de litígios. Isso não apenas melhora a eficiência do sistema de saúde como também garante uma resposta mais equitativa às necessidades dos pacientes. Outra oportunidade que a jurimetria oferece é a capacidade de prever tendências futuras na judicialização da saúde. Com modelos preditivos, é possível antecipar quais questões podem se tornar focos de litígio, permitindo aos formuladores de políticas e administradores de saúde intervir proativamente10. Isso pode incluir o aprimoramento de programas de saúde ou a alteração de regulamentações para abordar essas questões antes que elas se transformem em problemas judiciais. Ademais, a jurimetria ajuda a promover uma maior transparência e responsabilidade no sistema de saúde. Ao tornar públicas as estatísticas sobre a judicialização, os stakeholders são incentivados a dialogar e colaborar na busca por soluções. Isso pode fortalecer a confiança no sistema de saúde, promovendo uma maior cooperação entre os setores público e privado e entre os próprios usuários do sistema. Por fim, a jurimetria pode servir como uma ferramenta para a avaliação contínua da eficácia das políticas de saúde. Ao monitorar como as intervenções legais e políticas impactam a judicialização ao longo do tempo, pode-se ajustar as estratégias para melhor atender à população, garantindo um sistema de saúde mais resiliente e adaptativo. Portanto, embora a judicialização da saúde pública apresente desafios, a jurimetria oferece uma série de oportunidades para transformar este cenário. Ao utilizar dados e estatísticas para fundamentar decisões, é possível não apenas gerir mais eficientemente os recursos, mas também promover um sistema de saúde mais justo e acessível. À luz do que foi discutido, fica evidente que a jurimetria apresenta um potencial significativo para transformar a maneira como o fenômeno da judicialização da saúde é abordado e gerenciado. Ao empregar análises estatísticas e metodologias quantitativas, essa ferramenta não apenas proporciona uma visão mais profunda das tendências e padrões em litígios de saúde, mas também oferece um meio para antecipar desafios e otimizar a alocação de recursos dentro do sistema de saúde. A aplicação da jurimetria na saúde pública pode levar a uma gestão mais informada e estratégica, reduzindo a necessidade de intervenção judicial e melhorando o acesso a tratamentos essenciais. Além disso, ao identificar as causas raízes e os pontos críticos da judicialização, políticas públicas podem ser adaptadas para tratar essas questões de forma proativa, resultando em um sistema de saúde mais equitativo e eficiente. Portanto, enquanto a judicialização da saúde continua a ser um desafio, a jurimetria oferece uma abordagem promissora para enfrentar essa questão complexa. É crucial que gestores de saúde, formuladores de políticas e profissionais jurídicos explorem e integrem essa ferramenta em suas práticas, visando um futuro no qual o acesso à saúde seja garantido de maneira mais justa e eficaz para todos. __________ 1 LOEVINGER, Lee. Jurimetrics: The Next Step Forward. Minnesota Law Review, Minneapolis, v. 33, n. 5, p. 455-493, abr. 1949. 2 A crítica é de Losano: "È forse opportune, a questo punto, riservare la denominazione di giurimetria ad una fase storicamente ben delimitada della ricerca giuridica e tentare invece una classificazione che tenga conto delle esperienze compiute negli ultimi anni (...). Per l'intera disciplina propongo il nome 'giucibernetica'. Il modelo è evidente: 'giusnaturalismo', 'giuspositivismo' (e gli aggettivi 'giuspubblicistico', 'giusprivatistico' e 'giusfilosofico'). (...) I due termini sono quindi parimenti discutibili dal punto di vista del purismo filologico, ma almeno 'giuscibernetica' copre per intero il vasto campo di ricerche oggi in corso". LOSANO, Mario G. Giuscibernetica: macchine e modelli cibernetici nel Diritto.Turim: Eunaudi, 1969. p. 106-107. 3 NUNES, Marcelo Guedes. Jurimetria: como a estatística pode reinventar o direito. São Paulo: Revista dos Tribunais, 2016. 4 PROVOST, Foster; FAWCETT, Tom. Data Science for Business: What You Need to Know About Data Mining and Data-Analytic Thinking. Sebastopol: O'Reilly, 2013. 5 QAMAR, Usman; RAZA, Muhammad Summair. Data science concepts and techniques with applications. 2. ed. Cham: Springer, 2023. 6 TRIBUNAL REGIONAL FEDERAL DA 2ª REGIÃO. CNJ: Judicialização da saúde: pesquisa aponta demandas mais recorrentes. Disponível aqui. Acesso em: 30 abr. 2024. 7 CONSELHO NACIONAL DE JUSTIÇA. Dados processuais de saúde podem ser monitorados em painel do CNJ. Disponível aqui. Acesso em: 30 abr. 2024. 8 CONSELHO NACIONAL DE JUSTIÇA. Dados processuais de saúde podem ser monitorados em painel do CNJ. Disponível aqui. Acesso em: 30 abr. 2024. 9 MINAS GERAIS. Secretaria de Estado de Saúde de Minas Gerais. Judicialização. Disponível aqui. Acesso em: 30 abr. 2024. 10 QAMAR, Usman; RAZA, Muhammad Summair. Data science concepts and techniques with applications. 2. ed. Cham: Springer, 2023.
O cenário O avanço da IA na Educação é um fruto da convergência de três grandes fatores geradores: o fenômeno do Big Data; o fortalecimento dos mecanismos de aprendizado de máquina; e, mais recentemente, a criação de grandes modelos fundacionais (foundation models) que mudaram a forma de como os modelos de IA são construídos. A origem do termo Big Data é discutível, mas sem dúvida a humanidade presenciou seus efeitos a partir do início deste século com essa abundância de dados na rede, em grande parte, promovido pela abertura e facilidade de acesso à publicação de conteúdos promovidos pelas redes sociais. Hoje tudo está na web: livros, revistas, filmes, conteúdos científicos, didáticos, entre outros. Paralelamente, os sistemas de aprendizado de máquina (machine learning) que fundamentalmente são treinados sobre grandes volumes de dados para descobrir padrões foram bem aproveitados pela massiva quantidade de dados disponíveis e puderam revelar uma nova fase de aplicações da chamada Inteligência Artificial.1 Esses sistema de aprendizado de máquina, conhecendo esses padrões, são capazes de analisar um dado novo oferecido ao sistema e rotular esse dado de acordo com os padrões aprendidos. As redes neurais, as quais podemos rotular como uma outra maneira de aprendizado de máquina, baseada na mimetização do funcionamento dos neurônios, ampliaram a capacidade dos métodos de aprendizado. As redes de aprendizado profundo, as deep learning networks, proporcionaram a aplicação de tarefas ainda mais complexas, tais como o reconhecimento de voz e a visão computacional.2 Recentemente esses modelos de aprendizado de máquina trouxeram uma nova tecnologia que foi a tecnologia das redes transformers que, quando aplicadas a grandes quantidades de texto, por exemplo, podem gerar sequências de dados (palavras) relacionadas, formando assim frases, parágrafos e textos mais longos. Nascem assim esses grandes modelos de linguagem da qual, o ChatGPT é o exemplo mais popular atualmente. Atualmente, percebe-se uma área ampla de aplicações e utilidades para estes modelos de linguagem, aliado ao fato que estes modelos estão sendo implantados em grande escala e, muitas vezes, como uma solução final ao problema enfrentado. São ferramentas ótimas para, obviamente, geração de textos e textos contextualizados, sumarização de documentos, tradução de textos, para geração de códigos computacionais, chatbots, entre outras. É sempre bom lembrar que estes LLM (large language models) são modelos recentes que surgiram no final de 2021, que ainda estão em evolução. Portanto, não têm sua validade e confiabilidade atestada sistematicamente para a maioria das aplicações citadas. No entanto, percebe-se que esses modelos vieram para ficar e para se permearem na sociedade atual como um novo paradigma computacional, um novo ator digital, e que muitos desdobramentos destes modelos ainda virão abalar nossos meios de produção, de entretenimento e também poderão abalar o ambiente educacional, quer seja no gerenciamento administrativo, quer seja pela sua imposição em plataformas educacionais, a chamada plataformarização da educação.3 Consenso de Beijing O Brasil, como estado membro da Unesco, é signatário deste documento chamado Consenso de Beijing, que é o documento conclusivo da Conferência Internacional sobre Inteligência Artificial e Educação que ocorreu em maio de 2019, em Beijing, na China. Gostaria de salientar alguns pontos deste documento que oferecem suporte a um processo de utilização da IA na Educação mais estruturado e elaborado juntamente com os gestores, professores e técnicos que dominam o conhecimento deste tipo de inovação. Destaco aqui os seguintes pontos: O compromisso assumido pelos estados membro de estabelecerem políticas de integração entre IA e Educação para inovar no processo de ensino e aprendizagem e acelerar o fornecimento de sistemas de educação abertos e flexíveis que possibilitem oportunidades de aprendizagem ao longo da vida que sejam equitativas, relevantes e de qualidade; O entendimento que as tecnologias emergentes devem ser aproveitadas para fortalecer os sistemas educacionais, o acesso à educação para todos, a qualidade, o aprendizado eficaz, a equidade e uma prestação de serviços mais eficiente; Reconhecimento das características distintas da inteligência humana frente à chamada inteligência de máquinas; Desenvolvimento da IA deve ser controlado pelo homem e centrado nas pessoas; Que a implantação da IA deve estar a serviço das pessoas para melhorar as capacidades humanas; que a IA deve ser projetada de maneira ética, não discriminatória, equitativa, transparente e auditável; Ciência que os professores não podem ser substituídos por máquinas, e que a implantação da IA deve garantir que seus direitos e condições de trabalho estejam protegidos. Estágio atual das IAs generativas amplas É bom recordar que estas IAs generativas mais populares, tais como o ChatGPT da OpenAI, a Gemini do Google, a Llama da Meta, e o CoPilot da Microsoft, são criadas e treinadas sobre grandes volumes de dados, dados esses não divulgados, mas que se cogita ser, ao menos, todo o conteúdo textual disponível na web e todos os livros em formato digital. Obviamente é impossível fazer uma curadoria humana para incluir apenas as páginas e os documentos que realmente merecem a atenção de educadores. Outro ponto importante sobre o funcionamento destes modelos de linguagem é que eles não dão a mesma resposta à mesma pergunta formulada por duas pessoas distintas. Isso não significa que o conteúdo seja diferente, mas que a sequência e o estilo de geração textual sejam contextualizados pela maneira como a pergunta é formulada e pelo conhecimento da máquina sobre a sua interação com o usuário. Ainda cabe saber que essas máquinas fazem uso do chamado Aprendizado por Reforço, ou seja, seu conhecimento é modelado pela interação do usuário com a máquina, ou seja, ela aprende com tudo que é inserido pelo usuário na forma de texto. Dadas essas observações, já estão surgindo os primeiros modelos de linguagem ajustados para a Educação, ou seja, conteúdos de aprendizado curados por outras IAs e que aceitam apenas documentos tidos como "relevantes" e importantes para a área educacional fim. Em outras palavras, a IA passa a aprender sobre textos categorizados e específicos para a área, além do que, são feitos ajustes finos no sistema para que ele responda adequadamente às perguntas formuladas sobre o tema. Perspectivas regulatórias sobre o uso do ChatGPT na educação O Comitê de Políticas sobre Economia Digital (Committee on Digital Economy Policy - CDEP) apresentou, em 22 de maio de 2019, a Recomendação sobre Inteligência Artificial da Organização para a Cooperação e Desenvolvimento Econômico - OCDE,4 que foi aprovada nesta data por todos os membros. Trata-se de uma proposta essencialmente principiológica que estabelece algumas diretrizes para o desenvolvimento responsável de tecnologias de inteligência artificial confiáveis, orientando aos atores deste grande mercado a implementá-las. Estes princípios são: a) crescimento inclusivo, desenvolvimento sustentável e bem-estar, segundo o qual os envolvidos no projeto devem adotar ferramentas proativas que beneficiem o ser humano e o planeta; b) valores de justiça centrados no homem, ou seja, os agentes devem respeitar a dignidade humana, a democracia, os direitos humanos fundamentais, proteção de dados, igualdade e não discriminação por sexo, gênero, raça, etc., bem como desenvolver medidas de garantia de autodeterminação; c) transparência e clareza, ou seja, os stakeholders devem adotar ferramentas favoráveis ao pleno conhecimento das técnicas e dos objetivos da aplicação da inteligência artificial em seus serviços e produtos; d) robustez, segurança e proteção, deve-se atentar a todos os possíveis riscos em decorrência do uso da inteligência artificial, prevenindo sempre que possível, por isso, os agentes devem desenvolver constantemente uma análise dos riscos envolvidos em seu produto ou serviço que utilize inteligência artificial; e e) prestação de contas e responsabilização ("accountability"), os agentes devem ser responsabilizados pelos danos advindos do uso da inteligência artificial, levando-se em consideração suas funções, o contexto e o estado da arte. Um dos aspectos destacados nesta diretriz da OCDE é a necessária confiança que o sistema de IA deve ter. Para tanto, todos estes princípios devem ser observados. Assim, indaga-se seria a ferramenta ChatGPT atualmente confiável? Não, atualmente não se pode dizer que esta ferramenta é confiável na medida em que está em desenvolvimento para o seu aprimoramento. Ora, mas em razão disso deveria se proibir o uso desta ferramenta na educação? Acreditamos que não desde que atendidos alguns critérios, quais sejam: 1º) esta ferramenta deve estar centrada na pessoa humana, ou seja, justifica a sua utilização desde que seja para a melhoria da qualidade de vida da pessoa humana, como para otimizar algumas tarefas mais afetas à automação, como detecção de plágios, etc... Em nenhuma hipótese a IA deve substituir a pessoa humana, assim, não se pode imaginar a criação de todo o material didático por uma ferramenta como o ChatGPT, o que não significa que quando tal ferramenta estiver plenamente desenvolvida não possa ser usada para complementar o material didático. 2º) esta ferramenta deve observar os critérios de transparência, isto é, os sistemas de IA devem ser desenvolvidos e usados de uma forma que permite a rastreabilidade e explicabilidade adequadas, ao mesmo tempo em que conscientiza as pessoas humanas de que eles se comunicam ou interagem com um sistema de IA, bem como informa devidamente os implantadores das capacidades e limitações desse sistema de IA e das pessoas afetadas sobre seus direitos consoante o considerando 27 do AI Act da União Europeia. Observe-se que rastreabilidade e explicabilidade compõem a implementação da transparência, mas seriam sinônimos? A rastreabilidade viabiliza a reconstrução de todos os caminhos para a tomada de decisões pelas IAs generativas, como as bases de dados utilizadas e etc..., o que é crucial para detectar algum erro que precisa ser corrigido. A explicabilidade, por sua vez, indica os critérios adotados para determinadas tomadas de decisões, o que viabiliza detectar os chamados vieses algorítmicos. Entendemos que ambos os critérios devem andar juntos para que se possa atender aos requisitos esperados dos sistemas de IA. O art. 2º do Projeto de Lei n. 2.338 que pretende regulamentar o desenvolvimento e o uso da IA no Brasil destaca no inciso I a imperiosa centralidade na pessoa humana. E, o art. 3º deste mesmo projeto de lei, impõe a explicabilidade destes sistemas no inc. VI e a rastreabilidade no inciso IX. Assim, qualquer sistema que use IA deve observar estes critérios, notadamente quando aplicado em área tão importante e decisiva para o desenvolvimento da pessoa humana e da sociedade que é a educação. Conclusão O uso da IA na educação é inevitável, mas para que ele ocorra precisamos discutir diretrizes e planejar políticas de utilização destes novos meios que sejam adequados aos objetivos e princípios educacionais da sociedade. Além disso, a população precisa ter IAs adequadas aos diversos públicos atendidos e que sejam confiáveis e úteis para promover uma educação de qualidade e inclusiva ao longo da vida. __________ 1 RUIZ, Evandro Eduardo Seron. Limitações de uso do ChatGPT e outros modelos de linguagem no Direito. Disponível aqui, acessado em 06 de junho de 2024. 2 Sobre o funcionamento confira também: LIMA, Cíntia Rosa Pereira de; OLIVEIRA, Cristina Godoy Bernardo de; RUIZ, Evandro Eduardo Seron. O uso de Inteligência Artificial nas eleições 2024 - Parte I (Entendendo algumas ferramentas de Inteligência Artificial Generativa). Disponível aqui, acessado em 06 de junho de 2024. 3 Sobre o impacto destas ferramentas na advocacia: RUIZ, Evandro Eduardo Seron. Oportunidades e dificuldades das IAs (Inteligências Artificiais) generativas no Direito. Disponível aqui, acessado em 06 de junho de 2024. 4 The Recommendation on Artificial Intelligence (AI) - the first intergovernmental standard on AI, de 22 de maio de 2019. Disponível aqui, acessada em 06 de junho de 2024.
A partir de 10 de abril de 2018, os 24 Estados-Membros da União Europeia assinaram um termo de cooperação para tratar do tema durante o evento "Digital Day 2018"1. Em 25 de abril de 2018, a Comissão Europeia emitiu uma comunicação sobre inteligência artificial,2 em que sugeriu o avanço na capacidade tecnológica e industrial da União Europeia em prol da IA, o preparo para as mudanças socioeconômicas que viriam em decorrência da IA e um marco regulatório eficaz baseado nos valores democráticos e proteção dos direitos fundamentais para garantir um desenvolvimento ético da IA. Ao final, a Comissão Europeia solicitou que os Estados-Membros coordenassem em seus respectivos países planos estratégicos para a implementação da IA até o final de 2018. Nesta ocasião foi criado um grupo de 52 peritos de alto nível em inteligência artificial (High Level Expert Group on Artificial Intelligence - AI HLEG), cuja composição era multissetorial, pois congregava pesquisadores, acadêmicos, representantes da indústria e da sociedade civil. Além deste grupo, foi criada a "Aliança Europeia para a IA" ("European AI Alliance"),3 que estimulava a participação democrática, como audiências públicas, sobre diversos temas relacionados à inteligência artificial. Em 18 de dezembro de 2018, o grupo AI HLEG submeteu à consulta pública o primeiro esboço das "Diretrizes Éticas para a Fiabilidade da Inteligência Artificial".4 Após intensos e interessantes debates, o grupo apresentou a versão final em 08 de abril de 2019, quando foi apresentado o documento final "Ethics Guidelines for Trustworthy AI".5 Este documento apresenta quatro princípios éticos para a inteligência artificial, quais sejam: a) respeito à autodeterminação do ser humano ("the principle of respecto for human autonomy"), ou seja, toda tecnologia IA deve respeita os direitos e garantias fundamentais, bem como a democracia; b) preveção de danos ("the principle of prevention of harm"), deve-se adotar medidas robustas e eficazes a fim de se evitar danos aos seres humanos; c) justiça ("the principle of fairness"), isto é, assegurar uma distribuição equitativa dos lucros e dos custos, bem como eliminar qualquer tipo de preconceito (unfair bias), seja por motivo de gênero, raça, crença religiosa e etc.; e d) transparência e clareza ("the principle of explicability"), ou seja, os sistemas de IA devem ser claros e compreensível aos seres humanos que irão operacionar tais sistemas. Ademais, foram apresentados alguns requisitos exemplificativos para a fiabilidade da IA, que compreendem aspectos individuais e sociais de maneira sistêmica, a saber: a) assistência e supervisão humana; b) robutez técnica e segurança; c) privacidade e proteção de dados pessoais; d) transparência; e) diversidade, não discriminação e justiça; f) bem-estar social e ambiental; e g) prestação de contas e responsabilidade. Portanto, a União Europeia, atenta ao crescente uso da IA nas mais diversas áreas, estabeleceu um plano coordenado de medidas para a implementação da inteligência artificial em 07 de dezembro de 2018,6 encorajando que os Estados-Membros elaborem os respectivos planos nacionais para IA até meados de 2019. Posteriormente, em 19 de fevereiro de 2020, a Comissão Europeia colocou em consulta até 19 de maio de 2020, o relatório "White Paper on Artificial Intelligence: an European approach to excellence and trust"7. Este relatório reforçou as Diretrizes Éticas acima mencionadas e destacou a necessária regulação sobre a responsabilidade civil em decorrência de danos causados por produtos e serviços que utilizem inteligência artificial. Para tanto, ressaltou-se a necessária revisão da "Product Liability Directive", Dir. 85/374/EEC, de julho de 1985, que disciplina a responsabilidade civil pelo fato do produto e pelos vícios do produto, e que ainda segue em debates.8 Consoante esta diretiva, o fornecedor é responsável por danos causados em virtude do fato do produto; entretanto, em tecnologias de inteligência artificial, como os carros autônomos, é difícil provar que os danos foram causados em virtude de um defeito de programação, por exemplo. Neste sentido, a Comissão Europeia sinalizou a necessidade de uma regulamentação específica para este setor e a consequente adequação do Direito interno de cada Estado-Membro. Naquela mesma data, em 19 de fevereiro de 2020, a Comissão Europeia aprovou um plano estratégico para os dados ("European Strategy for Data"),9 levando em consideração o volume de informações que trafegam na sociedade informacional, de 33 zettabytes (em 2018) para 175 zettabytes (projetado para 2025) na era do Big Data, tal preocupação justifica-se na medida em que o aprendizado de máquina é viabilizado em razão deste algo volume de dados. Este documento destaca a necessária cooperação internacional sobre a matéria para o enforcement das medidas regulatórias neste setor dada a circulação transfronteiriça de dados. Neste sentido, todos os países precisam estar atentos a estas medidas para sua inserção no capitalismo informacional. Mesmo quando impulsionados pelo aprendizado de máquina, os algoritmos continuam sendo falíveis e altamente suscetíveis a erros de representação e assimilação. Devido à natureza puramente matemática com que processam dados, esses erros destacam o desafio de conciliar a responsabilidade ética e jurídica com essa nova realidade, mesmo que de forma prospectiva. Nos Estados Unidos da América, foi apresentado, em 12 de dezembro de 2017, o "Fundamentally Understanding the Usability and Realistic Evolution of Artificial Intelligence Act", ou apenas "Future of AI Act"10, que é bastante apegado à correlação entre o conceito de IA e o funcionamento do cérebro humano, denotando proximidade conceitual com a ideia de "singularidade tecnológica". Tal documento indica, ainda, diretrizes éticas para o fomento ao desenvolvimento algorítmico, mas não aborda a área da saúde de forma direta. Alguns documentos mais recentes, como o Artificial Intelligence Act (AI Act) europeu aprovado em 202411, e o Algorithmic Accountability Act norte-americano de 202212 (2022 US AAA), que atualizou a versão anterior, de 201913, evitam a discussão terminológica sobre o alcance semântico do termo "inteligência", preferindo se reportar a "sistemas decisionais automatizados"14 (Automated Decision Systems, ou ADS's) para se referir à utilização de sistemas de IA em geral e reafirmar a importância da estruturação de parâmetros éticos para o desenvolvimento de algoritmos. Os documentos mencionados têm qualidades que podem ser mutuamente inspiradoras, destacando a importância da correta assimilação semântica (entre outros tópicos) para o avanço das discussões, inclusive em nível global.15 No Brasil, várias iniciativas legislativas, como os Projetos de Lei nº 5051/2019, nº 21/2020 e nº 872/2021, buscaram regulamentar o tema de forma geral. No entanto, essas propostas não eram extensas nem bem estruturadas, focando apenas em estabelecer um marco regulatório simbólico, o que é insuficiente para abordar adequadamente um assunto tão complexo. Todavia, em fevereiro de 2022, foi instituída pelo Senado Federal a "Comissão de Juristas responsável por subsidiar elaboração de substitutivo sobre IA" (CJSUBIA). Após a realização de diversas reuniões e audiências públicas, os trabalhos de elaboração do substitutivo foram concluídos em dezembro de 2022. A partir do rigoroso trabalho desenvolvido, foi apresentado um projeto substitutivo - o Projeto de Lei nº 2.338/202316-, de autoria do Presidente do Congresso Nacional, Senador Rodrigo Pacheco, que muito se aproxima da solução adotada na União Europeia, onde há anos se discute a matéria em caráter prospectivo, primando por estratificar as soluções possíveis para cada contexto, a depender do grau de risco que a atividade implique. Neste sentido, nota-se o pouco tempo dedicado ao estudo e à evolução do projeto de lei, apenas dois anos e com escasso tempo para as necessárias audiências públicas e pesquisas realmente profícuas para que a futura lei brasileira sobre Inteligência Artificial pudesse ser referência para outros países. Desde a sua apresentação pelo Senador Rodrigo Pacheco em maio de 2023, o Projeto de Lei nº 2.338 recebeu diversas emendas parlamentares17, sobretudo no âmbito da Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), criada com o objetivo de analisar e debater a regulamentação da Inteligência Artificial no Brasil por meio da discussão e aprimoramento de projetos de lei relacionados à IA, incluindo o Projeto de Lei nº 2.338/2023. Presidida pelo Senador Carlos Viana (PODEMOS-MG), a CTIA atua como um fórum multissetorial, reunindo especialistas e representantes de diversos setores para garantir que as regulamentações propostas sejam abrangentes e eficazes, equilibrando inovação tecnológica e proteção de direitos fundamentais. Estas contribuições são extremamente valiosas e precisam de um tempo razoável para o amadurecimento e melhoria das propostas, para não incidirmos na aprovação de uma lei de questionável eficiência o que, fatalmente, fomentará o ativismo judicial. O Brasil segue no aguardo do avanço do PL 2.338/2023, mas seu texto, cuja versão mais recente é uma minuta de atualização proposta pelo Senador Eduardo Gomes em abril de 202418 no âmbito da referida CTIA, indica a preocupação do legislador com a parametrização ética, estando elencados, no art. 3º, inúmeros princípios que são nitidamente inspirados na proposta europeia. Em linhas gerais, pode-se sintetizar 6 grandes eixos principiológicos de todas essas propostas regulatórias: (i) participação humana e supervisão (human in the loop); (ii) confiabilidade e robustez dos sistemas de inteligência artificial e segurança da informação; (iii) privacidade e governança de dados; (iv) transparência algorítmica, explicabilidade e auditabilidade; (v) diversidade, não discriminação e justiça; (vi) responsabilização, prevenção, precaução e mitigação de riscos. Para além desse rol mais sintético, convém mencionar o detalhado repertório de princípios que consta do artigo 3º do substitutivo apresentado pelo Senador Eduardo Gomes: (i) crescimento inclusivo, desenvolvimento sustentável e bem-estar, incluindo a proteção do trabalho e do trabalhador (inc. I); (ii) autodeterminação e liberdade de decisão e de escolha (inc. II); (iii) supervisão humana efetiva (inc. III); (iv) não discriminação ilícita e abusiva (inc. IV); (v) justiça, equidade e inclusão (inv. V); (vi) transparência e explicabilidade (inc. VI); (vii) devida diligência e auditabilidade (inc. VI, sic19); (viii) confiabilidade e robustez do sistema de IA (inc. VII); (ix) proteção dos direitos e garantias fundamentais, incluindo o devido processo legal, contestabilidade e contraditório (inc. VIII); (x) prestação de contas, responsabilização e reparação integral de danos (inc. IX); (xi) prevenção, precaução e mitigação de riscos e danos (inc. X); (xii) não maleficência e proporcionalidade entre os métodos empregados e as finalidades (inc. XI); (xiii) desenvolvimento e uso ético e responsável da IA (inc. XII); (xiv) governança transparente, participativa e orientada à proteção de direitos fundamentais (inc. XIII); (xv) promoção da interoperabilidade de IA (inc. XIV); (xvi) possibilidade e condição de utilização de sistemas e tecnologias com segurança e autonomia por pessoa com deficiência (inc. XV); (xvii) conformidade com a legislação aplicável (inc. XVI)20. Essa lista pode ser expandida para incluir um conjunto muito mais detalhado de princípios que tocam o debate ético sobre a regulação dos sistemas de IA. No entanto, para os objetivos desta investigação, é importante mencionar que todos esses delineamentos ajudam a definir contornos específicos que fortalecem o tratamento jurídico da perfilização e seus efeitos. Na atualidade, "a preocupação central de toda essa investigação reside nas aplicações e nos danos causados pela Inteligência Artificial, que se coloca mais uma vez aqui como um elemento fundamental para compreender esse fenômeno de controle"21. Em conclusão, a aprovação do Regulamento Geral Europeu sobre Inteligência Artificial (AI Act) representa um marco significativo na regulação de tecnologias emergentes, com uma abordagem baseada em princípios éticos que contribuem para o debate acerca da responsabilidade civil. Este esforço europeu, resultado de quase uma década de debates e colaborações multissetoriais, serve de exemplo inspirador para outras nações, incluindo o Brasil, onde, embora ainda não se possa prever os próximos passos dos debates legislativos sobre a matéria, deve-se acompanhar com atenção os trabalhos desenvolvidos pela CTIA no Senado Federal. __________ 1 Disponível em: https://ec.europa.eu/digital-single-market/en/news/eu-member-states-sign-cooperate-artificial-intelligence, acessado em 23 maio 2024. 2 Disponível em: https://ec.europa.eu/digital-single-market/en/news/communication-artificial-intelligence-europe, acessado em 23 maio 2024. 3 Disponível em: https://ec.europa.eu/digital-single-market/en/european-ai-alliance, acessado em 23 maio 2024. 4 Disponível em: https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai, acessado em 23 maio 2024. 5 Disponível em: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai, acessado em 23 maio 2024. 6 Disponível em: https://ec.europa.eu/knowledge4policy/node/32954_sl, acessado em 23 maio 2024. 7 Disponível em: https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf, acessado em 23 maio 2024. 8 Disponível em: https://eur-lex.europa.eu/legal-content/en/txt/pdf/?uri=celex:31985l0374&from=en, acessado em 23 maio 2024. 9 Disponível em: https://eur-lex.europa.eu/legal-content/en/txt/pdf/?uri=celex:52020dc0066&from=en, acessado em 23 maio 2024. 10 ESTADOS UNIDOS DA AMÉRICA. House of Representatives. House Resolution No. 4625, Dec. 12, 2017. FUTURE of Artificial Intelligence Act. Disponível em: https://www.congress.gov/115/bills/hr4625/bills-115hr4625ih.pdf, acessado em 23 maio 2024. 11 EUROPA. European Parliament. Artificial Intelligence Act: MEPs adopt landmark law, mar. 2024. Disponível em: https://www.europarl.europa.eu/news/en/press-room/20240308ipr19015/artificial-intelligence-act-meps-adopt-landmark-law, acessado em 23 maio 2024. 12 ESTADOS UNIDOS DA AMÉRICA. House of Representatives. House Resolution No. 6580, Feb. 3, 2022. Algorithmic Accountability Act of 2022. Disponível em: https://www.congress.gov/bill/117th-congress/house-bill/6580/text, acessado em 23 maio 2024. 13 ESTADOS UNIDOS DA AMÉRICA. House of Representatives. House Resolution No. 2231, Apr. 10, 2019. Algorithmic Accountability Act of 2019. Disponível em: https://www.congress.gov/116/bills/hr2231/bills-116hr2231ih.pdf, acessado em 23 maio 2024. 14 Cf. SELBST, Andrew. An institutional view of algorithmic impact assessments. Harvard Journal of Law & Technology, Cambridge, v. 35, 2021. Disponível em: https://ssrn.com/abstract=3867634, acessado em 23 maio 2024. 15 MÖKANDER, Jakob; JUNEJA, Prathm; WATSON, David S.; FLORIDI, Luciano. The US Algorithmic Accountability Act of 2022 vs. The EU Artificial Intelligence Act: what can they learn from each other? Minds and Machines, Cham: Springer, v. 22, p. 1-9, jun. 2022. Disponível em: https://doi.org/10.1007/s11023-022-09612-y, acessado em 23 maio 2024. 16 BRASIL. Senado Federal. Projeto de Lei nº 2338/2023. Dispõe sobre o uso da Inteligência Artificial. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233, acessado em 23 maio 2024. 17 Em especial, destaca-se a proposta de substitutivo apresentada pelo Senador Astronauta Marcos Pontes. Por mais, permita-se a referência a: MEDON, Filipe. Regulação da IA no Brasil: o substitutivo ao PL 2338. Jota, 01 dez. 2023, acessado em 23 maio 2024. 18 BRASIL. Senado Federal. Comissão Temporária Interna sobre Inteligência Artificial no Brasil. Texto Preliminar - Senador Eduardo Gomes. 2023. Disponível em: https://legis.senado.leg.br/comissoes/arquivos?ap=8139&codcol=2629, acessado em 23 maio 2024. 19 Há uma repetição, aparentemente por erro material, na numeração do inciso VI do substitutivo em questão. 20 BRASIL. Senado Federal. Comissão Temporária Interna sobre Inteligência Artificial no Brasil. Texto Preliminar - Senador Eduardo Gomes. 2023. Disponível em: https://legis.senado.leg.br/comissoes/arquivos?ap=8139&codcol=2629, acessado em 23 maio 2024. 21 MEDON, Filipe. Inteligência artificial e responsabilidade civil: autonomia, riscos e solidariedade. 2. ed. Salvador: Juspodivm, 2022, p. 297.
A alteração da resolução 23.610 de 2019, com o pacote de 12 resoluções aprovadas pelo Tribunal Superior Eleitoral, apresentou alguns pontos relativos ao uso de IA no processo eleitoral, como: proibição de deepfakes; obrigação de explicitar o uso de IA na propaganda eleitoral; proibição de simulação de diálogo entre candidato e qualquer outra pessoa; responsabilização das empresas que não retirarem imediatamente do ar conteúdos com desinformação ou com discurso de ódio. Essas regras são interessantes quando for detectada o uso de IA para criação de conteúdo eleitoral e vídeos sem a devida informação ao eleitor. Dessa forma, tal conduta já estará prevista nas resoluções aprovadas e haverá uma respectiva consequência, buscando garantir a democracia. Mas a pergunta que não foi respondida ainda é como todas estas determinações legais serão fiscalizadas? Provavelmente não, por isso não é possível dizer que o eleitor estará seguro com tais resoluções, uma vez que será muito difícil identificar este conteúdo gerado pela IA ou o uso de chatbots. Além disso, mesmo que seja identificado o uso indevido deste conteúdo e o responsável por ele, o prejuízo já terá ocorrido, pois os vídeos polêmicos e impactantes são propagados em uma elevada velocidade, sendo que o microtargeting garante que o conteúdo chegue aos destinatários mais suscetíveis a compartilhar tal conteúdo e confirmar as suas convicções. Sobre a importância da proteção de dados e a prática denominada deepfake, consulte nossa coluna.1 De fato, a criação de deepfake está associada à técnica de deep learning, a qual se assemelha ao sistema neural humano, adaptando-se e aprendendo por uma rede de dados. No entanto, tudo isso somente é viável a partir de dados pessoais que são utilizados por uma grande quantidade de software de código aberto, que chegam a resultados cada vez mais precisos. Esta preocupação não está atormentando somente a sociedade brasileira. Mas Nos Estados Unidos, em 30 de outubro de 2023, o Presidente Joe Binden editou uma ordem executiva impondo alguns requisitos para proteger os americanos e as liberdades individuais dado ao crescente uso da IA. Nesta carta ficaram estabelecidas tais medidas:2 - que as grandes empresas que usam IA informem sobre os testes que fizeram antes de disponibilizar tal ferramenta ao público, bem como sobre os riscos que possam estar associados; - o National Institute of Standards and Technology vai estabelecer critérios para se alcançar segurança e confiabilidade nos produtos e serviços que usem IA; - a fim de proteger os americanos contra conteúdo enganosos e fraudulentos, o Department of Commerce estabelecerá diretrizes para autenticação de conteúdo criado totalmente por IA, bem como a indicação disto inserindo uma marca d'água para indicar que o conteúdo foi gerado por IA, o que acabou influenciando o substitutivo do PL 2338 que a Cristina mencionou; - além de atenção redobrada à cybersegurança.  Nesta ordem executiva, o Presidente norte-americano sugere que o Congresso norte-americano elabore uma lei específica para assegurar a privacidade dos americanos, já que para treinar os sistemas que usam IA, as empresas precisam de informações diversas. Nos Estados Unidos, o Algorithmic Accountability Act de 2022 traz uma preocupação com os sistemas de decisões automatizadas, notadamente com os vieses dos algoritmos (exigindo o relatório de impacto), mas não menciona a IA generativa. Na Europa, avançou a aprovação da proposta de Regulamento Geral sobre IA, conhecido como Artificial Inteligence Act, no art. 52, impõe-se o dever de informar que o sistema usa IA, além disso, foi feita menção expressa ao uso de chatbots e deepfakes:  Users of an AI system that generates or manipulates image, audio or video content that appreciably resembles existing persons, objects, places or other entities or events and would falsely appear to a person to be authentic or truthful ('deep fake'), shall disclose that the content has been artificially generated or manipulated.  Portanto, acredito que a questão ainda precisa ser melhor desenhada pelos reguladores, mas a informação é o melhor remédio, ou seja, informar que o conteúdo foi gerado por IA. Sobre o tema, Cíntia Rosa Pereira de Lima, Cristina Bernardo de Oliveira e Evandro Eduardo Seron Ruiz3 analisam estas propostas que inspiraram a proposta do Senador Astronauta Marcos Pontes ao Projeto de Lei n. 2338/23, o qual possui um dispositivo que exige a presença de marca d'água em todo conteúdo gerado por IA (quer texto, quer imagem), tornando-se impraticável garantir a efetivação de tal norma. Isto porque não há uma forma de organizar a fiscalização e a identificação de todos o conteúdo gerado por IA, bem como sua efetiva remoção a tempo hábil. Assim, pode gerar uma falsa sensação de que o conteúdo sem a marca d'água não teria sido criado por IA, quando, na verdade, não foi identificado como tal, e continuará impactando as pessoas que irão confiar na credibilidade na originalidade do conteúdo que não está identificado. Quanto à obrigatoriedade de remoção de discurso de ódio, nossa coluna já tratou do tema em algumas ocasiões.4 O grande problema é a ausência do que seria o discurso de ódio quer na doutrina, quer na jurisprudência, por exemplo, pornografia enquadra-se como discurso de ódio? Há muitos que defendem que sim. O risco destes conceitos abertos é o fomento a arbitrariedades, o que coloca em xeque um princípio democrático protegido constitucionalmente: a liberdade de expressão. Por outro lado, o discurso de ódio e condutas antidemocráticas afetam o nosso processo eleitoral e atingem as instituições democráticas. O discurso de ódio viola direitos fundamentais e podem cercear a liberdade de ir e vir, pois um grupo constrangido pode se sentir coagido a não frequentar determinados espaços. Todavia, a remoção de perfis não seria a medida mais adequada, pois esses indivíduos encontrariam outras plataformas digitais para poderem se expressar e o ódio será cada vez maior. Por fim, deve-se ter cuidado para não fomentar o que Karl Loewenstein denominou de democracia militante, que afirmou que o nazismo se utilizou dos princípios e garantias presentes em Estados Democráticos de Direito para poderem propagar as suas ideias, logo, ao se retornar à democracia, ela deveria utilizar instrumentos empregados por regimes totalitários ou autoritários, para evitar que ressurgissem. Em suma, trata-se do dilema secular entre a liberdade e a segurança. E, a grande pergunta que se deve fazer como cidadãos é: quanto de liberdade estamos dispostos a abrir mão para garantir a segurança? No Brasil, há algumas tentativas legislativas para regulamentar o uso da IA (PL 5.051/2019, 21/2020 e 872/2021), de forma geral estes projetos se fundamentam na regra de responsabilidade civil com base na culpa, estabelecem princípios e fundamentos, o que já constam da Estratégia Brasileira de IA. Então, em fevereiro de 2022, foi instituida uma Comissão de Juristas no Senado Federal para apresentarem um substitutivo, apresentando uma primeira versão do substitutivo em 07 de dezembro de 2022. Assim, o PL 2.338/2023 é fruto dos trabalhos desta Comissão, apresentado ao Senador Federal Rodrigo Pacheco com objetivo de regulamentar a IA no Brasil. Uma das principais características do projeto é a proposta de uma estrutura institucional de supervisão e controle, que visa dar segurança jurídica a quem inova e desenvolve tecnologia. Mas é impossível o legislador prever e antever os possíveis usos e aplicações da IA, por isso, creio eu que o melhor caminho seja uma lei geral e principiológica, que indique os fundamentos para o desenvolvimento e uso da IA, bem como direitos básicos dos usuários e a criação de um órgão regulador para assegurar a efetividade de todo o sistema. Entretanto cada setor específico, com a participação deste órgão a ser criado, como o setor de eleições, de automação de veículos e etc..., estabelecerão regras específicas e pertinentes às suas particularidades. Mas a efetiva solução está realmente na educação digital. __________ 1 NASCIMENTO, Ingrid do; OLIVEIRA, Cristina Godoy Bernardo de. Deepfake nas eleições e a importância da proteção de dados. Disponível aqui. 2 Disponível em: FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence | The White House. 3 CARDOSO, Thaís. USP Analisa #126: Preocupação com inteligência artificial nas eleições é necessária, mas tecnologia também beneficia eleitor. Disponível em: USP Analisa #126: Preocupação com inteligência artificial nas eleições é necessária, mas tecnologia também beneficia eleitor - Jornal da USP. 4 LIMA, Cíntia Rosa Pereira de; BATISTA, Letícia Soares. Elon Musk VS Alexandre de Moraes e o necessário debate sobre regulação das redes sociais. Disponível aqui.
As eleições de 2024 sinalizam diversos desafios a serem suplantados pelo regulador. Desde os acontecimentos da Cambridge Analytica em 2018, houve um avanço significativo da tecnologia, em especial a Inteligência Artificial. Muito se deve ao fato da pandemia ter acelerado a digitalização da atual sociedade informacional1. Sobre esta reflexão, nesta coluna Migalhas de IA e Proteção de Dados, Adalberto Simão Filho2 alerta para o fato do crescente banco de dados de eleitores em razão das pesquisas eleitorais. Agora não é tão somente o fato perigoso de acesso indevido aos dados pessoais de eleitores e sua perfiliação para enviar mensagens a fim de influenciar no seu processo decisório que ameaça o processo democrático, o que também já foi debatido em alguns artigos desta coluna3. Além disso, o uso indevido da Inteligência Artificial já tem chamado a atenção como o uso do ChatGPT4 e outras ferramentas.5 É importante destacar que tais ferramentas não são intrinsecamente ruins como salienta Demi Getscheko,6 neste sentido, deve-se buscar alguns parâmetros para a utilização sustentável destas ferramentas, sem que afetem as liberdades individuais e os fundamentos da democracia. Alguns exemplos destas ferramentas podem ser entendidos a partir do que Evandro Eduardo Seron Ruiz alertou no USP Analisa de 26 de abril de 2024.7 A capacidade de geração de texto pelas denominadas IAs Generativas (IAGs) como o ChatGPT advém de vários tipos de processamentos sobre um grande volume de textos digitais coletados na web. Mais especificamente, essas IAGs para textos, chamadas tecnicamente de grandes modelos de linguagem (do termo inglês, Large Language Models, ou LLM), capturam milhões de textos na internet e, a grosso modo, calculam a probabilidade de ocorrência das próximas palavras dada uma palavra sugerida. Exemplificando essa metodologia de modo sumário, sem rigor técnico, essas IAGs tem um funcionamento parecido ao encontrado nos editores de texto de celulares que, muitas vezes, sugerem a próxima palavra a ser digitada. No entanto, essas IAs calculam as próximas palavras as centenas, ou seja, geram textos longos e, se bem guiadas pelo usuário, textos contextualizados. Convém notar que essas novas ferramentas generativas, tanto para gerar textos, imagens e áudios, lançadas a partir de 2022, ainda nem completaram 2 anos de idade, ou seja, ainda estão na sua primeira infância e já se pode notar uma enorme quantidade de usuários destas tecnologias. Por exemplo, nestas próximas eleições municipais, os eleitores podem usar essas tecnologias, para, resumir os programas de seus candidatos e até compará-los, buscar informações sobre os partidos e os candidatos, talvez um histórico de sua vida política pregressa e de suas convicções. Considerando os interesses do candidato, tais tecnologias podem ser usadas para gerar material para seus discursos ou manifestações em suas redes sociais. Além disso, essas IAs generativas textuais podem auxiliar na elaboração das propostas de governo, na geração de discursos, como também para a geração de material publicitário, entre outras finalidades. Veja que esta aplicação das IAGs pode representar uma economia relevante com gastos de campanha eleitoral e reduzir o custo com assessores e profissionais de propaganda. Além disso, essas IAGs voltadas para texto contam com um recurso chamado Aprendizado por Reforço que analisam as interações do usuário com a IA e podem gerar novas versões do texto que respondam aos questionamentos ou sugestões e necessidades do usuário. Com todos esses recursos destas IAGs podemos pensar que um candidato possa criar uma máquina de campanha para as redes sociais. Num primeiro momento essa máquina produzirá propagandas cujos textos sejam recortes de seu programa de governo e as imagens ou vídeos produzidos artificialmente ofereçam suporte ao texto. Poderia, inclusive, ser inserido áudios que reproduzam a voz do candidato. Num momento subsequente, essa máquina de campanha, ao analisar os comentários dos seguidores do candidato, poderia gerar outros textos, imagens, vídeos e áudios que agradassem mais o público alvo, tudo isso é possível a partir do recurso de avaliação e correção de rumos da técnica de Aprendizado por Reforço incluída nessas IAGs. Com um uso ético e seguro destas tecnologias, pode-se chegar a um equilíbrio maior de forças e exposição entre os candidatos, pensando que o candidato com menor condições financeiras para gastar na campanha pode, em tese, fazer sua campanha com baixo custo usando os canais das redes sociais e que, caso isso ocorra, esse movimento poderá implicar num fortalecimento da democracia pela oportunidade de produção de material que essas IAs trarão a todos os partícipes de um pleito. Neste sentido, a promoção do uso amplo destas tecnologias para aumentar a produtividade das campanhas eleitorais e, quiçá, torná-las mais baratas seria uma alternativa para que o povo brasileiro não continue arcando com os custos exorbitantes das campanhas eleitorais cujo fundo público este ano é de RS 4,9 bilhões.8 Boa parte deste recurso poderia ser melhor empregada para a educação digital, para estimular e fortalecer o uso consciente das redes sociais e, como consequência, teríamos uma população educada e empoderada sim para dissuadir esses criminosos digitais. Entretanto, infelizmente, existe um receio real de que tais ferramentas possam ser utilizadas para a geração e veiculação de notícias enganosas. Toda ferramenta, toda criação, toda invenção nova sempre pode ser usada para alguma finalidade não esperada, e neste caso, pode sim ser usada para enganar, burlar, o eleitor. A alteração da Resolução 23.610 de 2019, com o pacote de 12 resoluções aprovadas pelo Tribunal Superior Eleitoral, apresentou alguns pontos relativos ao uso de IA no processo eleitoral, como: proibição de deepfakes; obrigação de explicitar o uso de IA na propaganda eleitoral; proibição de simulação de diálogo entre candidato e qualquer outra pessoa; responsabilização das empresas que não retirarem imediatamente do ar conteúdos com desinformação ou com discurso de ódio. Essas regras são interessantes quando for detectada o uso de IA para criação de conteúdo eleitoral e vídeos sem a devida informação ao eleitor. Dessa forma, tal conduta já estará prevista nas resoluções aprovadas e haverá uma respectiva consequência, buscando garantir a democracia. Por outro lado, não é possível dizer que o eleitor estará seguro, uma vez que será muito difícil identificar este conteúdo gerado pela IA ou o uso de chatbots. Além disso, mesmo que seja identificado o uso indevido deste conteúdo e o responsável por ele, o prejuízo já terá ocorrido, pois os vídeos polêmicos e impactantes são propagados em uma elevada velocidade, sendo que o microtargeting garante que o conteúdo chegue aos destinatários mais suscetíveis a compartilhar tal conteúdo e confirmar as suas convicções. Portanto, a real proteção que pode se dar à população é assegurando e fortalecendo medidas de transparência e de educação digital. Na próxima coluna, continuaremos o debate analisando algumas propostas regulatórias norte-americanas que tem influenciado o legislador brasileiro. __________ 1 OLIVEIRA, Cristina Godoy Bernardo de; LIMA, Tiago Augustini de; RODRIGUES, Pedro Sberni. Eleições municipais, LGPD e pandemia: uma combinação imprevisível. Disponível aqui. 2 SIMÃO FILHO, Adalberto. Por quem os sinos dobram - A (im)possibilidade de utilização algorítmica e inteligência artificial na formação do plano amostral de pesquisas eleitorais. Disponível aqui. 3 LIMA, Cíntia Rosa Pereira de; SOUSA, Maria Eduarda Sampaio de. LGPD e combate às fake news. Disponível aqui; DONAIKA, Kaleo; OLIVEIRA, Cristina Godoy Bernardo de. O acordo de cooperação técnica assinado entre o TSE e a ANPD. Disponível aqui; dentre outros. 4 RUIZ, Evandro Eduardo Seron. A nossa Língua Portuguesa está em risco de extinção? Disponível aqui. 5 OLIVEIRA, Cristina Godoy Bernardo de; LIMA, Tiago Augustini de. O Uso do ChatGPT e do Gemini no fazer jurídico. Disponível aqui. 6 NETMundial e o Marco Civil da Internet: a necessidade de ambos. In: DE LUCCA, Newton; SIMÃO FILHO, Adalberto; LIMA, Cíntia Rosa Pereira de. Direito & Internet. Vol. III: Marco civil da internet (Lei nº 12.965/2014). São Paulo: Quartier Latin, 2015. pp. 101 - 106. 7 CARDOSO, Thaís. USP Analisa #126: Preocupação com inteligência artificial nas eleições é necessária, mas tecnologia também beneficia eleitor. Disponível em: USP Analisa #126: Preocupação com inteligência artificial nas eleições é necessária, mas tecnologia também beneficia eleitor - Jornal da USP 8 Disponível em: Fundo Especial de Financiamento de Campanha (FEFC) - Tribunal Superior Eleitoral (tse.jus.br)
No início do mês de abril (09/04/2024), ganhou relevância um embate travado entre o empresário bilionário Elon Musk e o ministro do Supremo Tribunal Federal, Alexandre de Moraes, no meio da plataforma X, antigo Twitter. O empresário, dono da plataforma, acusou o ministro de ser "autoritário" e "ditador", sendo responsável por "censurar" a liberdade de expressão no Brasil. Por sua vez, o ministro respondeu com a inclusão do empresário no inquérito que investiga milícias digitais1. A "denúncia" de Elon Musk foi seguida pela divulgação de um relatório contendo informações internas da empresa sobre o acompanhamento de decisões judiciais. A série de artigos foi apresentada pelo jornalista Michael Shellenberger e ganhou o nome de Twitter Files Brasil. Na semana seguinte (17/04/2024), o Comitê de Assuntos Judiciários da Câmara dos Estados Unidos divulgou um relatório intitulado The Attack on Free Speech Abroad and the Biden Administration's Silence: The Case of Brazil2, traçando um paralelo entre as condutas de Moraes e do presidente Joe Biden, acusando este último de limitar a liberdade de expressão dos americanos. Chama a atenção o fato do empresário ter recebido o relatório poucos dias antes da divulgação pelo Comitê3, além de ter protagonizado diversas interações com políticos brasileiros, demonstrando seu apoio4. Vale ressaltar que, desde a compra "forçada" da plataforma, Musk vem usando a rede para defender a liberdade de expressão contra a assim chamada "ideologia woke", terminologia utilizada pela mídia conservadora norte-americana para definir amplamente pautas ditas como progressistas. Do ponto de vista jurídico, o caso se destaca por diversos aspectos. Primeiramente, evidencia a influência de um bilionário estrangeiro na condução do debate político, investigações criminais e decisões judiciais no país. A apresentação de um relatório à Câmara dos Estados Unidos que alega denunciar a censura existente no Brasil e cobra resposta de uma outra nação, abre a porta para um questionamento sobre a soberania nacional, muito embora o documento não tenha como objetivo principal solucionar a ditadura contra a liberdade de expressão supostamente existente no Brasil, como se fez acreditar5. Ademais, reacende o debate sobre a necessidade de regulamentação das redes sociais. Nesse contexto, o presidente da Câmara dos Deputados entendeu que "não há clima para aprovação do projeto já existente"6, referindo-se ao PL nº 2.630/2020, que ficou conhecido como PL das Fake News, já aprovado pelo Senado Federal.7 Entretanto, a retomada do debate sobre regulamentação das redes é fundamental para que o Brasil tenha padrões pré-estabelecidos para o controle sobre postagens em redes sociais, a fim de que não tenha sua soberania questionada, como ocorreu no caso acima citado. Isso porque atualmente a única previsão expressa para o controle de conteúdo produzido por terceiros para provedores de aplicações da internet é artigo 19 do Marco Civil da Internet (Lei n. 12.965/2014), que estabelece o sistema conhecido como judicial notice and takedown, isto é, a responsabilidade do provedor de aplicação somente após o recebimento de uma notificação específica e detalhada do conteúdo que deve ser deletado. Sobre isso vide outro texto interessante nesta coluna.8 Tal norma prioriza a liberdade de expressão dos usuários, na medida em que se objetivou não deixar à análise dos provedores de aplicação de internet essa análise de mérito sobre o conteúdo. Ao contrário, pretendeu deixar ao Judiciário definir se o conteúdo pode ser considerado ou não lesivo9. Assim, de acordo com o sistema estabelecido pelo Marco Civil da Internet, a proteção contra discursos discriminatórios deve ser analisada pelo Judiciário; não podendo ficar à mercê do controle dos próprios provedores de aplicação, ou seja, pelas próprias redes sociais.10 O sistema baseado na ideia de neutralidade da rede11, buscando a promoção da maior liberdade de expressão dos usuários, impede que os provedores de aplicação fiscalizem previamente o conteúdo postado. Entretanto, na medida em que se tem conhecimento do potencial lesivo de determinado conteúdo, como os provedores de aplicação de internet devem agir? Importante lembrar que a neutralidade da rede se aproxima da ideia de livre mercado das ideias, adotado no ordenamento americano. O conceito, criado pelo juiz Oliver Wendell Holmes, ao interpretar a 1ª Emenda à Constituição americana, resume sucintamente o entendimento estadunidense sobre a proteção da liberdade de expressão, comparando-a com a proteção do livre mercado, assim, inspirado no pensamento de John Stuart Mill, o melhor teste para a veracidade de uma ideia seria a sua capacidade de obter aceitação na competição do mercado do discurso12. Nesse sentido, a proteção da liberdade de expressão nos Estados Unidos é tida como uma das mais abrangentes do mundo, pois ganha preponderância frente a outros princípios como privacidade, honra e igualdade, possuindo poucas ressalvas, por exemplo, pornografia, difamação, ou linguagem ofensiva13. Por exemplo, a queima de cruzes, símbolo da Ku Klux Klan, não é criminalizada per se, mas apenas quando apresenta clara ameaça às pessoas negras. Trata-se do princípio indicado pela expressão fighting words, que permite restringir o exercício da liberdade de expressão somente quando há imediata incitação de violência14. Ademais, o discurso é visto como modo de autorrealização individual, logo, limitar o contato com discursos tidos como discriminatórios limitaria a potencialidade de cada ser humano, de forma tal que o Estado estaria violando a identidade de cada indivíduo15. Dessa forma, diz-se que nos Estados Unidos vigora uma liberdade negativa, isto é, a proibição do Congresso de limitar a liberdade de expressão16, o que se vê de modo expresso na redação da 1ª Emenda17. Contudo, o exemplo americano não foi seguido pelo Brasil, o qual, inspirado no modelo europeu, adotou a liberdade de expressão em sentido positivo, limitando-a por outros princípios constitucionais, como a dignidade da pessoa humana, dentre outros. No julgamento do Caso Ellwanger pelo Supremo Tribunal Federal no RHC 82.424/RS, estabeleceu-se que o conceito de racismo deve ser entendido de modo amplo para enquadrar qualquer tipo de discriminação racial, inclusive contra judeus. Ainda com grande divergência de fundamentos jurídicos, filosóficos e sociológicos pelos Ministros, inclusive com três votos contrários, a decisão foi aplaudida tanto pela comunidade civil, como pela academia18. Mais recentemente, o julgamento da ADO 26, ainda em fase recursal, parece reiterar o combate à discriminação, equiparando ao crime de racismo a homofobia e a transfobia, sendo emblemático ao combate do discurso de ódio no Brasil. Em uma das teses fixadas pelo Relator, o Ministro Celso de Mello, o conceito de racismo foi alargado para compreender qualquer tipo de discriminação contra grupo minoritário: "O conceito de racismo, compreendido em sua dimensão social, projeta-se para além de aspectos estritamente biológicos ou fenotípicos, pois resulta, enquanto manifestação de poder, de uma construção de índole histórico-cultural motivada pelo objetivo de justificar a desigualdade e destinada ao controle ideológico, à dominação política, à subjugação social e à negação da alteridade, da dignidade e da humanidade daqueles que, por integrarem grupo vulnerável (LGBTI+) e por não pertencerem ao estamento que detém posição de hegemonia em uma dada estrutura social, são considerados estranhos e diferentes, degradados à condição de marginais do ordenamento jurídico, expostos, em consequência de odiosa inferiorização e de perversa estigmatização, a uma injusta e lesiva situação de exclusão do sistema geral de proteção do direito" Desta forma, o sistema brasileiro de proteção à liberdade de expressão diverge do modelo norte-americano na medida em que se reconhece, no Brasil, a primazia do princípio da dignidade humana como limitador a muitos direitos e garantias fundamentais, ao ponto de criminalizar discursos discriminatórios, entendidos como discursos que promovem discriminação a grupos minoritários da sociedade. Portanto, o sistema brasileiro aproxima-se mais do modelo europeu, predominantemente, do sistema alemão. Enquanto a liberdade de expressão é reconhecida no artigo 5º da Lei Fundamental Alemã, seus parágrafos primeiro e terceiro estabelecem a "tríade de limitações ou reservas qualificadas", isto é, as três previsões para restrições da liberdade de expressão: previsões de leis gerais, proteção dos jovens e ao direito da honra pessoal19. Contudo, a jurisprudência da Corte Suprema Alemã foi responsável por estabelecer limites mais claros ao exercício do direito de liberdade de expressão20. Assim, passa a ser punível o discurso de ódio, inclusive em âmbito penal, pois são ilícitos ataques que incitem a violência contra "setores da população [...] determinados pela nacionalidade, raça, religião ou origem étnica"21. Contudo, para doutrina alemã, o grupo atacado deve ser uma minoria (no sentido numérico), com características que o diferenciam do público em geral, a declaração deve atacar a todo o grupo, não apenas a indivíduos, com características que lhe são atribuídas pelo público em geral, e nem pelas características reconhecidas pelo grupo minoritário, como por exemplo, características étnicas, físicas ou mentais. Por fim, já no âmbito da responsabilidade por conteúdo publicado na internet, a Alemanha foi pioneira com a Lei Geral de Fiscalização das Redes (Netzwerkdurchsetzungsgesetz, NetzDG), a qual entrou em vigor em janeiro de 2018. A lei tem como principal objetivo atribuir às redes sociais a função e a responsabilidade pela análise do conteúdo postado22. Com isso, a NetzDG cria duas soluções distintas: a obrigação de indisponibilizar o conteúdo manifestamente ilegal em 24h e, em casos em que a legalidade do conteúdo for discutível, o dever de bloquear ou deletar aquele conteúdo dentro do prazo de sete dias. Necessário a possibilidade de questionar em via judicial tanto a legalidade do conteúdo quanto da medida tomada, de forma a também garantir um controle sobre os entes privados. Além disso, a lei estabelece o dever do site de rede social (SRS) de criar meios para os usuários denunciarem os conteúdos alegadamente ilegais, que devem ser facilmente reconhecíveis, diretamente acessíveis e permanentemente disponíveis. Além disso, devem disponibilizar relatórios frequentes sobre a efetividade dessas medidas. Para casos de descumprimento sistemático, as multas impostas pela NetzDG podem chegar a 50 milhões de euros. Embora outros países da Europa, como Portugal, França e Rússia, já tenham adotado leis similares, parte da doutrina critica o perigo de over-blocking, isto é, o excesso de bloqueios por parte dos SRS's, justificado pelo estímulo criado pela norma para deletar o conteúdo imediatamente, sem promover as análises necessárias. Contudo, uma restrição demasiada de conteúdo não é interessante para os sites, uma vez que os seus interesses econômicos residem na pretensão de serem espaços livres para publicação da opinião do usuário. Além disso, a análise dos relatórios dos SRS's do primeiro ano da lei sugere o contrário, pois é mais comum a análise do conteúdo somente com base nas políticas e diretrizes dos sites do que a análise com base na NetzDG23. Assim, fica claro que a opção privilegia a proteção da vítima de um possível discurso de ódio cibernético, pois a imediata restrição do conteúdo impede o compartilhamento, e consequentemente, a re-vitimização. Por outro lado, ao delegar o dever de análise a entes privados, priorizando a celeridade, o controle primário sobre a legalidade do conteúdo recairia às redes sociais, abrindo margem para discricionariedade. Entretanto, como já ressaltado anteriormente, não se verificou um excesso do uso da ferramenta por parte dos sites, que inclusive tendem a justificar a exclusão do conteúdo de terceiros com base nos termos de uso já existentes. Logo, a NetzDG resultou no maior cumprimento do dever de vigilância já exercido pelos provedores de redes sociais, não pela previsão legal em si, mas por força do próprio termo de uso da plataforma, o qual sujeita qualquer usuário. Vale ressaltar que eventuais abusos ainda estão sujeitos ao controle judiciário, com a vantagem da indisponibilidade do conteúdo antes da ação judicial, em sistema diametralmente oposto ao adotado no Brasil, como já citado anteriormente. O embate envolvendo Elon Musk e o ministro Alexandre de Moraes levanta questionamentos importantes sobre a discricionariedade das decisões judiciais no tocante ao controle da legalidade sobre o conteúdo publicado na internet, sobretudo em processos em que a figura do juiz e do acusador se confundem. Por outro lado, foi colocada em xeque a percepção de uma neutralidade de rede e, além disso, a neutralidade dos algoritmos usados por diversas redes sociais.24 Estes acontecimentos acendem o sinal de alerta para a urgência em regulamentar o tema o quanto antes25. Analisados todos os lados que envolvem o debate, o que resta firme é a necessidade de renovar o sistema brasileiro de proteção da liberdade de expressão na internet, sendo imprescindível a retomada da regulação das redes sociais, o que consolidará a proteção do ordenamento a direitos fundamentais. __________ 1 Saiba mais sobre o caso aqui. Acesso em 26.04.2024 2 Para aprofundamento, confira o documento na íntegra aqui. Acesso em 26.04.2024 3 O empresário postou na sua rede social, onde se lê, em tradução livre "acabei de receber um relatório da Câmara dos Deputados dos EUA sobre as ações no Brasil que ferem a lei brasileira. São centenas, se não milhares. As coisas vão aquecer" Ver aqui. Acesso em 26.04.2024 4 Elon Musk agradeceu os comentários dos deputados federais Eduardo Girão (independente-CE, ), Nikolas Ferreira (PL-MG, ), Coronel Meira (PL-PE, ), Luiz Philippe (PL-SP, ). Todos os links acessados em 28.04.2024, 5 Embora contenha cópias de diversas decisões nacionais e um rol de supostos perseguidos políticos no Brasil, o relatório tem como objetivo primário denunciar uma suposta censura promovida pelo governo Biden. A posição se torna mais clara na página oitava do documento, onde se lê, em tradução livre "O Congresso deve levar a sério os avisos do Brasil e de outros países buscando suprimir o discurso online. Não podemos jamais acreditar que [o mesmo] não pode ocorrer aqui. O Comitê e o Subcomitê Especial conduziram investigações agressivas (...) para trazer à luz a censura promovida pelo governo nos Estados Unidos e para informar remédios legislativos adicionais." 6 Como reportado em Acesso em 26.04.2024 7 Projeto apresentado pelo senador Alessandro Vieira (Cidadania-SE), com objetivo inicial de combater a divulgação de notícias falsas nas redes sociais. O projeto foi aprovado no Senado após diversas mudanças em seu texto que hoje não se limita a regular fake news, mas prevê uma extensa ampliação no quadro normativo sobre regulação das redes sociais. Os críticos do projeto o apelidaram de PL da Censura. 8 FLUMIGNAN, Wévertton Gabriel Gomes. Análise da responsabilidade civil no âmbito do Marco Civil da Internet e da Lei Geral de Proteção de Dados. Disponível em:  https://www.migalhas.com.br/coluna/migalhas-de-protecao-de-dados/343301/responsabilidade-civil-no-ambito-do-marco-civil-da-internet-e-da-lgpd Análise da responsabilidade civil no âmbito do Marco Civil da Internet e da Lei Geral de Proteção de Dados, acessado em 25 de abril de 2024. 9 LIMA, Cíntia Rosa Pereira de. A responsabilidade civil dos provedores de aplicação de internet por conteúdo gerado por terceiro antes e depois do Marco Civil da Internet (Lei n. 12.965/14). Revista da Faculdade de Direito, Universidade se São Paulo, São Paulo, v. 110, p. 155-176, jan/dez, 2015, p.160 10 Sobre moderação de conteúdo vide também: QUINTILIANO, Leonardo David. Redes sociais devem ser responsabilizadas por conteúdo de usuários? Qual o melhor caminho a seguir? Disponível em: https://www.migalhas.com.br/coluna/migalhas-de-protecao-de-dados/406192/redes-sociais-devem-ser-responsabilizadas-por-conteudo-de-usuarios. 11 LIMA, Cíntia Rosa Pereira de. Os desafios à neutralidade da rede: o modelo regulatório europeu e norte-americano em confronto com o Marco Civil da Internet brasileiro. Disponível em: (PDF) Os desafios à neutralidade da rede: o modelo regulatório europeu e norte-americano em confronto com o Marco Civil da Internet brasileiro (researchgate.net). 12 MOZETIC, Vinícius Almada; DE MORAES, José Luis Bolzan; FESTUGATTO, Adriana Martins Ferreira. Liberdade de Expressão e Direito à Informação na Era Digital: o fenômeno das fake news e o "market place of ideas" de Oliver Holmes Jr. Direitos fundamentais & Justiça, 2021, Vol.14 (43), p.331-356. Disponível em Acesso em 28.04.2024 13 FACCHINI NETO, Eugênio. RODRIGUES, Maria Lúcia Boutros Buchain. Liberdade de expressão e discurso de ódio: o direito brasileiro à procura de um modelo. Espaço Jurídico Journal of Law Espaço Jurídico Journal of Law, v. 22, n. 2, 2021, p. 481-516. DOI: 10.18593/ejjl.29220. 14 SARMENTO, Daniel. A liberdade de expressão e o problema do hate speech. Revista de Direito do Estado, Rio de Janeiro, ano 1, n. 4, out./dez. 2006. Disponível em: 15 GROSS, Clarissa Piterman. Pode dizer ou não? Discurso de ódio, liberdade de expressão e a democracia liberal igualitária. 2017. Tese (Doutorado em Filosofia e Teoria Geral do Direito) - Faculdade de Direito, Universidade de São Paulo, São Paulo, 2017. DOI :10.11606/T.2.2017.tde-28082020-013457. 16 LONGHI, João Victor Rozatti. #ÓDIO: responsabilidade civil nas redes sociais e a questão do hate speach. In: MARTINS, Guilherme Magalhães e ROSENVALD, Nelson. Responsabilidade Civil e Novas Tecnologias. Indaiatuba: Editora Foco, 2020, pp. 231-330 17 A 1ª Emenda da Constituição americana, em tradução livre: "O Congresso não fará lei relativa ao estabelecimento de religião ou proibindo o livre exercício desta, ou restringindo a liberdade de palavra ou de imprensa, ou o direito do povo de reunir-se pacificamente e dirigir petições ao governo para a reparação de seus agravos" Fonte original: 18 Sarmento, idem. 19 BARBOSA-FOHROMANN, Ana Paula e SILVA JR., Antônio Reis O discurso de ódio na internet. In: MARTINS, Guilherme Magalhães e LONGHI, João Victor Rozatti. Direito Digital: direito privado e internet. Indaiatuba: Editora Foco, 2019, pp. 3-34. 20 PAMPLONA, Danielle Anne; DE MORAES Patricia Almeida. O discurso de ódio como limitante da liberdade de expressão. Quaestio Iuris, vol. 12, no. 2, 2019. Disponível em: 21 BRUGGER,Winfried. Proibição ou proteção do discurso do ódio? Algumas observações sobre o direito alemão e o americano. Revista de Direito Público, v. 15 n. 117, jan./mar. 2007. Disponível em:  22 BREGA, Gabriel Ribeiro. A regulação de conteúdo nas redes sociais: uma breve análise comparativa entre o NetzDG e a solução brasileira. Revista Dirieto GV: São Paulo, v. 19, ed. 2305, 2023. Disponível em: 23 HELDT, Amélie. Reading between the lines and the numbers: an analysis of the first NetzDG reports. Internet policy review, 2019, v..8, n.2 DOI: https://doi.org/10.14763/2019.2.1398. 24 Vide também: LIMA, Cíntia Rosa Pereira de. Neutralidade da rede e proteção do consumidor no contexto pandêmico, 16 de junho de 2021. Disponível em: Neutralidade da rede e proteção do consumidor na pandemia (conjur.com.br) 25 Argumentos parecidos foram utilizados para aprovar uma lei que visa banir o TikTok, rede social chinesa, dos EUA ainda essa semana. Veja: Ademais, no caso Cambridge Analytica o uso de manipulação algorítmica para criação de "bolhas sociais" teria influenciado diretamentamente a eleição do ex-presidente Donald Trump nos Estados Unidos e a votação britânica para saída do Reino Unido. Para saber mais, acesse: Ambos os links forma acessados em 28.04.2024.
O recente embate envolvendo Elon Musk e o Supremo Tribunal Federal brasileiro reacendeu a discussão em torno da responsabilidade das plataformas digitais por conteúdo gerado por usuários. Trata-se de uma das maiores discussões na era da internet. A quem deve caber o controle das informações veiculadas por usuários de redes sociais (provedores de informação) que podem afetar a honra, intimidade, privacidade ou outro direito de terceiros? Em caso de violação desse tipo, deve ter o provedor de rede social alguma responsabilidade por conteúdo gerado por seu usuário? Exemplificando para o leitor leigo: se Maria utilizar o Facebook para caluniar José, ou postar uma foto dele sem seu consentimento, deverá responder o Facebook por danos morais? O tema é polêmico e gira em torno da existência de um "dever geral de vigilância" por parte do provedor de serviço, no caso plataformas de redes sociais como o Facebook, X, Instagram, Linkedin, entre outros. Na União Europeia, a antiga Diretiva de e-commerce 31/2000 excluía tal dever geral de vigilância em seu art. 15: Artigo 15º Ausência de obrigação geral de vigilância 1. Os Estados-Membros não imporão aos prestadores, para o fornecimento dos serviços mencionados nos artigos 12.o, 13.o e 14.o, uma obrigação geral de vigilância sobre as informações que estes transmitam ou armazenem, ou uma obrigação geral de procurar activamente factos ou circunstâncias que indiciem ilicitudes. 2. Os Estados-Membros podem estabelecer a obrigação, relativamente aos prestadores de serviços da sociedade da informação, de que informem prontamente as autoridades públicas competentes sobre as actividades empreendidas ou informações ilícitas prestadas pelos autores aos destinatários dos serviços por eles prestados, bem como a obrigação de comunicar às autoridades competentes, a pedido destas, informações que permitam a identificação dos destinatários dos serviços com quem possuam acordos de armazenagem.1  No entanto, prevalecia a regra denominada pela doutrina de "notice and take down" (notificação e retirada),2 ou seja, o dever de retirada de conteúdo ilegal após a notificação e conhecimento do referido conteúdo, como constava no artigo 14 da mesma diretiva: Artigo 14º Armazenagem em servidor 1. Em caso de prestação de um serviço da sociedade da informação que consista no armazenamento de informações prestadas por um destinatário do serviço, os Estados-Membros velarão por que a responsabilidade do prestador do serviço não possa ser invocada no que respeita à informação armazenada a pedido de um destinatário do serviço, desde que: a) O prestador não tenha conhecimento efectivo da actividade ou informação ilegal e, no que se refere a uma acção de indemnização por perdas e danos, não tenha conhecimento de factos ou de circunstâncias que evidenciam a actividade ou informação ilegal, ou b) O prestador, a partir do momento em que tenha conhecimento da ilicitude, actue com diligência no sentido de retirar ou impossibilitar o acesso às informações. Em 2022, contudo, a União Europeia aprovou o Regulamento para Serviços Digitais (Digital Services Act - DAS), que passou a vigorar em 17 de fevereiro de 2024, alterando a disciplina anterior.3 O DAS manteve a responsabilidade condicionada dos provedores segundo a regra do "notice and take down", excluindo o dever geral de vigilância: Artigo 8º Inexistência de obrigações gerais de vigilância ou de apuramento ativo dos factos Não será imposta a esses prestadores qualquer obrigação geral de controlar as informações que os prestadores de serviços intermediários transmitem ou armazenam, nem de procurar ativamente factos ou circunstâncias que indiquem ilicitudes. Em geral, a norma europeia isenta as redes sociais de promover uma vigilância sobre as postagens dos usuários, salvo nas seguintes hipóteses: a) que a rede social não participe direta ou indiretamente da postagem, originando a transmissão, ou selecionando ou modificando os destinatários ou conteúdo transmitido; b) não tenha conhecimento efetivo da atividade ou conteúdo ilegal; c) que após conhecimento da ilicitude, tenha agido para suprimir ou desativar o acesso aos conteúdos ilegais. Nos Estados Unidos, o Telecommunications Decency Act, de 1996, também exime os provedores do dever de vigilância: SEC. 230. Protection for private blocking and screening of offensive material.(...) (1) Treatment of publisher or speaker - No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider. (2) Civil liability - No provider or user of an interactive computer service shall be held liable on account of (A) any action voluntarily taken in good faith to restrict access to or availability of material that the provider or user considers to be obscene, lewd, lascivious, filthy, excessively violent, harassing, or otherwise objectionable, whether or not such material is constitutionally protected; or (B) any action taken to enable or make available to information content providers or others the technical means to restrict access to material described in paragraph (1). Assim, no âmbito eurocomunitário e nos Estados Unidos, a responsabilidade da rede social por conteúdo danoso gerado por seus usuários é sempre subjetiva, ou seja, depende da comprovação de sua culpa, incorporando-se a regra "notice and takedown". E qual regra se aplica no Brasil? Em 14.12.2010, o STJ entendeu, no julgamento do Resp 1.193.764, que a Google, mantenedora da antiga rede social Orkut, não seria responsável pela fiscalização do conteúdo das informações prestadas por cada usuário. Posteriormente, o Superior Tribunal de Justiça consolidou a adoção do sistema do "notice and take down", com a necessidade de notificação extrajudicial do provedor de aplicação para retirada de qualquer conteúdo que se entendesse ilícito, a qual deveria ser atendida no prazo de 24 horas, sob pena de responsabilidade solidária.4 Em primeiro lugar, é importante reconhecer que as empresas que controlam redes sociais fornecem um serviço de hospedagem de conteúdo de dados fornecidos por consumidores, assumindo a natureza de relação de consumo.5 Também destaca Bruno Miragem que, mesmo em relações que não sejam consumeristas, mas regidas genericamente pelo Código Civil, a atividade desenvolvida pode gerar, por si, a responsabilidade por risco da atividade (art. 927 do CC).6 Desde 23 de abril de 2014, contudo, está em vigor o Marco Civil da Internet, o qual trouxe previsão específica sobre a responsabilidade das redes sociais por conteúdo de usuários, acolhendo em parte a regra do "notice and takedown".  Assim como na Europa e EUA, o modelo brasileiro não impõe aos provedores o dever geral de vigilância e também os isenta de responsabilidade por conteúdo gerado por seus usuários. Além disso, segundo o artigo 19, não basta o "notice" (recebimento do aviso) para o "takedown" (remoção) - exige-se ordem judicial específica, ou seja, o "judicial notice". O "notice and takedown" foi acolhido em sua totalidade apenas no art. 21, no caso de violação à intimidade decorrente de divulgação, sem autorização, de imagens, vídeos ou outros materiais contendo cenas de nudez ou atos sexuais de caráter privado. O modelo brasileiro assegura maior liberdade de expressão aos usuários, menor censura e mais segurança jurídica para os provedores. O aumento vertiginoso na utilização de redes sociais, contudo, transformou o ambiente virtual em um espaço extremamente vulnerável a abusos cometidos por usuários, expondo-se a honra e a intimidade de terceiros e, de forma mais grave, tornando-se um meio de propagação de notícias falsas e de todo tipo de desinformação, gerando riscos para a ordem pública e afetando de forma concreta direitos individuais e coletivos, como a saúde e a educação e até mesmo políticos, especialmente no que se refere aos processos eleitorais. Tal massiva virtualização das relações sociais nesse ambiente ainda em fase de conhecimento e consolidação de normas espontâneas, como as normas morais e sociais presentes na sociedade tradicional, passou a produzir uma quantidade de conflitos incompatível com a regra prevista no artigo 19 do marco civil da internet.7 Deveras, se todas as postagens ofensivas, caluniantes ou mentirosas dependerem de intervenção judicial para sua remoção, teremos uma paralisia do Poder Judiciário. Para isso, é necessária uma revisão da ultrapassada regra adotada no artigo 19 do marco civil da internet. Uma das propostas é a substituição da medida judicial por outros meios alternativos, como termos de ajustamento de conduta.8 Martins e Longhi  observam ainda que a importação acrítica da regra do "notice and takedown" do direito americano ou eurocomunitário implica uma inversão do ônus da prova em detrimento do consumidor, violando o art. 51, VI, do Código de Defesa do Consumidor. Isso, porque ficaria o consumidor obrigado a provar que notificou a empresa responsável pela rede social solicitando a retirada de conteúdo danoso. Ainda segundo os autores, Em face da vulnerabilidade técnica e informacional do consumidor na Internet, mostra-se excessivo condicionar a responsabilidade do fornecedor a uma atitude prévia do consumidor, o que afronta, inclusive, o principio constitucional do livre acesso ao Judiciário (art. 5.º, XXXV, da CF/1988).9 Martins e Longhi10 defendem ainda a tese da responsabilidade objetiva dos provedores de redes sociais no direito brasileiro por danos causados por usuários a terceiros, à luz do art. 14 do Código de Defesa do Consumidor, o qual dispõe: Art. 14. O fornecedor de serviços responde, independentemente da existência de culpa, pela reparação dos danos causados aos consumidores por defeitos relativos à prestação dos serviços, bem como por informações insuficientes ou inadequadas sobre sua fruição e riscos. Segundo os autores, a responsabilidade objetiva dos provedores de redes sociais se justifica por três fundamentos: a) do controle maciço de informação para obtenção de remuneração mediante contratos de publicidade, b) detenção dos meios técnicos de se individualizar os reais causadores dos danos e c) realização da função social da atividade econômica, corolário da dignidade da pessoa humana (art. 1.º III, da CF/1988) e do princípio da solidariedade social (art. 3.º, I, da CF/1988). Ainda sugerem os autores que o risco do negócio e o pagamento de eventuais indenizações poderia ser embutido nos contratos de publicidade, devendo haver inclusive securitização contra esses eventos danosos.11 Concordamos apenas em parte com esse entendimento. De fato, nos casos em que o controlador das redes sociais utiliza o conteúdo gerado por provedores de informação para fins econômicos, o dano gerado com a informação tratada deve ensejar sua responsabilidade. No entanto, temos ressalvas quanto à responsabilização dos provedores de aplicativos por condutas exclusivamente imputáveis aos usuários. É o caso do uso de uma rede social para ofender ou caluniar alguém, em situações na qual a ofensa não é aferível de plano, ou a veracidade do fato depender de uma análise mais criteriosa. A aplicação do Código de Defesa do Consumidor a essas situações é, de fato, juridicamente possível, afinal o usuário de uma rede social é um consumidor do serviço. O fato de não pagar uma mensalidade, v.g., não desnatura essa relação, consistindo tal contrapartida em decisão livre do provedor. A questão que se coloca para responsabilização do provedor, contudo, encontra paralelo em outras relações consumeiristas em que um dano ao usuário é ocasionado não pelo prestador do serviço, mas por outro usuário. É o caso de um restaurante, de um estádio de futebol ou mesmo de um shopping, por exemplo. Imaginemos que um cliente de um restaurante ofenda outro cliente. Qual a responsabilidade do restaurante por esse ato? O artigo 14 do CDC apenas cria a hipótese de responsabilidade objetiva (sem comprovação de culpa) nos casos de falha de prestação do serviço pelo prestador. Assim, prevalece nos tribunais o entendimento de que uma briga de clientes no interior de um restaurante, por exemplo, não pode ensejar a responsabilidade do restaurante, salvo se for comprovada alguma omissão do estabelecimento.12 Entende-se, assim, que tal responsabilidade é excluída por fato de terceiro ou culpa exclusiva da vítima. A princípio, não vemos grande distinção entre a existência de ofensas ocorridas entre frequentadores de um restaurante, festa, supermercado, cinema, estádio de futebol, provedor de email, whatsapp e os "frequentadores" de redes sociais. Danos causados por usuários ou terceiros em qualquer relação de consumo apenas são imputáveis ao provedor dos serviços no caso de sua omissão ou culpa, o que deverá levar em consideração as peculiaridades da atividade exercida. No caso das redes sociais, contudo, vigora a regra do "'judicial' notice and take down". Tal regra pode ser considerada ruim, mas não é inconstitucional. Trata-se de uma opção feita pelo legislador entre outras que também seriam possíveis e encontrariam fundamento na Constituição brasileira.  Ponderaram-se os diversos princípios e valores constitucionais que informam o tema: de um lado, a liberdade de expressão e a proteção da livre iniciativa, sem a exigência de obrigações excessivamente onerosas; de outro, os direitos fundamentais ligados especialmente à proteção da intimidade, privacidade, honra, criança e adolescente, para citar alguns. No entanto, dada a dificuldade e morosidade da dependência da autorização judicial para remoção de conteúdo danoso, uma alteração legislativa se mostra necessária, adotando-se os exemplos eurocomunitário e estadunidense como referência, especialmente dispensando-se a medida judicial para sua remoção. Já o Projeto de Lei 2.630/2020, em tramitação na Câmara dos Deputados, vai na contramão dessas iniciativas, ao se exigir das redes sociais o dever geral de vigilância, em seu artigo 11, quanto a conteúdo disseminado por usuários que possam configurar alguns crimes ali previstos.13 A imposição desse relativo dever de vigilância pode ser feito sem onerosidade excessiva para as empresas por meio de sistemas de inteligência artificial que rastreiem publicações que veiculem práticas criminosas. Sem embargo, é necessária a criação de um procedimento interno de tratamento de notificações de usuários solicitando a remoção de conteúdo, de maneira fundamentada, por violar a propriedade intelectual, conter expressões ofensivas, discriminatórias ou simplesmente por veicular informações falsas. Após o recebimento da notificação, o conteúdo pode ser previamente suspenso por prevenção, dando-se a oportunidade de o criador ou veiculador exercer o contraditório e a defesa, garantindo-se ao denunciante a réplica ou mesmo a desistência do pedido, mediante convencimento. O sistema pode copiar os mecanismos de online dispute resolution (ODR), muito comuns para solucionar controvérsias entre plataformas de mediação de compras, como o Mercado Livre, Ebay etc. É claro que, na ausência de um acordo, a rede social deve tomar uma decisão sobre a exclusão ou não do conteúdo, o que pode ser feito pela contratação de mediadores ou árbitros. Tal providência seria, inclusive, bastante salutar, reparando-se postos de trabalho eliminados em grande parte pelas mesmas big techs que hoje administram as principais redes sociais do mundo. Desse modo, apenas nos casos em que a moderação de conteúdo na rede social seja questionada é que haveria o acionamento da máquina judiciária. Com o filtro promovido pelas redes sociais, o número de ações certamente seria bem menor. Além disso, com a criação de precedentes e entendimentos sumulados sobre as responsabilidades por tipos de conteúdos veiculados em postagens públicas em redes sociais, o número de demandas judiciais tende a diminuir. Embora já existam alguns mecanismos adotados pelas redes sociais para exclusão de conteúdo danoso, há a necessidade de uma uniformidade de padrões e procedimentos mínimos, o que deve ser feito por alteração legislativa. Nesse sentido, com algumas adaptações, o Projeto de Lei n. 2.630/2020, que aguarda votação no Plenário da Câmara dos Deputados, ao menos no que toca à regra para remoção de conteúdos ilícitos gerados por usuários, propõe uma providência razoável que não destoa de forma significativa - antes até aperfeiçoa - o modelo empregado pela União Europeia no Digital Services Act. As big techs não apenas deveriam se abster de promover lobby contra uma melhor regulamentação do assunto, como já terem criado mecanismos internos de moderação melhor desenvolvidos e aperfeiçoados, como uma medida de compliance e de boas práticas. Seu lucro exorbitante certamente não será afetado. __________ 1 Disponível aqui. 2 Sobre esse tema veja também: FLUMIGNAN, Wévertton Gabriel Gomes. Análise da responsabilidade civil no âmbito do Marco Civil da Internet e da Lei Geral de Proteção de Dados. Disponível aqui, acessado em 25 de abril de 2024. 3 Disponível aqui. 4 Cf. FLUMIGNAN, Wévertton Gabriel Gomes. Análise da responsabilidade civil no âmbito do Marco Civil da Internet e da Lei Geral de Proteção de Dados. Migalhas, 9 abr. 2021. Disponível aqui. 5 MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti. A tutela do consumidor nas redes sociais virtuais responsabilidade civil por acidentes de consumo na sociedade da informação. Revista de Direito do Consumidor, v. 78, p. 191-220, abr./jun. 2011, p. 11. 6 MIRAGEM, Bruno. Responsabilidade por danos na sociedade da informação e proteção do consumidor: defesas atuais da regulação jurídica da Internet. Revista de Direito do Consumidor. vol. 70. São Paulo: Ed. RT, abr.-jun. 2009, p. 41. 7 LIMA, Cíntia Rosa Pereira de. A responsabilidade civil dos provedores de aplicação de internet por conteúdo gerado por terceiro antes e depois do Marco Civil da Internet (Lei n. 12.965/14). Revista da Faculdade de Direito da Universidade de São Paulo, São Paulo, v. 110, p. 173, jan./dez. 2015. 8 MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti. A tutela do consumidor nas redes sociais virtuais responsabilidade civil por acidentes de consumo na sociedade da informação. Revista de Direito do Consumidor, v. 78, p. 191-220, abr./jun. 2011, p. 12. 9 Ibidem. 10 Ibid., p. 13. 11 Ibidem. 12 "APELAÇÃO. RESPONSABILIDADE CIVIL. INDENIZAÇÃO POR DANOS MATERIAIS E MORAIS. Ação ajuizada por consumidora agredida fisicamente por outros clientes em estabelecimento comercial da ré. Sentença de improcedência. Apelo da demandante. Falha na prestação dos serviços, porém, não configurada. Culpa exclusiva de terceiros. Danos que não podem ser atribuídos à omissão da ré. Ausência de nexo causal, pressuposto da responsabilidade civil. Sentença mantida. NEGADO PROVIMENTO AO RECURSO". (v.24628). (TJ-SP - APL: 10052910320148260477 SP 1005291-03.2014.8.26.0477, Relator: Viviani Nicolau, Data de Julgamento: 02/03/2017, 3ª Câmara de Direito Privado, Data de Publicação: 02/03/2017) 13 Disponível aqui.
sexta-feira, 19 de abril de 2024

Inteligência artificial e ética

Discorrer sobre a importância da Inteligência Artificial (IA), na atualidade, há de soar como mero truísmo, a menos que se acrescente algo  -  ou, pelo menos, se tente acrescentar, como pretendo fazê-lo, neste artigo  - , tal como ocorreu na oportuna contribuição de Dom Odilo Pedro Scherer, Cardeal-Arcebispo de São Paulo a esse Jornal, com o artigo Inteligência artificial e paz, na recente edição do dia 13/2. Destacou Sua Eminência, com propriedade, que "a dimensão ética está presente em toda atividade humana, ligada intimamente às decisões e intenções de quem produz e de quem aplica e usa os conhecimentos conquistados", acrescentando não ser "diferente com as diferentes formas e usos da inteligência artificial, capaz de imitar, de reproduzir e até criar ações típicas do homem." Assim, muito mais do que enaltecer os prodígios triunfantes da ciência e das inquestionáveis conquistas das inovações tecnológicas, nosso eminente cardeal põe em relevo a inafastável questão ética, que deve pairar acima, quer das pequenas vaidades pessoais, que parecem medrar cada vez mais na superficialidade cosmética da sociedade contemporânea; quer da visível discriminação algorítmica promovida pelos detentores do poder tecnológico; quer, em última análise, dos grandes interesses privados de dominação e controle. Tornou-se uma desculpa cada vez mais difundida diluir-se a responsabilidade por procedimentos inadequados às falhas do "sistema", como se este fosse o  culpado por todas as violações dos direitos básicos do usuário ou do consumidor. Essa patética tentativa de atribuir culpabilidade aos sistemas autônomos, feita pelos responsáveis por falhas, erros e danos causados a terceiros, não passa de notório arremedo. Como já assinalei no passado, as expressões ética empresarial, ética da empresa, ou, ainda, ética do mercado têm recorrentemente sido usadas por evidente antropomorfismo. Rigorosamente falando, tal emprego é equivocado, pois somente os homens possuem consciência moral e não as instituições por eles constituídas. As exigências éticas decorrem dessa consciência moral, que vem a ser exclusiva do ser humano. Vem-me à mente a seguinte passagem do saudoso Prof. Miguel Reale a respeito das insuficiências da ciência: "O problema do valor do homem como ser que age, ou melhor, como o único ser que se conduz, põe-se de maneira tal que a ciência se mostra incapaz de resolvê-lo. Este problema que a ciência exige, mas não resolve, chama-se problema ético, e marca momento culminante em toda verdadeira Filosofia, que não pode deixar de exercer uma função teleológica, no sentido do aperfeiçoamento moral da humanidade e na determinação essencial do valor do bem, quer para o indivíduo, quer para a sociedade." Esse problema ético, a que se referiu o grande jurisconsulto, é retomado agora, tanto por Dom Odilo Scherer, como pelo Papa Francisco, citado pelo nosso Cardeal, sob o prisma da necessária promoção da paz mundial. A história da humanidade já pôde mostrar ao mundo que grandes invenções do gênero humano foram colocadas a serviço da "banalização do mal", de que nos falava Hannah Arendt. Assim, os receios do Santo Padre são absolutamente fundados e devem ser a preocupação de todos nós: no estado de acrasia ética em que estamos mergulhados neste século XXI, caminhando para trás feito caranguejos (como nos mostrou Umberto Eco, em admirável obra), como acreditar que a inteligência artificial e a máquina de guerra construída pelas grandes potências nucleares não serão usadas contra a dignidade da pessoa humana?... Mesmo em Davos, cidade suíça onde se realiza o  Fórum Econômico Mundial, no qual CEOs de grandes empresas, ricaços globalistas e até mesmo Chefes de Estado se reúnem anualmente para fingir que discutem os destinos do mundo  -  ou para dizer, por exemplo, como o fez a presidente da Comissão Europeia, Ursula Von Der Leyen, que "a maior preocupação para os próximos dois anos" não é o conflito ou o clima, mas sim a "desinformação e a informação incorreta" -, parece que o fascínio pelos encantos da IA, tão decantados no Fórum do ano passado, foi substituído, neste ano, pelas preocupações com os estragos que essa tecnologia poderá causar à humanidade, se não houver adequada e responsável governança, como mostrou a edição do Estadão de 21/1 deste ano. Em suma, todos estão sintonizados com os possíveis problemas que a IA poderá trazer, valendo lembrar o artigo de José Pastore, O futuro do trabalho com a IA (Estadão de 25/1), o de Celso Ming, IA e destruição de empregos (Estadão de 26/1) e, ainda, Temor sobre mau uso da IA alcança as finanças e até a Justiça, matéria da edição do Estadão de 28/1. Concluo estas singelíssimas considerações, lembrando,  como já se disse algures, que o século XXI deverá ser o "Século da Ética" ou, então, poderá ser o último da história da humanidade.
A compreensão das potencialidades da educação digital ultrapassa as lindes da tecnocracia e deságua no clamor por um Estado capaz de dar concretude normativa aos deveres de proteção que lhe são impostos e, em última instância, à promoção da pacificação social (seu telos essencial); mas, sendo a sociedade da informação uma estrutura complexa, também aos cidadãos que tomarão parte desse metamorfoseado modelo administrativo-participativo devem ser conferidos os (novos) mecanismos de inserção e participação social. Um desses mecanismos adquire contornos normativos mais sólidos a partir da promulgação da Política Nacional de Educação Digital - PNED (lei 14.533, de 11 de janeiro de 2023), que detalha mecanismos de capacitação de competências específicas, como as digitais, midiáticas e informacionais. A Política Nacional de Educação Digital - PNED, foi criada devido a uma disposição do Marco Civil da Internet (lei 12.965/2014), que está prestes a completar 10 anos de promulgação. Refiro-me aos seus artigos 26 e 27, I, abaixo transcritos:  Art. 26. O cumprimento do dever constitucional do Estado na prestação da educação, em todos os níveis de ensino, inclui a capacitação, integrada a outras práticas educacionais, para o uso seguro, consciente e responsável da internet como ferramenta para o exercício da cidadania, a promoção da cultura e o desenvolvimento tecnológico.  Art. 27. As iniciativas públicas de fomento à cultura digital e de promoção da internet como ferramenta social devem: I - promover a inclusão digital;  Na sociedade em rede, descrita por Manuel Castells, surge como um desdobramento evolutivo da sociedade permeada pelas Tecnologias da Informação e Comunicação (TICs), configurando uma verdadeira 'nova era' na qual não se pode conceber a vivência social dissociada do acesso universal à Internet.1 Ter acesso à Internet se traduz em uma garantia de inclusão que se mostra 'relevante' para a vida em sociedade. Noutros termos, a 'relevância' - termo utilizado por Tefko Saracevic2 - adquire contornos que alçam a afirmação individual na sociedade da informação, a partir da enunciação de seus respectivos discursos, a um patamar fundamental. A despeito disso, o acesso à Internet não é universal, como se desejaria que fosse. Estatísticas mostram que, no Brasil, pouco mais da metade da população tem acesso à Internet3, o que denota uma enorme carência em termos de conectividade e gera exclusão. É importante registrar, de todo modo, que iniciativas voltadas à positivação desse direito existem no Brasil: (i) em 2011, por exemplo, foi apresentada a Proposta de Emenda à Constituição nº 6 daquele ano, que pretendia fazer constar do rol de direitos sociais do artigo 6º da Constituição o direito de acesso universal à Internet; (ii) mais recentemente, foi apresentada a Proposta de Emenda à Constituição nº 8/2020, que visa incluir expressamente o acesso à Internet no rol de direitos fundamentais do artigo 5º da Constituição. Um dos fundamentos da Lei Geral de Proteção de Dados Pessoais brasileira (Lei nº 13.709/2018, ou simplesmente LGPD) é a autodeterminação informativa (art. 2º, II), que revela essa dimensão de controle capaz de viabilizar as condicionantes para o exercício do equilíbrio sugerido pela leitura do conceito de privatividade. A partir dela, quando se cogita de um direito fundamental à proteção de dados pessoais4-5, deve-se, invariavelmente, proceder a uma investigação sobre as dimensões do conceito de privacidade, na medida em que a formatação de uma possível nova infraestrutura social6, a partir do implemento de técnicas direcionadas à coleta de dados e à formação de perfis para variados fins, representaria ruptura paradigmática capaz de atribuir novos contornos aos mencionados direitos fundamentais à intimidade e à privacidade.7 O saber tecnológico é solução necessária para a promoção do direito fundamental de acesso à Internet na sociedade da informação. Sem que se tenha cidadãos bem instruídos sobre os usos e práticas da tecnologia e das redes comunicacionais, qualquer medida destinada ao fomento da participação popular cairá no vazio. Dito isso, deve-se ressaltar que a Política Nacional de Educação Digital é composta por quatro eixos que, juntos, constituem a base da política em análise. Esses quatro eixos são: Inclusão Digital, Educação Digital Escolar, Capacitação e Especialização Digital, e Pesquisa e Desenvolvimento (P&D) em Tecnologias da Informação e Comunicação (TICs). A Inclusão Digital tem a responsabilidade de abranger todos os indivíduos nesse novo mundo digital. Considerando a significativa assimetria informacional, sobretudo no contexto tecnológico, o objetivo da inclusão digital é reduzi-la, ensinando àqueles que não possuem conhecimento como utilizar dispositivos tecnológicos e os cuidados que devem ser tomados ao manuseá-los, incluindo a vigilância contra crimes cibernéticos. A partir disso, é possível afirmar que, com uma implementação eficaz da inclusão digital, a sociedade brasileira se tornará mais igualitária, especialmente quando vista sob a perspectiva tecnológica. Isso facilitará a transmissão de informações, opiniões e a interação e comunicação entre os indivíduos. O eixo de Educação Digital Escolar tem como principal objetivo promover práticas pedagógicas que tornem o processo de ensino e aprendizagem mais dinâmicos e envolventes. Para atingir esse propósito, a PNED estabelece que o objetivo do eixo é "garantir a introdução da educação digital nos ambientes escolares em todos os níveis e modalidades, promovendo o letramento digital e informacional, além do ensino de computação, programação, robótica e outras competências digitais". O objetivo do eixo de Capacitação e Especialização Digital na Política Nacional de Educação Digital é capacitar a população brasileira em idade ativa, proporcionando oportunidades para o desenvolvimento de competências digitais a fim de promover sua plena integração no mercado de trabalho. O eixo em questão tem como objetivo implementar o uso das Tecnologias da Informação e Comunicação, conhecidas como TICs, ou alternativamente como TDICs, que se referem a Tecnologias Digitais da Informação e Comunicação. Sua função principal é servir como intermediário nos processos de comunicação entre diversos indivíduos. Nesse contexto, a política visa incentivar a pesquisa científica voltada para TICs inclusivas e acessíveis, com soluções de baixo custo. No entanto, lamentavelmente, são poucas as escolas, tanto públicas quanto privadas, que efetivamente incorporam o uso das TICs. Isso resulta em inovação educacional limitada, reduzindo os avanços e deixando as escolas defasadas. O ensino hodierno está intimamente ligado ao preenchimento das necessidades humanas, definidas por Abraham Maslow8 e perfeitamente enquadráveis no contexto da atual sociedade da informação, na qual se impõe o convívio com um novo ambiente chamado ciberespaço, em que a tecnologia atua como um poderoso componente do ambiente de aprimoramento individual. Nesse contexto, é preciso ressaltar que as relações sociais e pedagógicas, assim como os benefícios e malefícios trazidos pelas Tecnologias de Informação e Comunicação, são desdobramentos de comportamentos da própria sociedade, e não consequências da simples existência da Internet.9 Magda Pischetola registra três tipos de "competências digitais":  1) As operacionais: ou seja, o conjunto de habilidades técnicas que permitem ao usuário acessar as aplicações básicas das TICs on-line e off-line, como, por exemplo, o editor de texto, o e-mail, as atividades de busca on-line. 2) As informacionais: habilidades para pesquisar, selecionar e elaborar as informações que se encontram nos recursos da rede. 3) As estratégicas: habilidades para determinar metas específicas orientadas a alcançar outras mais amplas, com o fim de manter ou melhorar sua própria posição social.10  O desenvolvimento dessas competências (ou 'skills', para citar o termo utilizado por van Dijk e van Deursen11), é uma das chaves para a transição à sociedade da informação. Viver sem computadores está se tornando cada vez mais difícil, pois se perde um número crescente de oportunidades. Em várias ocasiões, as pessoas serão excluídas de acesso a recursos vitais. Todo candidato a emprego sabe que a capacidade de trabalhar com computadores e a Internet é crucial para encontrar e obter um emprego e, cada vez mais, para concluir um trabalho. O número de trabalhos que não exigem habilidades digitais está diminuindo rapidamente. A localização de empregos exige cada vez mais o uso de locais de vagas e aplicativos eletrônicos. Nas entrevistas de emprego, os empregadores solicitam cada vez mais certificados ou outras provas de habilidades digitais.12 Firme nesta premissa, infere-se que as plataformas vêm sendo desenvolvidas em, basicamente, três frentes: (i) "educational data mining", que nada mais é do que a mineração de dados voltada especificamente para a educação; (ii) "learning analytics", ou análise de aprendizado; (iii) "adaptive learning", ou aprendizagem adaptada.13 Marshall McLuhan dizia que, "[a]o se operar uma sociedade com uma nova tecnologia, a área que sofre a incisão não é a mais afetada. A área da incisão e do impacto fica entorpecida. O sistema inteiro é que muda".14 Nesse contexto, é preciso ter em mente que, "enquanto a análise de Big Data proporciona a possibilidade de relevar correlações entre os mais distintos eventos, ela não fornece a causa desses eventos".15 Nesse sentido, Edgar Gastón Jacobs Flores Filho lembra que "educar as pessoas para entender, empoderar e engajar pode ser um caminho para reduzir no futuro a opressão algorítmica e os vieses que se expressam em decisões automatizadas por meio de sistemas de inteligência artificial".16 Em conclusão, a LGPD do Brasil e a PNED se entrelaçam em um esforço conjunto para forjar uma sociedade mais igualitária, informada e protegida no cenário digital contemporâneo. Enquanto a LGPD se dedica a estabelecer diretrizes para a proteção de dados pessoais, garantindo a privacidade e a autodeterminação informativa dos cidadãos, a política de educação digital visa promover a inclusão e capacitação tecnológica em todos os níveis da sociedade. Ao endereçar a assimetria informacional e promover uma cultura de segurança cibernética e competências digitais, o Brasil se posiciona proativamente frente aos desafios e oportunidades da era digital. Essas iniciativas são cruciais para assegurar que os benefícios da revolução digital sejam amplamente acessíveis, marcando um passo significativo em direção a um futuro no qual a tecnologia sirva como ferramenta de efetivação de direitos. __________ 1 CASTELLS, Manuel. The rise of the network society. 2. ed. Oxford/West Sussex: Wiley-Blackwell, 2010. (The information age: economy, society, and culture, v. 1), p. 377-378. 2 SARACEVIC, Tefko. Relevance: a review of the literature and a framework for thinking on the notion in information science. Journal of the American Society for Information, Science and Technology, Newark, v. 58, n. 13, p. 1915-1933, out. 2007, p. 6. 3 COMITÊ GESTOR DA INTERNET NO BRASIL - CGI.br. Centro Regional de Estudos para o Desenvolvimento da Sociedade da Informação (Celtic.br). Pesquisa sobre o Uso das Tecnologias de Informação e Comunicação nos domicílios brasileiros - TIC Domicílios, 2017. Disponível em: https://cetic.br/tics/domicilios/2017/domicilios/A4/. Acesso em: 10 abr. 2024. 4 GONZÁLEZ FUSTER, Gloria. The emergence of personal data protection as a fundamental right of the EU. Cham: Springer, 2014. p. 48. 5 Sobre o tema, conferir, por todos, DONEDA, Danilo. O direito fundamental à proteção de dados pessoais. In: MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti (coord.). Direito digital: direito privado e Internet. 5. ed. Indaiatuba: Foco, 2024, p. 45-46. SARLET, Ingo Wolfgang. Fundamentos constitucionais: o direito fundamental à proteção de dados. In: MENDES, Laura Schertel. DONEDA, Danilo. SARLET, Ingo Wolfgang. RODRIGUES JR, Otavio Luiz (coord.); BIONI, Bruno Ricardo (org.). Tratado de proteção de dados pessoais. Rio de Janeiro: Forense, 2021. p. 21-59. Ademais, no contexto jurisprudencial, em maio de 2020, o Supremo Tribunal Federal reconheceu o direito fundamental à proteção de dados ao suspender a Medida Provisória n.º 954, que determinava o compartilhamento dos dados pessoais dos usuários de telefonia pelas empresas telefônicas ao IBGE (STF, ADIs n.º 6.387, 6.388, 6.389, 6.390 e 6.393. Relatora Min. Rosa Weber. Julgado em 07/05/2020). 6 VAN DIJK, Jan. The network society. 3. ed. Londres: Sage Publications, 2012. p. 6. 7 STAPLES, William G. Encyclopedia of privacy. Westport: Greenwood Press, 2007. p. 93. 8 MASLOW, Abraham H. Motivation and personality. 2. ed. Nova York: Harper & Row, 1970, p. 21. 9 MONTEIRO, Renato Leite; CARVINO, Fabrício Inocêncio. Adaptive learning: o uso de inteligência artificial para adaptar ferramentas de ensino ao aluno. In: ABRUSIO, Juliana (Coord.). Educação digital. São Paulo: Revista dos Tribunais, 2015, p. 242. 10 PISCHETOLA, Magda. Inclusão digital e educação: a nova cultura da sala de aula. Petrópolis: Vozes, 2016, p. 42. 11 VAN DIJK, Jan; VAN DEURSEN, Alexander. Digital skills: unlocking the information society. Nova York: Palgrave Macmillan, 2014, p. 1. 12 Comentando o cenário legislativo brasileiro, Renato Opice Blum explica que "(...) pouco adiantará a aprovação de leis para garantir uma segurança maior ao usuário da rede mundial de computadores se ele, antes de iniciar a conexão com um mundo tão rico, tão vasto, tão cheio de informações, mas por vezes perigoso, não for educado digitalmente. Primeiro, é necessário que o usuário, tanto no âmbito pessoal, quanto profissional, e de forma preventiva, seja educado para isso. Por meio de educação voltada para o uso correto da Internet e de suas informações. Esse aprendizado deveria começar na fase escolar e perdurar por toda a vida do ser humano, ante o dinamismo e a abrangência do mundo virtual. Da mesma forma, as escolas devem fazer uso de uma Política de Segurança da Informação, aplicando sistemas eficientes para resguardar o sigilo de suas informações, especialmente de seus alunos. Entretanto, é importante observar que de nada adiantará a escola empresa ter uma estrutura adequada na área de Tecnologia da Informação se os professores, alunos e pais não tiverem consciência da importância de se garantir a segurança da informação." OPICE BLUM, Renato. O Marco Civil da Internet e a educação digital no Brasil. In: ABRUSIO, Juliana (coord.). Educação digital. São Paulo: Revista dos Tribunais, 2015, p. 189-190. 13 Sobre o tema, conferir: MONTEIRO, Renato Leite; CARVINO, Fabrício Inocêncio. Adaptive learning: o uso de inteligência artificial para adaptar ferramentas de ensino ao aluno. In: ABRUSIO, Juliana (Coord.). Educação digital. São Paulo: Revista dos Tribunais, 2015, p. 246; FALEIROS JÚNIOR, José Luiz de Moura; LONGHI, João Victor Rozatti. "Adaptive learning" e educação digital: o uso da tecnologia na construção do saber e na promoção da cidadania. In: BARBOSA, Mafalda; BRAGA NETTO, Felipe; SILVA, Michael César; FALEIROS JÚNIOR, José Luiz de Moura (Coord.). Direito Digital e Inteligência Artificial: diálogos entre Brasil e Europa. Indaiatuba: Foco, 2021, p. 735-737. 14 McLUHAN, H. Marshall. Os meios de comunicação como extensões do homem. Tradução de Décio Pignatari. São Paulo: Cultrix, 2007, p. 84. 15 MONTEIRO, Renato Leite; CARVINO, Fabrício Inocêncio. Adaptive learning: o uso de inteligência artificial para adaptar ferramentas de ensino ao aluno. In: ABRUSIO, Juliana (Coord.). Educação digital. São Paulo: Revista dos Tribunais, 2015, p. 245. 16 FLORES FILHO, Edgar Gastón Jacobs. A educação como um meio para tratar da ética na inteligência artificial. In: BARBOSA, Mafalda; BRAGA NETTO, Felipe; SILVA, Michael César; FALEIROS JÚNIOR, José Luiz de Moura (Coord.). Direito Digital e Inteligência Artificial: diálogos entre Brasil e Europa. Indaiatuba: Foco, 2021, p. 717.
Dedico este texto a todas as crianças brasileiras, incluindo meus netos. Introdução A princípio, a língua falada por um povo, ou por uma nação, pode ser entendida simplesmente como uma ferramenta de comunicação, de troca de símbolos e/ou palavras, utilizada por pelos indivíduos desse grupo no seu cotidiano para transmitir informações e argumentos a outras pessoas. No entanto, quem já morou por longos tempos fora do nosso país sabe a necessidade que temos de conversar usando nossa língua materna quando encontramos um conterrâneo. Seja lá qual assunto for, é um conforto imenso ouvir um som conhecido, usar uma expressão regional, brincar com o sotaque alheio, ouvir uma anedota, lembrar-se de dizeres de nossos pais e amigos, lembrar dos sons que "seu tio" fazia, músicas de ninar, letras marcantes, "ouvir os sons" de frases de livros conhecidos... a língua pode fazer marejar os olhos. É intrínseca ao ser falante. Colou-se nas nossas mentes. Domina formas de expressão que só existem na sua língua originária. Expressões sem tradução. Nesse contexto, não é possível dissociar a língua da cultura, pois ela representa a nação e tem uma relação estreita com a atitude ou comportamento dos grupos de falantes de uma língua. Mesmo que língua e cultura sejam traços distintos, existem muitos elementos que forçam uma relação de proximidade entre eles. Reparem, por exemplo no nosso caso, o caso de um país lusófono, ou seja, que tem a língua portuguesa como oficial ou como língua dominante. Somos um grupo de nove países lusófonos: Angola, Brasil, Cabo Verde, Guiné-Bissau, Guiné Equatorial, Moçambique, Portugal, São Tomé e Príncipe, Timor-Leste. Tomemos, a título de exemplo, três deles: Moçambique, Angola e Cabo Verde. Todos os três foram dominados por Portugal. Quatro contanto conosco. O cristianismo é presente em todos eles, ou seja, fomos formados nos moldes judaico-cristãos, a marca da civilização ocidental. Enquanto Angola já tinha a sua falofa, nós exportamos a nossa farofa. Todos comemos moquecas, feijoada (Portugal inclusive), cocada e mantemos vivo o bolo de mandioca. Nossos ritmos musicais se entrelaçam, nossas obras literárias são permeáveis pelas fronteiras físicas [3]. Embora também sejamos distintos em vários aspectos, todos abraçamos e mantemos a viva a mesma língua. Somos todos "moedas" destas nações, de um lado está a língua e do outro está a cultura. As línguas em número Atualmente são conhecidas mais de 7 mil línguas faladas no mundo. Esse mundo que eu falo é composto por 195 países. Sobram línguas. Entende-se aqui uma língua como um sistema de comunicação completo, ou seja, um sistema envolvendo a língua falada e a língua escrita. Estão fora desta conta, por exemplo, os 32 dialetos diferentes falados na Dinamarca. De todas estas línguas, apenas duas são faladas por mais de um bilhão de pessoas, o inglês e o mandarim [2]. A nossa língua ocupa a nona colocação entre as mais faladas com mais de 230 milhões de falantes, logo após o russo com 258 milhões. Embora 7.139 línguas [3] seja um número bastante grande para 195 países, milhares de línguas correm o risco de entrar em extinção. De acordo com as Nações Unidas, uma língua indígena morre a cada duas semanas [4]. Como vimos, as línguas refletem tradições, ideais, conceitos e entendimentos únicos que nem sempre  podem ser traduzidos. Como afirmou a linguista Anastasia Riehl, as línguas são "uma fonte inestimável de informações sobre a cognição humana" [5]. Guardem esse trecho, "língua como fonte de cognição humana". A cognição é a construção do conhecimento por meio do processamento de informação. Iremos juntar estas partes, língua, conhecimento e informação, adiante neste texto. Grande parte do perigo que ameaça as línguas indígenas é devido à transição do modo analógico (antigo) de vida para a vida digital. Insiro aqui o trabalho digital; a diversão digital; o digital que encurta as distâncias no mundo. Um estudo particularmente preocupante realizado pelo pesquisador András Kornai, um matemático linguista da Universidade de Budapeste, Hungria, previu que "menos de 5% de todas as línguas ainda podem ascender ao reino digital" e alertou que há "evidências de um grande declínio causado pela divisão digital" [4]. Pela colocação do Prof. Kornai, que por sinal não é uma voz solitária neste sentido, a grande ameaça atual às línguas pouco faladas (40% delas têm menos de mil falantes [3]) é a passagem para o mundo digital. Neste sentido, como veremos, está a nossa língua. Bem, o mundo digital reflete, em grande parte, o mundo real. A língua inglesa domina os sites no mundo, pois 52% deles estão escritos em inglês. Na sequência temos: Espanhol (5,5%), alemão, russo, japonês e francês ocupando valores na faixa dos 4% e o português ocupando a sétima colocação com os 3,1% já comentados. Oscar Wilde disse que a memória é o diário que todos carregamos. "A memória guardará o que valer a pena. A memória sabe de mim mais que eu e ela não perde o que merece ser salvo" disse Eduardo Galeano, o escritor As Veias Abertas da América Latina. É uma pena, mas somos um país em que pouco se escreve e, consequentemente, pouco publica na web. Bem, mas o que tudo isso sobre língua tem a ver com a Inteligência Artificial (IA)? Veremos abaixo que a língua está estreitamente relacionada com os rumos das abordagens de IA mais atuais. Vejamos!  As línguas e o estado da arte da Inteligência Artificial Atualmente quem "passa os olhos" sobre algum tema da área de Computação poderá perceber que o foco da área está na Inteligência Artificial. Temas correlatos como a tomada de empregos pela IA, responsabilidade pelas tomadas de decisão e, mais recentemente, os riscos aos direitos fundamentais e a democracia, todos estão de alguma maneira relacionado à IA. O que mudou recentemente no panorama da IA foi a criação bem-sucedida do que chamamos de IAs generativas, ou seja, IAs que geram textos, cartas, memorandos, ofícios, livros, respondem a perguntas, traduzem documentos, geram e fazem mixagem de imagens, vídeos... todos esses elementos, essas diferentes mídias, com uma realidade impressionante. Peças que realmente parecem ter sido geradas por humanos. Aqui mesmo no Migalhas vários artigos já foram publicados sobre este tema. Destaco este de minha autoria [7], o qual discorro sobre alguns detalhes técnicos importantes para o Direito. E o que estas IAs generativas tem a ver com a nossa língua? Bem, focando nas IAs generativas textuais, essas que geram, produzem textos, essas IAs são formadas a partir textos abertos ao público em geral, como por exemplo, quase todo o conteúdo da web, livros abertos e em domínio público, folhetins, propagandas etc. Todo tipo de texto sobre todos os temas em todas as línguas. Estas IAs aprendem a sequência de palavras descritas nestes textos e geram novos textos a partir do modelo textual que criam observando esta sequência gigante de palavras. Estima-se que são centenas de bilhões de palavras, ou até trilhões. Estas IAs são a consagração de um modelo computacional conhecido como modelo de linguagem e que hoje dita o que há de mais novo (e para muitos, assustador) na área de IA. Estas IAs generativas têm nomes já conhecidos, tais como o famoso ChatGPT, da empresa Open AI; o Copilot da Microsoft; a Meta, dona do Instagram, Facebook e WhatsApp, tem o Llama, e a Alphabet (Google) tem o Bard. Provavelmente você já deve ter usado uma destas IAs. Se você fez uma pesquisa recente no Google usando palavras-chave deve ter percebido que a primeira resposta devolvida foi um texto gerado artificialmente, elaborado para responder a sua pesquisa. Essa geração foi de um grande modelo de linguagem, uma IA generativa textual. Se ainda não usou para outros fins, sugiro que não fique para trás e faça seus testes. Dado que o enorme disparate relativo à presença das línguas na web (52% de inglês, e 3,1% para o português) e dado que as grandes big techs são hoje empresas sediadas nos EUA é fácil ver que o estado da arte na IA é construído sobre a língua inglesa. Não obstante as repostas traduzidas destes modelos de linguagem para o português, o cerne destas máquinas generativas é a língua inglesa. Lembram-se que antes, neste mesmo texto, chamamos a atenção para as palavras da linguista Anastasia Riehl que diz que as línguas são "uma fonte inestimável de informações sobre a cognição humana" [5]. Pois então, muito embora estas máquinas ainda não tenham a capacidade de raciocinar como nós humanos, a cognição é a construção do conhecimento por meio do processamento de informação. Lembro que essa informação hoje está toda em inglês e é sobre esta língua que estamos construindo as IAs que iremos adotar no Brasil? Será esse o futuro nosso, perder a soberania e a beleza da nossa língua para uma IA? Não me afeta a dinâmica de uma língua viva quando submetida à globalidade, como é o caso do Brasil. Toda língua viva sofre influências de estrangeirismos. Penso que se nós percebêssemos a semelhança entre os termos "smart phone" e "telefone inteligente" não cometeríamos esse tipo de engano ao nomear o respectivo equipamento que de "inteligente" nada tem. "Performance" parece um termo distinto e profissional, mas talvez evite comentários sobre o real "desempenho" da referida coisa. A coisa pode estar "on sale", mas entre quatro paredes o que convence mesmo a redução de preços, é a "liquidação". A pergunta é até quando devemos ceder a estas tentações? Deve haver um ponto de equilíbrio. Como pode um terminal de "check-in" no maior aeroporto nacional não se comunicar em português com o usuário? Um manual que não tem instruções em português? Um carro em que todos os controles estão etiquetados em inglês? E agora adotaremos uma IA "gringa"? Será que nosso IR, o leão, poderá ser analisado por uma IA estrangeira? Alguns ainda lutam e persistem. Outros já acordaram para o fato já há algum tempo, como a Maritaca AI [8] que é uma empresa brasileira, de Campinas, que desenvolve inteligências artificiais especializadas em domínios e idiomas. Com profissionais ligados à Unicamp, esta empresa criou o primeiro grande modelo de linguagem baseado na língua portuguesa, o sistema Sabiá que hoje está na sua segunda versão, o Sabiá-2, o qual já se mostra competitivo com o ChatGPT. Creio que a partir de iniciativas como essa é que poderemos avançar no conhecimento e nas aplicações que são voltadas aos textos, assim como é o Direito. Espera-se que essa atenção especial à língua portuguesa por parte de um modelo de linguagem criado sobre o português deverá propiciar, gerar e compreender textos que respondem à nossa lógica de argumentação e explanação que pouca ou nenhuma relação tem com o Direito baseado na common law, comum nos países de língua inglesa. Que venham as IAs generativas, é parte inevitável do futuro, mas que venham para nos auxiliar, que fale e que entenda nossos meios e costumes e, por isso, que venha em português. Que fale conosco como nós falaremos com ela. Se as novas tecnologias demandam atenção e, eventualmente, uma regulação por parte da sociedade, demandam também a preocupação com nosso futuro, com a nossa soberania e com a nossa cultura. Espero que, num futuro próximo, nossos descendentes possam decidir se preferem dizer "the book is on the table" ou se lerão as fábulas de Monteiro Lobato para seus filhos. __________  Referências bibliográficas  1. Com ampla diversidade cultural, países lusófonos africanos carecem de atenção do Brasil. Disponível aqui. Último acesso em 3 de abril de 2024. 2. The Most Spoken Languages 2023 Disponível no aqui. Último acesso em 3 de abril de 2024. 3. How many languages are in the world today. Disponível aqui. Último acesso em 3 de abril de 2024. 4.A language dies every 2 weeks. AI can help save them from digital extinction-or accelerate their demise. Disponível aqui. Último acesso em 3 de abril de 2024. 5. Why Are Languages Worth Preserving. Disponível aqui. Último acesso em 3 de abril de 2024. 6. Languages most frequently used for web content as of January 2024, by share of websites. Disponível aqui. Último acesso em 3 de abril de 2024. 7. Oportunidades e dificuldades das IAs (Inteligências Artificiais) generativas no Direito. Disponível aqui. Último acesso em 3 de abril de 2024. 8. Maritaca AI. Disponível aqui. Último acesso em 3 de abril de 2024.  
sexta-feira, 22 de março de 2024

O Uso do ChatGPT e do Gemini no fazer jurídico

Em 2018, o ex-advogado e ex-assessor de Donald Trump, Michael Cohen, foi condenado a 3 anos de prisão após confessar ser culpado por prestar falso testemunho ao Congresso dos EUA e de violar as leis de financiamento de campanha durante o processo eleitoral de 2016, no qual Trump fora eleito. Cohen também confessou ter participado na compra do silêncio de duas mulheres que, supostamente, tiveram relações com Trump, o escândalo envolvia a atriz pornô Stormy Daniels e a ex modelo da revista adulta "Playboy", Karen McDougal, após uma investigação do FBI que encontrou gravações entre Cohen e Trump comentando da compra do silêncio das moças. Cohen começou a cumprir sua condenação ainda em 2018 e, em julho de 2020, a justiça dos EUA decidiu soltá-lo em liberdade condicional, após um pedido de seu advogado, David Schwartz. Passaram-se os anos e a pandemia e, em novembro de 2022, o ChatGPT, da OpenAI foi lançado; em julho de 2023, a Google lançou o Bard (agora chamado Gemini), uma IA generativa concorrente ao ChatGPT, gerando uma grande revolução e debates sobre seus impactos, modos de usar, seus riscos, devido às possibilidades textuais e visuais de uma IA generativa e, também, seus benefícios - nesses debates também se incluiu o mundo jurídico, por óbvio; uma ferramenta que cria textos através de LLM, no caso do GPT, ou LaMDA, no caso do Gemini, em que se calcula a probabilidade da próxima palavra a ser escrita, simulando a linguagem natural humana, logo seria implementada no mundo jurídico. E assim foi. Mas qual a ligação entre IA generativa com o caso Cohen? Bem, em 2023, Michael Cohen enviou a seu advogado, David Schwartz, um documento detalhando 3 casos jurisprudenciais semelhantes ao seu para que ele criasse uma peça a ser apresentada ao juiz federal Jesse M. Furman, solicitando o fim antecipado da supervisão judicial para seu caso, pois Cohen já havia cumprido todos os pressupostos e condições de sua condenação. Assim Schwartz fez, entretanto, o juiz Furman, em 12 de dezembro de 2023, determinou que Schwartz esclarecesse e desse uma explicação detalhada sobre os 3 casos presentes em seu pedido, pois eles não existiam, e qual papel Cohen desempenhou naquela demanda. Michael Cohen admitiu que utilizou o Bard (hoje Gemini), alegando que acreditava que a IA era um super buscador do Google, e enviou os casos a seu advogado David Schwartz. Ambos, Cohen e Schwartz, alegaram na corte que não revisaram os casos citados anteriormente1. Isso não é apenas um caso isolado nos EUA, como demonstra o The New York Times2, dezenas de casos semelhantes de mau uso da tecnologia por atores do sistema judiciário estão se tornando corriqueiros. Outro caso interessante ocorreu em 2023, quando o juiz distrital de Manhattan P Kevin Castel, multou os advogados Steven Schwartz, Peter LoDuca e seu escritório de advocacia Levidow, Levidow & Oberman em U$ 5.0003, porque eles submeteram um pedido judicial com 6 citações de jurisprudência completamente falsas, criadas pelo ChatGPT. O advogado Steven Schawtz admitiu o uso da IA; o juiz Castel, em sua fundamentação à aplicação da multa, alegou que os advogados se abdicaram de suas responsabilidades como advogados quando submeteram os casos falsos a aquele tribunal. No Brasil, como o Migalhas4 já demonstrou, um juiz do TRF da 1ª Região utilizou o ChatGPT numa sentença, mas a IA também gerou casos fictícios de julgados do STJ como fundamentação - o juiz alegou que fora um servidor que criou a peça e ele apenas a assinou. Num outro caso de uso de IA, também divulgado por este Migalhas5, fora protagonizado por um advogado que utilizou o ChatGPT numa peça em que pretendia ingressar numa AIJE como amicus curiae, no TSE, contra o ex-presidente Jair Bolsonaro. O corregedor-geral da Justiça Eleitoral à época, Benedito Gonçalves, além de indeferir o pleito, determinou o desentranhamento da petição e ainda aplicou uma multa por litigância de má-fé no valor de R$ 2.604.  Inteligência Artificial Generativa Alucina  É comum o uso de conceitos biológicos no campo da tecnologia de IAs: redes neurais, "aprendizado" de máquina e, claro, alucinações, por exemplo. Os exemplos que citamos acima, da criação de jurisprudências falsas por IAs generativas como o Gemini e o ChatGPT, são alucinações dessas tecnologias. Diogo Cortiz6 afirma que alucinação ocorre quando a IA gera uma "resposta confiante, mas sem qualquer justificativa nos dados de treinamentos". A resposta de uma IA de linguagem natural é preditiva, ou seja, ela sempre analisa a probabilidade de encaixar a próxima palavra numa sentença de uma forma que a linguagem pareça humana. Uma IA como o ChaGPT, por exemplo, foi treinada com centenas de milhares de textos - e, tanto sua versão gratuita, o GPT 3.5, quanto a paga, o GPT 4, foram treinados numa base de 175 Bilhões de parâmetros - parâmetros são os valores das variáveis que influenciam o algoritmo a criar ou alterar seu comportamento no resultado pedido, quanto maior este número, maior a capacidade de aprendizado e o processamento dessas informações. Mas, há um cuidado importante que os usuários deste tipo de tecnologia precisam ter atenção: IAs generativas que utilizam o Large Languagem Model (LLM) ou o Language Model for Dialogue Applications (LaMDA), não entendem a realidade - é impossível para essas IAs entenderem o que estão escrevendo, as frases, por mais naturais que pareçam, são apenas modelos matemáticos. Vamos explicar melhor. Diogo Cortiz diz que um modelo de LLM, por exemplo, (pode ser o LaMDA), não entende o sentido das palavras, nem as frases que produz. Por exemplo - o ChatGPT tem em sua base de dados as palavras TSE, AIJE, tem também as palavras amicus curiae, dignidade da pessoa humana, acesso à justiça e etc - ele sabe que essas palavras são representações matemáticas que estão próximas de outras representações matemáticas, como "Direito", "Justiça", "Tribunal Superior", por exemplo; então, como é um modelo de linguagem preditivo, o ChaTGPT calcula a probabilidade de encaixar palavras relacionadas a essas duas representações matemáticas uma após a outra. É por isso que IAs de processamento de linguagem natural não são repositório de conhecimento ou de dados - são criadores de textos. Vale ressaltar que a versão paga do ChatGPT, o GPT 4, possui uma vasta biblioteca que utiliza o modelo GPT para diversas áreas, inclusive a acadêmica, onde ele pode anexar links de artigos sobre o tema proposto pelo usuário - entretanto, vale ressaltar que a responsabilidade da verificação das informações propostas pela IA sempre serão do usuário - exatamente porque a tecnologia pode alucinar - o que é diferente de quando o modelo de linguagem gera uma resposta com viés preconceituoso, estigmatizando minorias, por exemplo, pois, assim, a responsabilidade passa a ser da tecnologia (da OpenAI, no caso do ChatGPT e da Google, no caso do Gemini). Um estudo realizado por pesquisadores da Universidade de Washington7 e publicado na Cornell University em 2023, constataram que, quando o GPT ou GPT-4 geram uma alucinação e são solicitados pelos usuários a justificá-las, acabam criando mais alucinações, gerando um efeito cascata. No entanto, se o usuário iniciar uma nova conversa e questionar a IA sobre a veracidade de uma informação previamente fornecida, o GPT 3.5 e o GPT 4 são capazes de reconhecer seus próprios erros em 67% e 87% dos casos, respectivamente.  A responsabilidade em usar o ChatGPT ou Gemini no cotidiano jurídico  Precisamos insistir num assunto: a IA não é a vilã nesses casos que citamos acima, os usos incorretos desses modelos de linguagem podem ser pela falta de educação digital de grande parte da sociedade - o que inclui também a sociedade jurídica - sobre como o ChatGPT e o Gemini atuam criando os textos a partir dos prompts - por isso acreditamos que este artigo possui relevância ao contexto jurídico, mas ressaltamos que a responsabilidade por seu mau uso é do usuário, seja quem for, membros da OAB, da Defensoria Pública, do Ministério Público ou do Judiciário. Observem, tanto a OpenAI quanto a Google advertem aos usuários que seus modelos de linguagem podem fornecer informações inconsistentes e, por isso, necessitam de checagem. Mas, quando utilizada no mundo jurídico, o impacto dessas alucinações podem ser muito ruins. Por exemplo, um advogado representando uma causa legítima ingressa na justiça com várias jurisprudências e literatura jurídica criadas a partir de alucinações de IA, pode ser punido com litigância de má-fé, como vimos anteriormente, e a demanda do cidadão não será atendida? Um juiz que utiliza jurisprudências também criadas por alucinações - qual punição receberá? Ainda não vimos se esse tipo de ação irá ocorrer, pois o caso está sob análise do CNJ, mas a sentença ou decisão pode ser facilmente reformada, visto que parte da fundamentação não existe no mundo material. IA generativa de processamento de linguagem natural pode trazer grandes benefícios no cotidiano jurídico - a revisão gramatical de peças jurídicas, garantindo fluidez e coerência nos textos é só um exemplo do bom uso das IAs. A tecnologia não é assessor jurídico, porque não possui conhecimento, como já abordamos acima, entretanto, ela pode ajudar em trabalhos massificados - a utilização de modelos de petições e peças jurídicas já é utilizada tanto pela Advocacia, pelo Ministério público e pelo Judiciário de forma rotineira - facilitada pela digitalização - mas, pensemos, não seria coerente utilizar qualquer modelo, ou até mesmo não trocar a fundamentação dos modelos ao caso fático? Todos em suas práticas jurídicas já realizam este cuidado, por que não verificar a autenticidade das informações colhidas de IA quando as utilizarem? O uso de IAs generativas de processamento de linguagem natural já está sendo pensado para ajudar em tarefas administrativas de Tribunais, como no TJMG. Mas, diante da expansão do uso de IAs generativas pelo judiciário, ficam as reflexões, sobretudo na área da filosofia do Direito: pode um ChatGPT julgar? Ora, quem realizaria o accountability hermenêutico? Quem seria, na verdade, o sujeito da frase de Carl Schmitt8 (gênio, apesar de ligar-se ao autoritarismo): "Cæsar dominus et supra grammaticam: César também é senhor da gramática" - uma IA que não entende o que escreve não poderia julgar um caso, portanto, ora, o algoritmo não conseguiria responder com precisão quais os critérios utilizados para a decisão sem alucinar. A comissão de ética da OAB, a corregedoria do MP, a corregedoria do Judiciário vão agir como em relação aos "profissionais" que se abstém de estudar o caso e se utilizam da tecnologia para fazer um trabalho intelectual que é somente seu (ou deveria ser)? Não podemos cair no paradoxo pós-moderno: quanto mais informação, mais néscios. ___________ 1 Disponível aqui. 2 Disponível aqui. 3 Disponível aqui. 4 Disponível aqui. 5 Disponível aqui. 6 Disponível aqui. 7 ZHANG, Maru et al. How Language Model Hallucinations Can Snowball. Disponível aqui. 8 SCHMITT, Carl. Positionen und Begrif. Berlin: Duncker und Humblot, 1994.
A compreensão sobre gênero está em constante evolução e se relaciona com as transformações sociais e econômicas mundiais. Nesse contexto, a Lei Geral de Proteção de Dados Pessoais (lei 13.709/2018, ou apenas LGPD) ganha importância, pois busca garantir a proteção dos dados pessoais em um mundo cada vez mais conectado e digital. O Regulamento Geral sobre a Proteção de Dados Pessoais da União Europeia (2016/679(EU)) também é importante marco normativo para o tema, pois define dados pessoais como informações que identificam ou são potencialmente identificáveis de um indivíduo. Já a legislação brasileira vai além, pois apresenta uma diferenciação entre dados pessoais e dados pessoais sensíveis, reconhecendo estes últimos como informações que, pelo que se pode inferir de seu rol enunciativo (art. 5º, II), podem revelar aspectos íntimos da vida. As investigações em relação aos pormenores relacionados às questões de gênero vão além dos conceitos fixos de homem e mulher. Modifica-se a perspectiva do sistema binário da sexualidade apresentado pela sociedade, buscando-se compreender e refletir com a devida atenção sobre as novas formas de sexualidade que ressignificam e reivindicam olhares mais sensíveis para as medidas de proteção e garantia dos direitos relacionados ao gênero, uma vez que estas se fundam na compreensão das relações históricas e sociais acerca o tema. María Lugones1 explica que o sistema de gênero se associa com o sistema social e econômico não apenas de um local específico, mas se atrela a transformações a nível mundial, isso porque, apesar de cada sociedade viver sob um sistema próprio, ocorrem interferências e imposições de um país em relação a outro. Essas questões de dominação se modificam perante as transformações sociais e atingem não apenas a sociedade como grupo, mas também os cidadãos, independentemente do gênero. As correlações das questões de gênero perante a sociedade impõem a necessidade de que sejam identificadas áreas que carecem de análise diligente sobre o assunto. Nesse sentido, vislumbrando o crescimento constante de utilização das Tecnologias de Informação e Comunicação e a consequente importância da LGPD no atual contexto social, necessária a análise do respaldo propiciado por essa legislação para cada espécie de dado pessoal. É de bom alvitre registrar que, para além de uma proteção legislativa dos dados pessoais, a Emenda Constitucional nº 115/2002 acrescentou ao texto constitucional o direito à proteção de dados pessoais, incluindo o amparo como direito fundamental a partir de nova redação expressa, que consta do inciso LXXIX do artigo 5º da Constituição. Sobre o tema, destaca Daniel Piñeiro Rodriguez que "o direito à proteção de dados pessoais figura como garantia de caráter instrumental, derivada da tutela da privacidade, mas sem nela limitar-se, fazendo referência a todo leque de garantias fundamentais que se encontram na constelação jurídica-constitucional"2. Nesse sentido, a legislação brasileira apresenta tanto uma definição em relação a dados pessoais gerais, quanto uma definição para a categoria de dados pessoais denominados como "sensíveis", sendo que, de acordo com a diferenciação indicada pelo artigo 5°, nos incisos I e II, o dado pessoal é a "informação relacionada a pessoa natural identificada ou identificável", enquanto o dado pessoal sensível é definido enunciativamente como sendo aquele relativo a "origem racial ou étnica, convicção religiosa, opinião política, filiação a sindicato ou a organização de caráter religioso, filosófico ou político, dado referente à saúde ou à vida sexual, dado genético ou biométrico, quando vinculado a uma pessoa natural". Maria Celina Bodin de Moraes explica que os dados sensíveis se relacionam com as opções e características essenciais de um indivíduo, que são elementos que podem estar associados a situações de discriminação e desigualdade3. Constatação importante essa para compreender os entrelaçamentos existentes entre os direitos que se encontram resguardados pelo ordenamento jurídico com aqueles que requerem atenção mais específica. No entendimento de Wermuth, Cardin e Mazaro4, "os dados sensíveis estão intimamente ligados a muitos dos direitos da personalidade da pessoa, pois são aqueles que a qualificam individualmente, fazendo com que tenha um lugar único no mundo". E, de fato, a proteção dos dados pessoais está devidamente garantida perante a Constituição e a legislação infraconstitucional, porém, ao analisar as disposições existentes, verifica-se a ausência de abordagem explícita em relação a dados sobre gênero do ponto de vista conceitual/explicativo, pois o que o artigo 5º, inciso II, da LGPD apresenta é uma listagem das categorias que são reputadas como sensíveis para os fins de incidência da lei5. Segundo a doutrina, a ausência de indicação expressa sobre como seriam conceituados os dados sobre gênero gera complexa zona cinzenta, pois a lei ainda apresenta a expressão 'vida sexual' no mesmo rol, o que pode levar a diferentes interpretações. Uma dessas interpretações é a de que, do ponto de vista teleológico, o rol de direitos do titular definido na LGPD incluiria tanto orientação sexual quanto identidade de gênero dentro do contexto de 'vida sexual'6. Por sua vez, a interpretação abrangente do termo permite que se almeje a devida proteção das questões de gênero, não negando, principalmente, o devido amparo à população LGBTQIA+, para além dos fundamentos da Constituição da República brasileira, que seriam devidamente conservados7. Para fins de contextualização, convém lembrar que o primeiro pilar da sexualidade, o sexo, é definido como a conformação física ou morfológica genital constatada no instante do nascimento da pessoa, que haverá de ser consignada na Declaração de Nascido Vivo (DNV) e, ato contínuo, na Certidão de Nascimento da pessoa, atendendo, ordinariamente, ao padrão binário de homem ou mulher. Entretanto, existe um grande número de condições sexuais que não se enquadram nessa dualidade do ideal binário do homem/macho ou mulher/fêmea, caracterizando a figura da pessoa intersexo, situação que pode ser encontrada em até 2% da população mundial8. O gênero, por sua vez, é a expressão social que se espera de quem seja homem/macho (masculino) ou mulher/fêmea (feminino) a partir de expressões socioculturais9. É comum ocorrer confusão entre os conceitos de gênero e sexo, mas o primeiro difere da concepção do segundo. Logo, embora a sexualidade seja parte integrante dos direitos humanos, fundamentais e da personalidade, são recorrentes os equívocos na compreensão dos conceitos vinculados à sexualidade, bem como com a aplicação errônea em diversos documentos oficiais, legislações e decisões judiciais. Fato é que os dados pessoais, se mal categorizados ou inferidos, podem levar a discriminações de gênero porque muitos sistemas e processos que utilizam esses dados operam com base em estereótipos de gênero e normas sociais preconcebidas sobre como homens e mulheres devem se comportar e sobre quais são suas características fenotípicas10. Por exemplo, uma empresa pode usar dados como gênero e idade para decidir quem deve ser contratado para um determinado cargo, assumindo que homens são mais qualificados do que mulheres para certas posições ou que mulheres mais velhas têm menos capacidade de trabalhar em determinadas funções. O debate, então passa a se concentrar na parametrização de deveres, especialmente no contexto delimitado pelos princípios da prevenção (art. 6º, IV) e da não discriminação (art. 6º, IX) da LGPD, o que também abre margem ao debate sobre a imprescindibilidade da responsabilidade civil como instituto apto a solucionar eventuais as contingências decorrentes de situações danosas derivadas do enviesamento algorítmico de dados pessoais sensíveis sobre gênero11. Outra evidência disso é estruturação de revisões das decisões automatizadas (art. 20 da LGPD), que, desejavelmente, devem ser realizadas por agentes humanos (embora essa obrigatoriedade não conste mais do texto da lei). Bárbara Dayana Brasil destaca que "a proteção dos dados pessoais assume especial relevância, tendo em vista o modo como se procede a sua coleta, tratamento e processamento, assim como, a própria utilização dos dados"12. Assim, se a proteção insuficiente não pode ser admitida, sob pena de flagrante violação ao fundamento do inciso VII do artigo 2º da LGPD, que alberga "os direitos humanos, o livre desenvolvimento da personalidade, a dignidade e o exercício da cidadania pelas pessoas naturais", deve-se estruturar mecanismos de controle que atuem como freios aos desideratos que afastem os humanos de sua essência. Embora a legislação brasileira reconheça a diferenciação entre dados pessoais gerais e sensíveis, ainda há dúvidas sobre o escopo de proteção garantido aos dados pessoais sensíveis sobre gênero, às consequências das discriminações de gênero a partir do tratamento de dados pessoais e à responsabilização dos agentes de tratamento. Para mitigar a discriminação de gênero em contextos nos quais dados pessoais sobre gênero são tratados, é possível minimizar a quantidade de dados coletados e implementar medidas de privacidade, como o uso de dados anonimizados em vez de dados identificáveis direta individualmente, ou propensos à identificação por inferência. Também é importante garantir que as equipes responsáveis pelo tratamento dos dados sejam diversas e incluam pessoas de diferentes gêneros, de forma que diferentes perspectivas e experiências sejam consideradas no processo de análise de dados. __________ 1 LUGONES, María. Colonialidad y Género. Tabula Rasa, Bogotá, n. 9, p. 73-102, dez. 2008. 2 RODRIGUEZ, Daniel Piñeiro. O direito fundamental à proteção de dados: vigilância, privacidade e regulação. Rio de Janeiro: Lumen Juris, 2021, p. 181. 3 MORAES, Maria Celina Bodin de. Apresentação do autor e da obra. In: RODOTÀ, Stefano. A vida na sociedade de vigilância: a privacidade hoje. Tradução de Danilo Doneda e Luciana Cabral Doneda. Rio de Janeiro: Renovar, 2008, p. 7. 4 WERMUTH, Maiquel Angelo Dezordi; CARDIN, Valéria Silva Galdino; MAZARO, Juliana Luiza. Tecnologias de controle e dados sensíveis: como fica a proteção da sexualidade na lei geral de proteção de dados pessoais? Revista Jurídica Luso-Brasileira, ano 8, nº 3, p. 1065-1091, 2022, p. 1077. 5 FICO, Bernardo de Souza Dantas; NOBREGA, Henrique Meng. The Brazilian Data Protection Law for LGBTQIA+ People: Gender identity and sexual orientation as sensitive personal data. Revista Direito e Práxis, Rio de Janeiro, v. 13, n. 2, p. 1262-1288, 2022, p. 1265. 6 TEFFÉ, Chiara Spadaccini de. Dados pessoais sensíveis: qualificação, tratamento e boas práticas. Indaiatuba: Foco, 2022, p. 115. 7 COSTA, Ramon Silva. Proteção de dados sensíveis de pessoas LGBTI+: perspectivas sobre personalidade, vulnerabilidade e não discriminação. In: BARLETTA, Fabiana Rodrigues; ALMEIDA, Vitor (Coord.). Vulnerabilidades e suas dimensões jurídicas. Indaiatuba: Foco, 2023, p. 659-674. 8 CUNHA, Leandro Reinaldo da. A sexualidade como elemento juridicamente relevante e a necessidade de compreensão de seus aspectos básicos. Migalhas de Direito e Sexualidade, 26 jan. 2023. Disponível aqui. Acesso em: 10 mar. 2024. 9 CUNHA, Leandro Reinaldo da. A sexualidade como elemento juridicamente relevante e a necessidade de compreensão de seus aspectos básicos. Migalhas de Direito e Sexualidade, 26 jan. 2023. Disponível aqui. Acesso em: 10 mar. 2024. 10 ALMEIDA, Vitor; RAPOZO, Ian Borba. Proteção de dados pessoais, vigilância e imagem: notas sobre a discriminação fisionômica. In: EHRHARDT JÚNIOR, Marcos (Org.). Direito Civil: futuros possíveis. Belo Horizonte: Fórum, 2022, p. 219-250. 11 COSTA, Ramon Silva; KREMER, Bianca. Inteligência artificial e discriminação: desafios e perspectivas para a proteção de grupos vulneráveis diante das tecnologias de reconhecimento facial. Revista Brasileira de Direitos Fundamentais & Justiça, Belo Horizonte, v. 1, p. 145-167, 2022. 12 BRASIL, Bárbara Dayana. Os direitos humanos como fundamento da proteção de dados pessoais na Lei Geral de Proteção de Dados brasileira. In: CRAVO, Daniela Copetti; JOBIM, Eduardo; FALEIROS JÚNIOR, José Luiz de Moura (Coord.). Direito público e tecnologia. Indaiatuba: Foco, 2022, p. 54.
Quando falamos das IAs generativas no desempenho das várias ocuapações jurídicas, acredito que temos que aprofundar dois grandes temas: formação de datasets adequados que permitam desempenho responsável para a IA e possíveis impactos em médio e longo prazo nas diversas atividades que compõem o dia-a-dia das profissões jurídicas. Diversas iniciativas em curso no Brasil parecem que não estão muito atentas ao primeiro tema, mas não trataremos dele diretamente aqui, mesmo sendo objeto de muitas pesquisas em nosso laboratório na Universidade de Brasília. Vamos nos concentrar em aspectos do segundo tema.  Rememoro um artigo de 2023 de Antonio Prata, na Folha de São Paulo, sob o título "Burrice natural, inteligência artificial", pois retoma a ideia fatalista da lógica da competição (e substituição) da inteligência humana pela artificial.  Usando os neologismos "pitbots" e "chatbulls" (resgatando todo o temor ancestral que temos representados pelo estereótipo das feras caninas), se fala que o cenário futuro é recheado de incertezas.  O texto jornalístico destaca a conclusão de que é preciso diminuir a velocidade das inovações e que deveríamos escolher (pois, por enquanto, ainda estaria em nossas mãos) algo próximo a coleiras e focinheiras para a IA. Tenho forte antagonismo a esta ideia, pois, entre outras coisas, parece contrariar elementos típicos da natureza humana, tais como a curiosidade e a criatividade. Não parece crível que a velocidade da inovação, por força daqueles dois elementos (curiosidade e criatividade), tenda a diminuir. Acreditar em algo como uma moratória seria  negar a própria humanidade ou, no mínimo, uma ingenuidade estratégica. No entanto, entende-se muito adequado buscar aprofundamento na compreensão das questões envolvidas e examinar os riscos que se apresentam (que não são poucos!). Logo que as GPTs ganharam espaço, foi publicado um artigo científico sob o título: GPT are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models, mostrando uma visão de pesquisadores da OpenAI, sobre potenciais implicações de modelos generativos (os GPTs) e as tecnologias relacionadas a eles, com o mercado de trabalho norte-americano. A análise é impactante, indicando que cerca de 80% da força de trabalho estadunidense terá, ao menos, 10% de suas rotinas de trabalho alteradas pela IA e cerca de um em cada cinco trabalhadores terá metade da sua rotina impactada pela IA. Um dado relevante (e em forte medida inovador) deste artigo aponta para ocupações com salários mais altos geralmente apresentam maior exposição a impactos pela GPTs. A partir da análise desse artigo e da definição de uma avaliação de pontos de interesse para o mercado jurídico brasileiro, estruturamos uma pesquisa chamada GPTs e Direito: impactos prováveis das IAs generativas nas atividades jurídicas brasileiras (HARTMANN PEIXOTO; BONAT, 2023) em nosso laboratório com abordagens analíticas, avaliativas e descritivas, tendo como objeto o mercado jurídico brasileiro. O trabalho segue, até porque a disponibilidade de dados primários sobre a realidade brasileira é muito escassa o que obrigada o laboratório a produção/estruturação de dados para  os vários objetivos específicos de uma pesquisa abrangente. No entanto, muito já pôde avançar. Obviamente também foi necessário um  recorte de referenciais sobre o mercado de trabalho jurídico, buscando uma posição mais tradicional das ocupações, bem como uma conciliação com algumas tendências atuais de modo a embasar a formulação das hipóteses de impactos das GPTs sobre o mercado jurídico brasileiro. É possível verificar que a "preamar" da IA alterou-se significativamente também a área laboral, com impactos previstos para além das atividades repetitivas do dia-a-dia, havendo a indicação de aumento do impacto em atividades mais complexas, ressalvadas apenas as que apliquem conhecimentos de bases científicas ou habilidades de pensamento crítico, isto é, diretamente proporcional à importância de aplicação de conhecimentos científicos e habilidades de pensamento crítico está o decréscimo de exposição a sistemas GPTs. Uma posição conceitual robusta sobre IA é muito relevante, dentro da vastidão das compreensões possíveis, para uma análise adequada sobre seus prováveis impactos nas ocupações jurídicas. Como mencionado, é importante ter como premissa marcante que todas as atividades realizadas pelos humanos em um computador serão em algum momento impactadas pela IA. Mas é muito relevante perceber a criatividade humana no direcionamento do desenvolvimento de soluções tecnológicas voltadas para o auxílio humano. Isto é perfeitamente possível. Assim, o desenvolvimento, embora contínuo, pode ser direcionado pela função do auxílio, do conforto, da otimização do desempenho e do posicionamento para melhor aproveitamento das habilidades e competências cativamente humanas. Nosso posicionamento é muito assertivo neste sentido. Entendemos que a inadequada lógica da substituição, pois é concorrencial e prejudicial ao pleno desenvolvimento da lógica do apoio. E por desenvolvimento não nos restringimos a uma métrica puramente tecnológica da IA sobre o Direito, ou seja, uma expansão espacial na aplicação de IA, mas uma ampliação com um compromisso prévio com o respeito aos direitos fundamentais1 e a própria concretização deles - e esta postura é compatível com as forças da criatividade e curiosidade. Pode parecer uma distinção puramente semântica do conceito de IA, mas acreditamos que vai muito além disto, pois na medida em que em nossos elementos conceituais há a orientação pela figura de apoio tecnológico, os impactos serão significativamente diferentes.2 Como pôde-se perceber do conceito de IA, a reprodução parcial de atividades cognitivas humanas gera um campo muito grande de famílias de IA. Assim, tendo a clareza de que a IA não se resume às chamadas IAs generativas tem-se que estas GPTs (Generative Pre-trained Transformer) são componentes de uma nova família de ferramentas de IA, cujo conceito já tem alguns anos, mas que têm impressionado a humanidade recentemente pelos seus   impactos, que utilizam modelos de machine learning para geração de conteúdos, por exemplo textos em geral, codificações, expressões artísticas, realização de sumarizações, simulações de diálogos escritos etc. Este impacto recente se deve a maior sofisticação operacional e a amplitude de capacidade de respostas  que as últimas ferramentas têm apresentado. (Não nos esqueçamos dos riscos vindos principalmente da formação inapropriada de datasets!) Aplicações derivadas indicam possibilidades de otimização de desempenho e redução de custos na execução de diversas tarefas muito comuns às ocupações jurídicas. Ao contrário do que a literatura descritiva dos usos e aplicações de LLMs vinha identificando, sugerindo-se aplicações rotineiras e mais elementares, quando o tema é impacto profissional, o artigo que nos inspirou permite a percepção de uma importante novidade: o impacto se intensifica em atividades com maiores salários. Atividades ligadas a habilidades de programação e escrita tem indicativo de alta exposição à GPT. O fator limitante, por outro lado, são atividades que requerem habilidades de pensamento crítico ou fortemente ligadas à aplicação de conhecimentos científicos, ou seja, é relevante para a compreensão do alcance da GPT a variabilidade de habilidades para preparação da execução de um trabalho.  Um dado importante ao se analisar a pesquisa é a indicação que cerca de 28% a 40% da variação de exposição de uma determinada área de trabalho não tinha identificação de impacto face à presença de outras tecnologias anteriores. Este importante percentual, pode-se dizer assim, inaugura um ponto de inflexão sobre análises de impacto da IA no trabalho, isto é, a preamar da IA alterou-se significativamente também na área laboral. Embora os impactos das GPTs sejam generalizados, o artigo paradigma apresenta alguns destaques na área laboral com forte exposição à GPT: setores de processamento de informações ou que contam com o desenvolvimento de tecnologias complementares. Neste mesmo sentido, com o potencial uso geral das LLMs, de forma reflexa, promove um incremento de um desafio tanto para os formuladores de instrumentos regulatórios, quanto para políticas públicas e de boas práticas. De um modo geral, é muito presente a percepção que o trabalho que envolve rotinas repetitivas está mais sujeito a um deslocamento em razão da tecnologia3. Situamos este fenômeno ao colocar o papel de apoio que a IA tem a exercer no campo do desempenho profissional4. Também há que se destacar um fenômeno interessante sobre a ótica laboral associado a este deslocamento de tarefas que é o aumento de necessidade de novas tarefas (por novos conhecimentos, habilidades e competências) em razão da própria tecnologia.5 Também é necessário manter o entendimento que ao considerar o trabalho humano como um conjunto de tarefas associadas, seria raro imaginar uma ocupação para a qual as ferramentas de IA não pudessem executar total ou parcialmente uma tarefa (ELOUNDOU, et. al., p. 5. 2023). A vastidão de possibilidades para análise do mercado jurídico de trabalho impõe uma série de desdobramentos do estudo da temática que estão sendo conduzidos em nosso laboratório. Há uma grande dificuldade para encontrar uma base de dados atual e que realmente reflita a realidade das ocupações jurídicas brasileiras. Até mesmo no âmbito das profissões regulamentadas há um déficit informacional e de atualização muito importante6. O Ministério do Trabalho e Emprego - MTE disponibiliza a denominada Classificação Brasileira de Ocupações - CBO, aprovada pela Portaria 397, de outubro de 2002. Tal organização, desenvolvida a partir da década de 80, apresenta uma estrutura que considera ocupações mais tradicionais na atividade jurídica. Em nosso artigo publicado na Revista Sequência (HARTMANN PEIXOTO; BONAT,2023) realizamos a estruturação de parâmetros e hipóteses sobre os impactos nas atividades jurídicas. Aqui gostaria de destacar que cerca de 40% das atividades jurídicas altamente impactadas por sensibilidade a dados não possuem atenuantes de impacto e, portanto, podem ser severamente impactadas pela IA. Despachos de diversas naturezas, preparo de informações, trabalhos de assessoramento, assistência, atos de gestão e procedimentos automatizáveis se destacam. Assim, como hipótese, nas atividades levantadas, tem-se que as atividades constantes da Tabela 1 como as que sofrerão maiores impactos das GPTs: Tabela 1. rol de atividades jurídicas associadas ao provável impacto das GPTs ID ocupações impacto de dados índice excludentes de impacto (0-1-2) provável impacto GPTs 1 despachar alto [2] [0] [2] 2 preparar informações alto [2] [0] [2] 3 firmar compromisso alto [2] [0] [2] 4 assessorar alto [2] [0] [2] 5 assistir alto [2] [0] [2] 6 promover lotação alto [2] [0] [2] 7 promover distribuição de pessoal alto [2] [0] [2] 8 homologar atos alto [2] [0] [2] 11 apurar liquidez e certeza de dívidas alto [2] [0] [2] 12 promover execução de dívidas alto [2] [0] [2] 13 inscrição e controle de dívidas alto [2] [0] [2] 19 unificar jurisprudências alto [2] [0] [2] 21 editar enunciados alto [2] [0] [2] 24 formular regimentos alto [2] [0] [2] 25 instaurar processos administrativos alto [2] [0] [2] 34 fixar interpretação alto [2] [0] [2] 40 acompanhar andamento de processos alto [2] [0] [2] 41 apresentar petições interlocutórias alto [2] [0] [2] 45 identificar repetições de processos alto [2] [0] [2]   Desta avaliação também é possível levantar outra hipótese (que aliás está também apontada no artigo paradigma). Atividades típicas a carreiras  com padrão remuneratório maior podem ser impactadas diretamente pelas famílias GPTs, tais como: distribuição de pessoal, homologações de atos ou edição de enunciados. Assim, quanto ao alcance, é possível perceber uma linearidade em todas as ocupações jurídicas, que terão sua rotina de trabalho fortemente impactada pelo desenvolvimento das GPTs. Note-se que a partir da indicação de 45 atividades avaliadas, aquelas destinadas à reflexão e análise crítica não se encontram entre as mais impactadas, pois a elas são aplicadas atenuantes. Essa percepção nos encaminha à evidência de que as atividades jurídicas de maior complexidade nos direcionam ao conceito utilizado em nossas pesquisas de uso da IA como apoio da atividade decisória e de compreensão do Direito, não gerando, nesse primeiro momento, a substituição de atividades jurídicas complexas. Isso sugere um ponto de constatação: embora atividades com maior valor remuneratório tenham grande impacto, atividades de natureza personalíssima seguem possuindo alto valor de mercado. Cabe aqui, inclusive, uma analogia: o uso da internet propiciou às atividades jurídicas uma grande mudança de gestão de trabalho. Da contratação de empresas para leitura dos Diários Oficiais para o sistema push, da busca de jurisprudência no catálogo LEX ou nas bibliotecas dos Tribunais para o uso de plataformas digitais; das sessões presenciais de julgamentos para julgamentos virtuais. As atividades jurídicas sempre sofreram forte impacto pelo uso da tecnologia. O uso estratégico de informações sobre impactos pode, com o auxílio inclusive de IAs generativas, propiciar política pública estratégica e sensível a tais mudanças, fazendo o Estado agir através da regulação minimizando impactos negativos.(Aliás, o Brasil tem oportunidades históricas sob o ponto de vista regulatório que não podem ser perdidas!)    Uma hipótese que precisa ser urgentemente trabalhada sobre o mercado jurídico brasileiro e a grande quantidade de indivíduos habilitados pelo bacharelado que estão ficando de fora das atividades jurídicas. Será que as habilidades recebidas nos bacharelados não estão em sintonia com as demandadas pelo mercado jurídico contemporâneo? Avaliar competências e habilidades desenvolvidas nos cursos de bacharelado a partir desses impactos é fundamental para criação e desenvolvimento de novas atividades que serão necessárias para operar com um mundo mais digital. Há um campo gigantesco de análise e avaliações sobre dados, onde os conhecimentos ditos especialistas, isto é,  para os que têm conhecimento especializado sobre o Direito, têm grandes oportunidades de ocupação.  Referências BONAT, Debora; HARTMANN PEIXOTO, Fabiano;. Inteligência Artificial e Precedentes Coleção Direito, Racionalidade e Inteligência Artificial. 1a edição. v. 3. 2020. Curitiba: ed. Alteridade. ISBN 978-65-991155-0-9.  DR.IA. Site do Grupo de Pesquisa. Disponível aqui.   ELOUNDOU, Tyna; MANNING, Sam; MISHKIN, Pamela;ROCK, Daniel. GPTs are GPTs: an early look at the Labor Market impact potential of Large Language Models. arXiv:2303.10130v4 [econ.GN]. 2023. Acesso em 24 de abril de 2023.  HARTMANN PEIXOTO, Fabiano; BONAT, Debora. GPTs e Direito: impactos prováveis das IAs generativas nas atividades jurídicas brasileiras. v. 44 n. 93 (2023): Seqüência - Estudos Jurídicos e Políticos HARTMANN PEIXOTO, Fabiano; BONAT, Debora. Inteligência Artificial e Processo Judicial: otimização comportamental e relação de apoio. Revista Humanidades e Inovação - UNITINS v. 8 n. 47 (2021): Inovação, Novas Tecnologias e o Futuro do Direito I. 2021. Disponível em https://revista.unitins.br/index.php/humanidadeseinovacao/article/view/5710. Acesso em 30 de abril de 2023. HARTMANN PEIXOTO, Fabiano; SILVA, Roberta Zumblick Martins da. Inteligência Artificial e Direito. Coleção Direito, Racionalidade e Inteligência Artificial. Curitiba: Alteridade, 2019. HARTMANN PEIXOTO, Fabiano Inteligência Artificial e Direito: Convergência Ética e Estratégica. Coleção Direito, Racionalidade e Inteligência Artificial. Curitiba: Alteridade, 2020. HARTMANN PEIXOTO, Fabiano. Projeto Victor: relato do desenvolvimento da inteligência artificial na repercussão geral do Supremo Tribunal Federal. Revista Brasileira de Inteligência Artificial e Direito, v. 1, 2020. RBDI. AID-IA. 2020b. Disponível aqui.  PRATA, Antonio. Burrice natural, inteligência artificial. Coluna do jornal Folha de São Paulo, dia 25/03/2023.  SIQUEIRA, Dirceu Pereira; MORAIS, Fausto dos Santos; DOS SANTOS, Marcel Ferreira. Inteligência artificial e jurisdição: dever analítico de fundamentação e os limites da substituição dos humanos por algoritmos no campo da tomada de decisão judicial. Revista Sequência Estudos Jurídicos e Políticos. v. 43 n. 91. 2022. DOI. Acesso em 20 de fevereiro de 2023. ZHU, Qihao; LUO, Jianxi. Generative pre-trained transformer for design concept generation: an exploration.Disponível aqui. Acesso em 20 de abril de 2023. ___________ 1 Siqueira; Morais e dos Santos sintetizam: "A aplicação de ferramentas de IA à tomada de decisão judicial deve partir de uma filtragem constitucional que perpasse pelos princípios do devido processo legal, do acesso à justiça, do contraditório e do dever de fundamentação das decisões judiciais."(SIQUEIRA; MORAIS; DOS SANTOS, p. 3, 2022) 2 Há uma série de pesquisas ou P&Ds (algumas já publicadas) outras em andamento no laboratório DR.IA_UnB que partem desta concepção lógica, que afeta o impacto da IA sobre o Direito. As atividades, materiais e produtos estão disponíveis no site www.dria.unb.br. Sobre a lógica de apoio (ao longo do processo judicial) desenvolvemos que "Uma ação de apoio a essa etapa já é, per se, relevante, pois pode indicar uma série de cenários, racionalizar esforços e auxiliar estratégias. Em um espectro ampliado, um sistema de apoio que consiga também organizar o relato de um caso pode ser benéfico ao cidadão comum, sob o ponto de vista de melhorar sua compreensão dos direitos envolvidos em determinada situação e ser um importante fator de incremento de cidadania" (HARTMANN PEIXOTO; BONAT, 2021, p. 13). 3 Já trabalhamos sobre os impactos em rotinas jurídicas repetitivas e enfadonhas, por exemplo, no livro:  Inteligência Artificial e Direito (2019) e  Inteligência Artificial e Precedentes (2020) na  Coleção Direito, Racionalidade e Inteligência Artificial da editora Alteridade. 4 O papel de apoio da IA está no centro das pesquisas do grupo DR.IA e pode ser visto no  relato do Projeto Victor (HARTMANN PEIXOTO, 2020b): Projeto Victor: relato do desenvolvimento da inteligência artificial na repercussão geral do Supremo Tribunal Federal. Revista Brasileira de Inteligência Artificial e Direito. 5 O artigo paradigma aborda esta questão na passagem: "More recent studies have distinguished between technology's task-displacement and task-reinstatement effects (where new technology increases the need for a wider array of labor-intensive tasks) (Acemoglu and Restrepo, 2018, 2019). Several studies have shown that automation technologies have resulted in wage inequality in the US, driven by relative wage declines for workers specializing in routine tasks (Autor et al., 2006; Van Reenen, 2011; Acemoglu and Restrepo, 2022b)." (ELOUNDOU, et. al., p. 5. 2023) 6 Esta dificuldade impõe limites à formulação de hipóteses ao presente artigo e impulsionou o desenho de um projeto de pesquisa dentro do DR.IA que busca formar um dataset mais completo sobre as ocupações jurídicas, com descrição das principais atividades da rotina, habilidades e formação necessárias.
Introdução A Inteligência Artificial (IA), sobre a qual temos comentado muito ultimamente, trouxe uma nova modalidade de notícia intencionalmente enganosa que são as deepfakes. Esse novo conceito de fake news é fruto da fabricação de notícias enganosas em formato audiovisual de modo hiper-realista por meio das chamadas IAs generativas. Lembro que as IAs generativas são um tipo de sistema computacional baseado em redes de aprendizado profundo (deep learning) capazes de gerar textos, imagens ou outras medias em resposta a solicitações escritas em linguagem comum. Entro em mais detalhes sobre essas redes generativas mais adiante. Muitos devem ter assistido à um comercial de uma montadora de automóvel que foi veiculado em julho do ano passado em que a cantora Maria Rita contracena com sua mãe, Elis Regina (falecida em 1982, cuja imagem foi recriada por uma IA generativa), provocando um efeito visual que sugestionava uma participação de ambas no tempo presente1. Nesse comercial uma atriz dublê deu corpo à Elis Regina, e o rosto da Elis foi inserido depois utilizando ferramentas tipo as usadas em deepfakes. Não podemos chamar esse uso de IA de fake news, pois a intenção da propaganda não foi a de enganar o consumidor, embora este seja um bom exemplo do poder das IAs generativas, recriar o passado para modelar o presente. Deixo aqui uma dica bônus sobre um artigo do Migalhas no tema regulação da IA na propaganda2. Antes de entrarmos na polêmica sobre se o conceito de deepfake nasceu ou não no século XIX, vamos usar uma abordagem atual e pouco legal para a construção deste artigo, vamos conhecer mais sobre o presente para julgarmos o passado. Sendo assim, vamos conhecer mais sobre deepfake. Conhecendo mais sobre deepfake Sobre a palavra: A palavra "deepfake" é uma amálgama, uma combinação dos termos "deep learning" e "fake news". Já o conceito de deepfake remete às técnicas computacionais usadas para trocar o rosto de pessoas em vídeos, sincronizar movimentos labiais, elaborar expressões faciais e demais detalhes buscando resultados impressionantes e bem convincentes. Ou seja, criar um vídeo falso com uma voz falsa e que serve para confundir ou iludir o usuário. O conceito não é novo. Uma das origens aponta para um usuário da plataforma Reddit (uma rede social), de codinome deepfakes, que usou ferramentas de IA e aprendizado de máquina para criar um algoritmo para treinar uma rede neural para mapear o rosto de uma pessoa no corpo de outra. Isso ocorreu em 2017. Deepfake não pode ser confundida com shallowfake. Enquanto deepfake usa técnicas sofisticadas para criação de vídeos, sons e fotos, shallowfake utiliza técnicas refinadas de edição de sons e imagens. Ambas têm a intenção de fraudar, lograr, confundir o consumidor da notícia. Tanto deepfake quanto shallowfake se tornaram grandes preocupações do STF nas eleições de 20223. Shallowfake foi usada para mapear a voz de uma apresentadora do Jornal Nacional divulgando uma falsa pesquisa de intenção de votos. Enquanto isso, deepfake era ainda um problema aparentemente alheio com exemplos na Ucrania sobre um suposto discurso de rendição do presidente da Ucrânia Volodymyr Zelensky frente às imposições do seu adversário na guerra, o presidente da Russia Vladimir Putin, e exemplos anteriores, como na eleição norte-americana de 2020 quando Barack Obama aparece num fake vídeo chamando Donald Trump de "um idiota completo"4. Ferramentas tais como Reface, Zao, e FSGAN são usadas com intuito enganoso. O Reface é um aplicativo que usa IA para trocar rostos em imagens e memes famosos a partir de uma lista de exemplos oferecidos pelo aplicativo. Zao, um aplicativo muito popular em seu país de origem, a China, foi lançado em 2019 e também tem o objetivo de trocar rostos de pessoas em fotos e vídeos. Num outro espectro mais sofisticado temos o software Face Swapping GAN (FSGAN), aplicativo para a troca e reconstituição de rostos. Ao contrário dos anteriores, o FSGAN é independente do assunto e pode ser aplicado a pares de faces sem exigir treinamento nessas faces. O termo GAN no nome deste software refere-se ao que é chamado de rede adversária generativa, ou Gan do termo inglês generative artificial network. A Gan coloca dois algoritmos de inteligência artificial um contra o outro. O primeiro algoritmo, conhecido como gerador, alimenta ruído aleatório e o transforma numa imagem. Esta imagem sintética é então adicionada a um fluxo de milhares de imagens reais - de celebridades, digamos - que são alimentadas no segundo algoritmo, conhecido como discriminador. A princípio, as imagens sintéticas não se parecerão em nada com rostos. Mas repita o processo inúmeras vezes, com feedback sobre o desempenho, e o discriminador e o gerador aperfeiçoam a imagem. Com ciclos e feedback suficientes, o gerador começará a produzir rostos totalmente realistas de celebridades completamente inexistentes. Fazer um deepfake usando uma GAN não é tão simples assim devido ao trabalho de elaborar uma coleção de imagens usada para treinar essas redes neurais. Muitas vezes são usadas entre 5 e 10 mil imagens neste aprendizado. A pessoa responsável por projetar essa estrutura de aprendizado de máquina foi Ian Goodfellow, que era aluno de doutoramento na Universidade de Montreal em 2014, época em que trabalhava nos primeiros GANs com colegas universitários e seu orientador, Yoshua Bengio5. A preocupação com o uso destas técnicas computacionais para gerar fake news nestas eleições municipais já começou6. Ressalto, porém, que tudo tem seu outro lado e essas ferramentas de IA não necessariamente precisam ser usadas desta maneira. Estas IA generativas, a exemplo destas GANs, são usadas para outros fins bem mais nobres. A exemplo do artigo do Prof. Juliano Maranhão7, elenco algumas das possibilidades de uso inteligente, genuíno, puro e fidedigno das IAs. Foquemos nas campanhas eleitorais que usam várias mídias distintas, como TV, rádio, redes sociais e mídia impressa. O conteúdo a ser gerado pode ser criado, potencializado e melhorado com o uso destas IAs que geram imagens e vídeos sintéticos, podem ser usadas para gerar textos e discursos da campanha, corrigir estes textos, resumir os programas de governo, melhorar a resolução de imagens, construir textos com base em imagens, gerar texto a partir de vídeos, enfim, podem reduzir os custos comparativamente aos serviços que demandam produção humana e podem aumentar a produtividade das agências. Enfim, os recursos estão aí, cabem às pessoas fazerem suas escolhas sobre como usar estas tecnologias. Voltando ao questionamento original sobre o início das deepfake ter ocorrido no século XIX, vamos a um pouco de história. O que talvez seja a primeira deepfake Sabemos que a fotografia foi inventada, criada, no século XIX, mas essa criação não é reconhecida como sendo de um único inventor. Desde muito antes desta data a humanidade já conhecia técnicas para criar imagens a partir da luz natural, mas ninguém sabia como fixar as imagens criadas numa mídia, quer seja papel, metal ou o que depois conhecemos como filme fotográfico. No entanto, a partir de 1830 muitas pessoas descobriram métodos distintos de fixação de imagens8. Dentre estas pessoas destacamos Hyppolyte Bayard9 quem em 1839 criou um método fotográfico que consistia em mergulhar um papel numa emulsão de agentes químicos fotossensíveis, acomodar este papel numa câmara escura e expô-lo à luz natural através de um pequeno orifício aberto neste dispositivo. Bayard era mais que um funcionário público, era também um artista nato com gosto pela jardinagem e quem talvez tenha criado as primeiras selfies em que ele aparecia de olhos fechados devido à longa exposição à luz que seu método fotográfico demandava. Pena que não é esta a história da fotografia que conhecemos. Já ouvimos que o pioneiro da fotografia foi Louis Jacques-Mandé Daguerre (1787 - 1851), homenageado pela invenção do processo fotográfico daguerreótipo pela Academia Francesa de Ciências e pela Académie des Beaux Arts em 183910. Daguerre era um pintor e gravador romântico, famoso na sua época como proprietário do Diorama, um teatro que nos anos de 1820 encantava o público parisiense com pintura teatral e efeitos de iluminação. No entanto sua obsessão pela fixação de uma imagem numa placa de metal continuou até 1830 quando criou o daguerreótipo que era uma imagem única fixada numa folha de cobre banhada a prata altamente polida. Embora fosse um sujeito muito conhecido em Paris, Daguerre comentou sobre seu invento à poucas pessoas influentes na sociedade francesa. Por outro lado, Bayard estava disposto a compartilhar sua invenção com todos e em junho 1939 ele foi o primeiro fotógrafo a exibir suas fotos ao público quando organizou uma exposição de seus trabalhos artísticos. Bayard tinha a intenção de mostrar seu processo fotográfico para a Academia Francesa de Ciências, mas é neste ponto que entra em cena um político ardiloso de nome Francois Arago. François Jean Dominique Arago (1786 - 1853) foi um físico, astrônomo e político francês. Como político chegou a ser ministro por duas ocasiões e como físico suas descobertas da polarização cromática da luz e a polarização rotatória são muito conhecidas. Em 1811, trabalhando com Augustin Jean Fresnel, descobriu um novo processo de decompor a luz branca. No entanto, como presidente da Academia Francesa de Ciências, Arago tinha uma predileção pelos trabalhos de Daguerre. Em 1838, conhecendo seus trabalhos fotográficos, ele fechou um acordo com o governo francês para comprar os direitos sobre o processo de criação do daguerreótipo. Arago gostaria que a nova fotografia fosse um presente da França para o mundo. Paralelamente, Bayard chegou a mostrar seus trabalhos para Arago, mas ele protelou a apresentação de Bayard para a Academia até que fosse finalizado o acordo entre o governo francês e Daguerre, deixando assim Bayard "a ver navios". O governo divulgou o processo de Daguerre ao mundo. O processo se espalhou como "fogo em palha". Daguerre recebeu uma pensão vitalícia pelo seu invento e ficou conhecido pelo mundo todo como o criador do primeiro processo fotográfico. No entanto, Bayard partiu para a revanche. Ele chegou a demonstrar o seu trabalho para a Academia Francesa poucos meses depois de Daguerre, mas o processo de divulgação do daguerreótipo estava mais avançado e a Academia não se interessou. Foi nessa desilusão que Bayard cometeu seu "suicídio". Em 1840 Bayard publicou uma fotografia granulada de um cadáver parcialmente coberto encostado a uma parede. A imagem mostra um cadáver em aparente decomposição dado o escurecimento da pele do rosto e das mãos. O corpo e a face retratados são de Hippolyte Bayard, um dos primeiros inventores de processos fotográficos e agora é exposto como uma suposta vítima de afogamento. É no mínimo estranho o próprio autor publicar seu autorretrato já falecido. Atualmente, essa imagem da Bayard11 é tida como a primeira fake image e foi criada em protesto pela falta de reconhecimento que recebeu por suas contribuições para a invenção do meio fotográfico em papel. Imaginem vocês vendo uma imagem publicada em 1840 de uma pessoa morta. Isso numa época em que a única mídia de divulgação existente era a mídia impressa. As transmissões radiofônicas só iniciariam no século seguinte. Assim, uma manipulação fraudulenta e enganosa desta única mídia existente deveria refletir algo genuíno, real, o que se encaixa plenamente no conceito de deepfake atualmente. Vimos um pouco de história e um pouco de tecnologia para mostrar que, à despeito das inovações científicas, as velhas e sórdidas práticas continuam as mesmas. As tecnologias evoluem, mas a perfídia é a mesma. __________ 1. Comercial Volkswagen 70 Anos - Maria Rita e Elis Regina | CARROS | 2023 (Loometv). Disponível aqui. Último acesso em 12 de fevereiro de 2024. 2. Estamos prontos para regular o deepfake e a IA nas propagandas? Disponível no Migalhas. Último acesso em 12 de fevereiro de 2024. 3. Shallowfake e deepfake, os riscos para o brasileiro nas eleições. Disponível aqui. Último acesso em 12 de fevereiro de 2024. 4. What are deepfakes - and how can you spot them?. Disponível aqui. Último acesso em 12 de fevereiro de 2024. 5. The GANfather: The man who's given machines the gift of imagination. Disponível aqui. Último acesso em 12 de fevereiro de 2024. 6. 'Deepfake eleitoral': PF faz operação contra suspeito de usar IA para difamar prefeito de Manaus. Disponível aqui. Último acesso em 12 de fevereiro de 2024. 7. Inteligência artificial não é a vilã das eleições. Disponível aqui. Último acesso em 12 de fevereiro de 2024. 8. History of photography. Disponível no aqui. Último acesso em 12 de fevereiro de 2024. 9. Hyppolyte Bayard. Disponível no aqui. Último acesso em 12 de fevereiro de 2024. 10. Daguerre (1787-1851) and the Invention of Photography. Disponível aqui. Último acesso em 12 de fevereiro de 2024. 11. Fake news: the drowning of Hippolyte Bayard. Disponível aqui. Último acesso em 12 de fevereiro de 2024.
A opção eloquente do legislador brasileiro pela anonimização de dados como técnica adequada à dissociação de conjuntos de dados pessoais em relação às pessoas naturais às quais dizem respeito destoa da opção europeia, onde vigora o conceito de pseudonimização de dados como regra1. Em síntese, na Lei Geral de Proteção de Dados Pessoais brasileira (lei n. 13.709/2018), o dado anonimizado está conceituado no artigo 5º, III, como o "dado relativo a titular que não possa ser identificado, considerando a utilização de meios técnicos razoáveis e disponíveis na ocasião de seu tratamento". Para isso, realiza-se a anonimização, também conceituada na lei, no inciso XI do mesmo artigo, com a seguinte redação: "utilização de meios técnicos razoáveis e disponíveis no momento do tratamento, por meio dos quais um dado perde a possibilidade de associação, direta ou indireta, a um indivíduo". No Regulamento Geral sobre a Proteção de Dados da União Europeia (Regulamento 2016/679(EU)), por outro lado, optou-se por aderir ao conceito de pseudonimização de dados, definida, no Artigo 4.º, n.º 5, do regulamento, como sendo "o tratamento de dados pessoais de forma que deixem de poder ser atribuídos a um titular de dados específico sem recorrer a informações suplementares, desde que essas informações suplementares sejam mantidas separadamente e sujeitas a medidas técnicas e organizativas para assegurar que os dados pessoais não possam ser atribuídos a uma pessoa singular identificada ou identificável". Leitura apressada da LGPD brasileira parece indicar a impossibilidade da guarda do conjunto suplementar de informações que torna o mero "dado" um "dado pessoal", inclusive para fins de reidentificação ou desanonimização. Basicamente, quando se anonimiza dados, retira-se do conjunto analisado os predicativos que lhe conferem pessoalidade, tornando-o relativo a uma pessoa natural imediata ou potencialmente identificada (art. 5º, I, da LGPD). Porém, fora do rol de conceitos do artigo 5º da lei, optou o legislador por adotar a pseudonimização dos europeus para o escopo restrito dos estudos em saúde pública. Este tema está tutelado no artigo 13 da LGPD, segundo o qual, durante a execução de pesquisas em saúde pública, as instituições responsáveis podem acessar dados pessoais. Esses dados serão processados internamente e apenas para fins de pesquisa, sendo armazenados em um ambiente seguro e controlado, de acordo com normas de segurança definidas em uma regulamentação específica (que ainda não foi editada). Sempre que viável, pelo que prevê o caput do artigo 13, será dada prioridade à anonimização ou pseudonimização desses dados, assegurando também o cumprimento dos padrões éticos pertinentes a estudos e investigações. O §4º do artigo 13, por sua vez, prevê que, "para os efeitos deste artigo, a pseudonimização é o tratamento por meio do qual um dado perde a possibilidade de associação, direta ou indireta, a um indivíduo, senão pelo uso de informação adicional mantida separadamente pelo controlador em ambiente controlado e seguro". Basicamente, o mesmo conceito do RGPD europeu, formalmente indicado como de aplicação restrita aos casos de estudos em saúde pública. Os estudos em saúde pública são fundamentais para a promoção, proteção e restauração da saúde das populações em uma escala coletiva, transcendendo a abordagem individualizada da medicina clínica. Eles abarcam uma vasta gama de disciplinas, incluindo epidemiologia, estatísticas de saúde, gerenciamento de saúde, saúde ambiental, saúde mental, e políticas de saúde, oferecendo um arcabouço para entender os determinantes da saúde e as intervenções necessárias para prevenir doenças e promover estilos de vida saudáveis. Além disso, por meio da vigilância de saúde pública, é possível monitorar padrões de doenças, identificar surtos em estágios iniciais e responder de maneira eficaz para controlá-los, reduzindo, assim, a morbidade e mortalidade associadas. Tais estudos ainda fornecem evidências científicas que fundamentam decisões políticas e práticas em saúde, garantindo que os recursos sejam alocados de maneira eficiente e eficaz para atender às necessidades de saúde da população. Os estudos em saúde pública, por essas razões, dependem do acesso a dados pessoais para que se possa monitorar, avaliar e responder a questões de saúde que afetam populações. Em meio a uma enorme gama de dados, tem-se informações sobre condições de saúde, históricos médicos, detalhes sobre a exposições a riscos, comportamentos de saúde e demografia. A coleta, análise e utilização desses dados envolve, portanto, dados referentes à saúde das pessoas analisadas, que são dados pessoais sensíveis na LGPD (art. 5º, II), o que denota uma dimensão ainda mais acentuada de risco2. Logo, a anonimização de dados é desejável, pois converte o dado pessoal em dado anonimizado, afastando a incidência da LGPD - com todos os seus rigores - em relação às atividades de tratamento. Todavia, não é tema simples. A Autoridade Nacional de Proteção de Dados está realizando consulta pública sobre a matéria3 deverá editar guia orientativo específico muito em breve. Um dos temas sobre os quais se espera maior aclaramento é a interpretação sobre o que se considera "meios técnicos razoáveis e disponíveis no momento do tratamento", pois, ainda que o legislador tenha tentado elucidar tal descrição, indicando a imprescindibilidade da aferição de custo e tempo como "fatores objetivos" para fins de anonimização, no artigo 12, §1º, da lei, não há dúvida alguma de que tais fatores variam sobremaneira a depender do porte econômico do agente de tratamento de dados, da finalidade da atividade, do acesso que tem às melhores e mais sofisticadas ferramentas de cifragem, criptografia, supressão e randomização e de suas políticas de governança de dados4. Na área da saúde, porém, o problema se amplia: estudos em saúde pública foram realizados amplamente durante a grave crise sanitária de Covid-19, particularmente no Brasil5, cujas dimensões continentais demandaram complexa operação estruturada para a vacinação da população. Foram priorizados grupos de risco, profissionais da saúde e populações de faixas etárias mais elevadas, e, evidentemente, foram feitos estudos quantitativos sobre a parcela da população vacinada a cada ciclo de dosagem, e, também, sobre a eficácia de cada vacina. Essa importância é multifacetada, abrangendo, ademais, a compreensão da epidemiologia e transmissibilidade do vírus SARS-CoV-2 e a avaliação da segurança das vacinas desenvolvidas em resposta à doença. A pandemia, caracterizada por sua rápida disseminação e impacto significativo sobre a saúde global, economias e sociedades, exigiu uma resposta imediata e baseada em evidências científicas para mitigar seus efeitos. Tudo isso se enquadra nos dizeres do artigo 13 da LGPD e, desejavelmente, tais estudos deveriam ter sido realizados com a anonimização e pseudonimização dos dados pessoais das pessoas avaliadas. As vantagens da segunda técnica em relação à primeira são evidentes pelo próprio conceito: guardar informação adicional em ambiente controlado e seguro que permita retroceder para tornar o dado pseudonimizado um dado pessoal é essencial para que se possa auditar o estudo. O próprio Código de Ética Médica parece adepto à técnica da pseudonimização para as questões de saúde pública ao excepcionar do dever de sigilo profissional estampado no seu art. 73, os casos de tratamento de dados pessoais sensíveis do paciente por justo motivo ou dever legal, justamente como ocorre nos casos de doenças de notificação compulsória e ações de vigilância epidemiológica. Por outro lado, os riscos relacionados à manutenção desses conjuntos de dados em ambiente controlado são maiores do que na anonimização, e nem sempre se poderá aferir o grau de confiabilidade da guarda assumida por uma instituição de pesquisa, por mais séria que seja e por mais que se valha das melhores soluções de segurança da informação. Nos dizeres de Luis Eugenio Portela Fernandes de Souza, "dado um cenário inercial provável, sem mudanças significativas nas condições atuais, com o sistema público de saúde em uma situação de restrições econômicas e fragilidade política, mas com capacidade de resistência e avanços pontuais, por meio de iniciativas racionalizadoras das políticas de saúde, a Saúde Coletiva manteria a trajetória dos últimos anos, persistindo como área de conhecimento reconhecida, mas, ao mesmo tempo, teria limitações importantes quanto ao apoio a medidas concretas de intervenção e fortalecimento do Sistema Único de Saúde de acordo com seus princípios constitucionais"6. Sabendo que inexistem sistemas infalíveis ou completamente blindados contra acessos não autorizados, incidentes de segurança poderão surgir, deflagrando discussões mais complexas sobre eventual descumprimento dos preceitos da lei em relação ao dever geral de segurança estabelecido no artigo 46, ao próprio princípio da segurança do artigo 6º, VII, e às esperadas boas práticas relacionadas a dados pessoais, cujas exigências constam do artigo 50, §2º, da LGPD. Isso porque, embora não se negue a relevância da saúde pública e das instituições responsáveis pela realização dos sobreditos estudos, há limitações que não se pode desconsiderar. Portanto, reafirma-se a premência da discussão para que novos estudos possam aclarar o campo de incidência da tutela definida pelo artigo 13 da LGPD, especialmente a partir do labor regulatório infralegal da ANPD e de seu vindouro guia orientativo. Urge reconhecer a importância da conjugação da boa técnica aos padrões mais sólidos de segurança da informação para que a pseudonimização se torne a regra nos estudos em saúde pública, e não mera faculdade, inclusive se tornando preponderante em relação à anonimização de dados nesse contexto específico. __________ 1 FALEIROS JÚNIOR, José Luiz de Moura. Proteção de dados e anonimização: perspectivas à luz da Lei n. 13.709/2018. Revista Estudos Institucionais, Rio de Janeiro, v. 7, n. 1, p. 376-397, jan./abr. 2021, p. 378-379.   2 MASSENO, Manuel David; MARTINS, Guilherme Magalhães; FALEIROS JÚNIOR, José Luiz de Moura. A segurança na proteção de dados: entre o RGPD europeu e a LGPD brasileira. In: LOPES, Teresa Maria Geraldes da Cunha; SAÉNZ GALLEGOS, María Luisa. (Org.). Ensayos sobre derecho y sociedad en la era tecnológica. México: UMSNH, 2020, p. 121-165. 3 A Autoridade Nacional de Proteção de Dados (ANPD) iniciou a consulta pública sobre o Guia de Anonimização e Pseudonimização de Dados Pessoais no dia 30 de janeiro de 2024. Todas as informações estão disponíveis na plataforma Participa+Brasil até 28 de fevereiro de 2024. BRASIL. Autoridade Nacional de Proteção de Dados. ANPD abre consulta à sociedade sobre o Guia de Anonimização e Pseudonimização. ANPD, 30 jan. 2024. Disponível aqui. Acesso em: 1º fev. 2024. 4 CARVALHO, Fernanda Potiguara. Desafios da anonimização: um framework dos requisitos e bosa práticas para compliance à LGPD. São Paulo: Thomson Reuters Brasil, 2022, p. 178-192. 5 SANTOS, Rodrigo Lopes; CRUZ, Adriano da Costa. LGPD na saúde digital: gestão da tecnologia pós-pandemia coronavírus/Covid-19. In: AITH, Fernando; DALLARI, Analluza Bolivar (Coord.). LGPD na Saúde Digital. São Paulo: Thomson Reuters Brasil, 2022, p. 312-314. 6 SOUZA, Luis Eugenio Portela Fernandes de. Saúde pública ou saúde coletiva? Revista Espaço para a Saúde, Londrina, v. 15, n. 4, p. 7-21, out./dez. 2014, p. 19-20.
O deepfake se trata da utilização de inteligência artificial (IA) para que esta adultere sons e imagens, produzindo vídeos de conteúdo enganoso. É possível, por meio deste instrumento, alterar a movimentação dos lábios ou, ainda, colocar trechos de uma fala em um vídeo totalmente diverso, modificando o que determinada pessoa havia dito. Percebe-se que, devido ao deepfake possuir grande potencial de espalhar notícias falsas, as famigeradas fake news, ele foi amplamente explorado nas eleições, como nas dos Estados Unidos em 2016 e, principalmente, em 2020, além de ocorrer nas do Brasil, em 2022. Para a criação de deepfake, aplica-se a técnica de deep learning, a qual se trata de reprodução de um sistema neural humano artificial, adaptando-se e aprendendo por uma rede de dados. Nesse sentido, o programador utiliza de uma grande quantidade de software de código aberto e, a partir do conteúdo fornecido, os algoritmos da inteligência artificial ficarão um contra o outro, produzindo um loop infinito de feedback, para chegar em resultados cada vez mais precisos. Assim, por meio de fotos e vídeos que determinado indivíduo aparece, a IA consegue aprender como ele se comporta, a partir de características faciais, gestos, voz, dentre outras especificidades. Nas eleições dos Estados Unidos, em 2016, que elegeu o Donald Trump para presidente, os deepfakes estiveram muito presentes. Um caso notório que ocorreu foi um vídeo em que o ex-presidente Barack Obama estaria chamando o candidato Donald Trump de "um completo merda". Entretanto, foi revelado que isto não foi dito por Obama, mas sim pelo diretor Jordan Peele, concluindo-se que, na verdade, tal fala foi inserida em um vídeo verídico do ex-presidente. Ainda, nas eleições do referido país em 2020, o personagem político conhecido por proferir diversas fake news, Donald Trump, veiculou em suas redes sociais, inúmeros vídeos manipulados para atacar seu adversário, Joe Biden, culminando na criação da Microsoft de um software especializado em identificar deepfakes. Ao se analisar o panorama do Brasil, o caso mais conhecido de deepfake nas eleições de 2022 foi utilizado em vídeo da apresentadora do Jornal Nacional, Renata Vasconcellos, o qual foi adulterado para evidenciar uma falsa pesquisa de intenção de votos. Neste caso, a jornalista afirmava que o candidato Jair Bolsonaro estava à frente na pesquisa do Ipec, quando, de fato, era ao contrário: o candidato Luiz Inácio Lula da Silva que estava liderando a pesquisa. Existiram, também, diversos outros casos de relevância, como o que William Bonner, âncora do referido jornal, estaria chamando os candidatos à presidência de "bandidos" ou, ainda, um áudio falso em que o candidato à presidência, Ciro Gomes, acusava a existência de fraude eleitoral, com a ciência das Forças Armadas. Os impactos da propagação de deepfakes no cenário de eleições são evidentes e, primordialmente, preocupantes. Quando algum candidato a determinado cargo político é vítima de deepfake, isso pode alterar completamente o rumo das eleições, pois podem atribuir a ele qualquer fala inverídica que desejarem, incluindo falas racistas, misóginas ou homofóbicas, culminando na perda de diversos eleitores. Um grande aliado na propagação desses vídeos ou áudios alterados é o fato de que diversos indivíduos não checam a veracidade da informação, visto que, por se tratar, supostamente, da voz e imagem da pessoa, atribuem uma percepção de autenticidade e acreditam não haver necessidade de averiguar a situação concreta. Soma-se, ainda, o fato de que estes indivíduos compartilham com diversas outras pessoas ou grupos, o que ocasiona em um alto índice de compartilhamento e, portanto, maior alcance dessas inverdades. O que se observa atualmente é que não existe legislação específica que trate sobre o assunto, visto que se trata de ferramenta relativamente recente, assim como diversos tipos de inteligência artificial. Por mais que exista o Marco Civil da Internet e a Lei Geral de Proteção de Dados, que visam proteger o uso de tecnologia digital no Brasil, tais situações evidenciam a necessidade de se proteger os dados pessoais, para que sua ocorrência seja cada vez menor. Nesse sentido, os arts. 9º e 9º-A da Resolução 23610/2019 do TSE, que regulou a propaganda eleitoral nas eleições de 2022, preveem penalidades para a desinformação nas propagandas, situação a qual poderia ser incluída a utilização de deepfakes; entretanto, não se mostrou suficiente para o controle de tais técnicas. Com a finalidade de combater a desinformação e regulamentar o uso da inteligência artificial, foi criado o PL 2.630/2020, cujo relator é o deputado Orlando da Silva (PCdoB-SP), que foi aprovado em 2020 pelo Senado, mas ainda está em análise na Câmara. Em seu artigo 5º, § 3º, há a vedação ao deepfake, mas sem a previsão de responsabilidade cível ou criminal dos responsáveis. No mesmo percurso, foi criado o PL 21/2020, apresentado pelo deputado federal Eduardo Bismarck (PDT-CE), com a finalidade de estabelecer fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil, o qual foi aprovado pelo plenário no ano de 2021. No entanto, o PL 21/20 não apresenta qualquer disciplina específica quanto ao deepfake em período eleitoral. Outrossim, tem-se o Projeto de Lei n° 2338, de 2023, apresentado pelo Senador Rodrigo Pacheco, que visa à definição da necessidade de que os algoritmos tenham transparência e que sejam explicáveis, permitindo um melhor controle do conteúdo gerado pela IA. Não se pode esquecer do fato de ser apresentada em 27 de novembro de 2023 a Emenda 1 ao PL 2338/23 pelo Senador Astronauta Marcos Pontes, que, em seu art. 14, apresenta a necessidade de "imposição de marca d'água para rotular claramente o conteúdo gerado por IA" pelos operadores de sistemas de IA de qualquer nível risco que sejam responsáveis por gerar conteúdo o qual deverá ser autenticado.  Houve, também, uma iniciativa da Justiça Eleitoral sobre os impactos da LGPD no processo eleitoral de registro de candidatura, que ocorreu nos dias 02 e 03 de junho de 2022. Nesse cenário, os especialistas demonstraram uma necessidade de pensar acerca da finalidade e da minimização na coleta e na divulgação de dados nas plataformas de processo judicial eletrônico. Portanto, os diversos projetos de lei que tramitam, além de debates entre especialistas e o Poder Judiciário demonstram a necessidade de se regular o uso do deepfake e proteger os dados dos indivíduos. Se os projetos de lei forem aprovados, certamente serão grandes aliados das eleições no Brasil neste ano de 2024 e as que virão futuramente, evitando a propagação de fake news. __________ Referências bibliográficas CARVALHO, Antonia. Qual o impacto das deepfakes para as eleições? Politize, 2022. Disponível aqui. Acesso em: 28 de set. de 2023. ____. Deepfake: conteúdo do Jornal Nacional é adulterado para desinformar os eleitores. Jornal Nacional, 2022. Disponível aqui. Acesso em: 28 de set. de 2023. ____. Deepfake mostra pesquisa falsa na voz de Renata Vasconcellos, do Jornal Nacional. Exame, 2022 Disponível aqui. Acesso em: 28 de set. de 2023. DIAS, Jefferson A. SILVA, Fabiano F. Bots, fake faces, deepfakes e sua eventual influência no processo eleitoral democrático. Revista Anpal. ____. É falso áudio atribuído a Ciro Gomes sobre tomada de poder pelas Forças Armadas caso Lula seja eleito. Folha, 2022. Disponível aqui. Acesso em: 29 de set. de 2023. LEAL, Victoria L. Deepfake: como essa ferramenta pode afetar o andamento das eleições de 2022. AgeMt PUCSP, 2022. Disponível aqui. Acesso em: 29 de set. de 2023. MARTINI, Francisco. MORETTI, Isis. Deepfake: as consequências de se imitar a vida real. Conjur, 2022. Acesso em: 28 de set. de 2023. OLIVEIRA, Samuel Rodrigues de. Sorria, você está sendo filmado: tecnologias de reconhecimento facial, privacidade e proteção de dados. 2020. 149 f. UFJF, Juiz de Fora, 2020. OSÓRIO, Fábio M. PECK, Patrícia. Eleições serão afetadas por LGDP e fake news. Poder 360, 2022. Acesso em: 29 de set. de 2023. PEIXOTO, Fabiano Hartmann. Inteligência Artificial e Direito. Curitiba: Alteridade Editora, 2019. PRADO, Magaly Parreira do. Deepfake de áudio: manipulação simula voz real para retratar alguém dizendo algo que não disse. TECCOGS - Revista Digital de Tecnologias Cognitivas, nº 23, jan./jun. 2021, p. 45-68. ____. Regulação de inteligência artificial é defendida no Conselho de Comunicação. Agência Senado, 2023. Disponível aqui. Acesso em 28 de set. de 2023. SOARES, Olavo. Deepfake deve invadir campanha eleitoral: entenda como funcionam os vídeos manipulados. Gazeta do povo, 2022. Disponível aqui. Acesso em: 29 de set. de 2023. ____. Tecnologia mais acessível coloca deepfake ao alcance de um clique. Exame, 2023. Disponível aqui. Acesso em: 28 de set. de 2023.
Certamente as leitoras e leitores desta coluna Migalhas de Proteção de Dados já ouviram ou leram sobre Techlash, um termo derivado de "tech" (tecnologia) e "backlash" (reação contrária), refere-se à reação negativa, crítica ou aversão direcionada à indústria da tecnologia, especialmente às gigantes como Meta, Alphabet, Amazon, Apple e Microsoft. Essa oposição é impulsionada por preocupações relacionadas à privacidade, proteção de dados dos usuários e ao potencial de manipulação política.1 A autora Nirit Weiss-Blatt diz que estamos vivendo a era dos grandes escândalos das Big Techs, que é fruto da ideia libertária de não regulação e liberdade de expressão abstrata e absoluta desde os idos pré redes sociais, como demonstra Max Fisher, em seu Máquina do Caos. Esses escândalos podem ser vistos através da já conhecida manipulação de pessoas em momentos eleitorais com a disseminação de desinformação (fake news); a coleta ilegal de dados de usuários pelas Big Techs, o aumento de grupos e comunidades online para disseminação e fabricação de discursos de ódio, como 4Chan, 8Chan2, as comunidades no Reddit3 e no Telegram4 e a utilização de deep fake, utilizado tanto para hostilização ou vingança (ciberbullying), quanto para difamação e injúria. Deep fake, segundo Diogo Rais5, é a mistura de "deep learning" - o aprendizado profundo em que são treinadas as inteligências artificiais - e "fake news" - desinformação, assim, trata-se de um modo refinado de propagação de desinformação, através de vídeos, fotos, em sua maioria de personalidades, em que a imagem e áudio podem ser alteradas com o objetivo de manipular a população. O uso de deep fake é preocupante, por exemplo, quando da aplicação de Inteligência Artificial para desnudar as pessoas, os "nudification AI". Esta tecnologia é capaz de transformar imagens comuns e fotos de redes sociais em falsas representações de nudez. No Rio de Janeiro, adolescentes do colégio particular Santo Agostinho utilizaram essa ferramenta para manipular fotos de mais de 20 meninas, sem a obtenção de seus consentimentos. O impacto nefasto desse incidente evidencia a urgente necessidade de conscientização sobre os riscos associados ao uso irresponsável da inteligência artificial, bem como a importância de proteger a privacidade e dignidade das pessoas online por meio da regulação, ainda inexistente no Brasil. Antes de adentrarmos nas questões sobre regulação de IA e o que achamos ser necessário para evitar o mau uso de tecnologias, é imprescindível dizer que, neste caso do Rio de Janeiro, além de gerar traumas psicológicos nas adolescentes, esta forma de violência pode se tornar epidêmica. É válido ressaltar que no Brasil, a atriz Isis Valverde6 também sofreu esse tipo de violência e está buscando reparação jurídica e punição aos culpados. Também é importante salientar que os impactos psicológicos nessas adolescentes do Rio de Janeiro podem ser devastadores, como ocorre em casos de revenge porn (a pornografia de vingança) - porque as imagens corrompidas são difíceis de serem removidas da rede e as meninas terão seus nomes ligados a estas imagens falsas por muito tempo, desvirtuando seus ciclos sociais de convivência. No Brasil, temos o art. 241-C, do ECA, que prescreve como crime este tipo de simulação e divulgação de imagens pornográficas de menores, além de ser análogo ao crime de pedofilia; também há no Código Penal, o art. 218-C, que tipificou o crime de divulgar pornografia ou cena de nudez sem o consentimento da vítima. Dessa maneira, podemos entender as consequências que uma tecnologia utilizada de forma criminosa pode acarretar, tanto familiar e pessoalmente quanto ao realizar as denúncias devido à vergonha e a exposição das vítimas. Então quais as possibilidades para a prevenção ao mau uso da tecnologia? Entendemos que as medidas principais devem passar por, pelo menos, 4 fatores, vejamos. Desindexação do Link da Tecnologia Maléfica de Sites Buscadores  Este pode ser um tema polêmico, mas em se tratando de nudez, aplica-se o art. 21, ou seja, o provedor de aplicações responde subsidiariamente em se tratando de divulgação de conteúdo de nudez, quando notificado pela vítima não agir de forma diligente. Entretanto, softwares como os utilizados no caso da escola no Rio de Janeiro, não possuem uma finalidade voltada à criação de artes através de imagens como, por exemplo, o Midjourney ou o BlueWilow. A finalidade dessa IA é tornar fotos casuais em fotos com nudez, portanto, a falta de consentimento é quase inerente ao usuário que, além de ofender o ECA, em caso de menores de idade, e o Código Penal, ainda ofendem a LGPD, pois se trata da utilização de dado sensível, somente podendo ser objeto de tratamento se tiver uma das bases legais previstas no art. 11 da LGPD, além de atentar aos fundamentos da proteção de dados pessoais previsto no inc. IV do art. 2º da LGPD, ao violar a privacidade, a honra e a imagem das vítimas; bem como o inc. VII do art. 2º da LGPD, pois atenta contra os direitos humanos, o livre desenvolvimento da personalidade e a dignidade da pessoa humana. Portanto, a desindexação seria uma medida de caráter rápido, o que não impede a busca da responsabilização civil da vítima, sendo tal medida uma tutela que merece reflexão a cada caso, para não dar ensejo à revitimização com a quantidade de exposição de uma imagem com nudez falsa durante o trâmite processual. Além disso, numa busca rápida por qualquer dos buscadores mais famosos, Bing (Microsoft) e Google (que também é a base dos dispositivos IOS, com o Safari), no Brasil, pode-se encontrar uma miríade de softwares com nudity machine learning, isto é, as IA foram treinadas com imenso banco de dados com nudez para se adequar a cor da pele e as nuances corporais da vítima, por isso entendemos que seja  inviável responsabilizar apenas uma dessas empresas produtoras destes softwares, assim, a desindexação seria a primeira forma de evitar o contato fácil de usuários com tais IA's.  Regulação de IA no Brasil Como podemos definir a regulamentação da Inteligência Artificial? Regulamentar implica estruturar um sistema intricado de termos, unidades e categorias para estabelecer uma base (complexa) que assegure ou aprimore a eficácia do objeto regulado, sem obstruir os avanços tecnológicos e econômicos. A legitimidade da tecnologia é crucial para evitar responsabilidades - em outras palavras, regulamentar envolve criar um conjunto de regras e normas que facilitem a interação da IA com a sociedade, promovendo a resolução eficaz de conflitos, prevenindo danos e otimizando sua eficiência7. Quando estamos diante do debate sobre regulação de IA, é crucial que entendamos o que estamos almejando regular. Pois bem, IA são orientadas por humanos com sistemas que empregam algoritmos para compreender, interpretar e tomar decisões, seja na esfera física ou digital. Esses mecanismos processam dados adquiridos através de machine learning (v.g., deep learning and reinforcement learning), analisando informações estruturadas ou não, e aplicam raciocínio para determinar ações que melhor atendam aos objetivos estabelecidos8. Apesar das tecnologias utilizando IA serem consumidas no Brasil, ainda não possuímos legislação adequada para regular o estado em que se encontra a utilização dessas ferramentas no país. Em 2021, o governo federal, através do Ministério da Ciência, Tecnologia e Inovações, lançou a EBIA9 (Estratégia Brasileira de Inteligência Artificial), um documento com pouco mais de 50 páginas que norteia o bom uso de IA e também serve de guia para pesquisas e inovações. Entretanto, quem lê o documento perceberá que são citados todos os mecanismos e institutos para a implementação e criação de IA éticas, que respeitem a privacidade e os direitos fundamentais, contudo não há definições claras de como isso será instituído, quando e quais sistemas (modelos) merecem maior ou menor atenção. Como salientamos acima, é preciso dizer qual é a IA, qual sua finalidade, quais meios de accountability estão disponíveis (a) métodos de explicação; b) testes e validação; c) indicadores de qualidade do serviço; e d) desenvolvimento de uma IA guardiã10) e infelizmente o documento não nos dá nenhuma resposta. Há também um projeto de Lei oriundo da Câmara dos Deputados e agora em trâmite no Senado Federal sob a relatoria do senador Rodrigo Pacheco (PSD/MG) que versa sobre a regulação de IA. O PL 2338/2023, corrigiu inúmeros erros e omissões daquele vindo da Câmara, como inserir no texto conceitos e princípios de governança como accountability, a privacidade, respeito aos dados pessoais, ao Estado de Direito e seus direitos fundamentais e etc. Contudo, o PL 2338/2023, mesmo com as audiências públicas das quais participaram especialistas, ainda não avançou em temas relevantes para a regulação como, por exemplo, identificação de viés algoritmo; responsabilização sobre racismo algorítmico e, sobretudo, deveria ter como fundamento o respeito e proteção à criança e ao adolescente, como demonstra a nota técnica da Coalizão de Direitos na Rede sobre o PL11.  Outro ponto relevante em que o PL é carente, é a escolha do modelo regulatório escolhido em seus dispositivos. Temos ao menos os modelos (i) clássico; (ii) modelo emergente; (iii) modelo ético e; (iv) modelo cautelar, cada um com suas peculiaridades, algumas omissões, mas ao menos é uma tentativa de regular estas tecnologias12, respeitando princípios como (i) não discriminação; (ii) possibilidade de revisão e previsão de viés algoritmico; (iii) privacidade e (iv) accountability, já utilizados na regulação de IA na União Europeia. Regulação das Redes Sociais A regulação de plataformas digitais no Brasil sofre do mesmo mal da regulação de IA. Os projetos não avançam em questões extremamente relevantes, mas em outros Estados eles prosperam com alguns erros e omissões, claro, porque a tecnologia avança mais rápido que a análise pontual dos legisladores, entretanto a União Europeia lidera e gera boas lições e debates sobre regulação, sobretudo a Alemanha com a NetzGD, que desde 2017 inseriu o Código Penal Alemão em seu corpo normativo numa tentativa de prevenir a desinformação e o discurso de ódio. No Brasil, pelo menos desde 2018, há centenas de projetos de lei em trâmite ou ainda em análise em comissões no Congresso Nacional sobre regulação de redes sociais. O projeto que está à frente das discussões é o PL 2630/2020, de relatoria do deputado Orlando Silva (PCdoB/SP), oriundo do Senado Federal. O PL já sofreu grandes mudanças como, por exemplo, a retirada do dispositivo que criaria uma autoridade nacional de regulação - pressuposto para a constituição da autorregulação regulada, tornando indefinível o modelo de regulação que almeja o Legislativo brasileiro. Pontos a serem considerados são: a adoção do Código Penal à temática da tipificação penal quanto à disseminação de desinformação, por exemplo. O tema é sensível, pois institutos penais precisam respeitar o princípio da subsidiariedade e o PL acerta em punir grupos que realizam ações coordenadas de disseminação de fake news e discurso de ódio, ao contrário da punição de apenas um indivíduo que divulga tais temáticas. Contudo, este projeto necessita de melhorias nos princípios de governança e transparência, melhor definição da responsabilização das redes em casos de conivência com a permanência de grupos e comunidades que exaltam o preconceito e a discriminação, além da divulgação e disseminação de pornografia infantil13. O Projeto de Lei, atualmente, está em fase de votação, ainda incompleta, pois devido ao lobby robusto das Big Techs, que recebem valores altos em receita com o modelo de autorregulação, atuaram com propaganda e pressão em parlamentares da oposição ao governo para impedir a votação do projeto.14 Educação Digital O tema da educação digital é abordado tanto em projetos de regulação de IA, quanto de redes sociais. A educação não apenas fomenta a desconfiança do que é consumido na rede, ensinando onde realizar a checagem de fatos, mas também ensina quais os direitos do usuário, quais seus limites e os limites da plataforma, fomenta denúncias a comportamentos danosos na rede e etc15. Este tema é relevante, porque o perfil do usuário de redes sociais brasileiro já melhorou em relação a conteúdos com desinformação, entretanto, segundo pesquisa do InternetLab e Rede Conhecimento Social, dos participantes entrevistados no estudo, 44% expressaram sua convicção na autenticidade da informação quando depositam grande confiança na fonte que compartilhou a notícia. Ao analisar as inclinações políticas, aqueles que se identificam como adeptos da direita estão mais inclinados a confiar em seus círculos de confiança (57%), seguidos pelos da esquerda (47%) e do centro (43%)16. Portanto, é necessário urgentemente regulamentar a inteligência artificial (IA) para preservar os direitos fundamentais dos indivíduos e usuários da internet. À medida que as gigantes da tecnologia enfrentam uma reação negativa devido a questões como privacidade e manipulação política, a regulação da IA emerge como um componente essencial para mitigar riscos e abusos de machine learning. A proteção de crianças e adolescentes ganha destaque nesse contexto, exigindo medidas rigorosas para salvaguardar esse público vulnerável contra conteúdo danoso online. Destacamos mais uma vez a vital importância da regulação das redes sociais no enfrentamento ao impacto prejudicial da disseminação de desinformação, discursos de ódio e práticas nocivas na rede. A definição de diretrizes claras e a efetiva implementação dessas regras são passos indispensáveis para assegurar um ambiente digital seguro e responsável para as crianças e adolescentes e ao Estado. __________ 1 É o que ensina a pesquisadora Nirit Weiss-Blatt, em seu The Techlash and the Crisis Comunication. Los Angeles: Emerald Publishing Limited, 2021, p. 60. 2 FISHER, Max. Máquina do Caos: como as redes sociais reprogramaram nossa mente e nosso mundo. São Paulo: Todavia, 2023, p. 73. 3 Ibidem, p.95. 4 Disponível aqui. 5 RAIS, Diogo. SALES, Stela Rocha. Fake News, Deepfakes e Eleições. In. Fake News: a conexão entre a desinformação e o direito. (Coord.) Diogo Rais. São Paulo: Thomson Reuters Brasil, 2020, p. 28-29. 6 Disponível aqui. 7 Menengola, E., Gabardo, E. ., & González Sanmiguel, N. N. (2023). A Proposta Europeia de Regulação da Inteligência Artificial. Seqüência studos Jurídicos Políticos, 43(91), 1-27. Disponível aqui. 8 FACELI, Katti; LORENA, Ana Carolina; GAMA, João; CARVALHO, André Carlos Ponce de Leon Ferreira de. Inteligência Artificial: Uma Abordagem de Inteligência de Máquina. Rio de Janeiro: LTC, 2011. 9 Disponível aqui. 10 HARTMAN, Ivar A et al. Policy Paper: Regulação de Inteligência Artificial no Brasil. Disponível aqui. 11 Disponível aqui. 12 OLIVEIRA, Cristina Godoy Bernardo de. Regulação de IA e Modelos Jurídicos. 26 de maio de 2023. In: Reconhecimento facial: A tecnologia e os limites para sua utilização. ALESP. YouTube. Disponível em: Reconhecimento facial: A tecnologia e os limites para sua utilização. 13 CURZI, Yasmin. ZINGALES, Nicolo. GASPAR, Walter. LEITÃO, Clara. COUTO, Natália. REBELO, Leandro. OLIVEIRA, Maria Eduarda. Nota técnica do Centro de Tecnologia e Sociedade da FGV Direito Rio sobre o substitutivo ao PL 2630/2020. Rio de Janeiro: FGV Direito Rio, 2021. 14 Disponível aqui. 15 Educação Midiática. 16 Disponível aqui.
O capitalismo informacional apresenta novos desafios a todo instante para a tutela efetiva dos direitos de personalidade. Não porque a tecnologia seja intrinsecamente má, mas o uso que se tem feito, na busca desenfreada de lucro e poder econômico a todo custo, acabou por ameaçar direitos de personalidade importantes para o pleno desenvolvimento da pessoa humana. Tais direitos são tão importantes, que Adriano De Cupis1 afirma que a razão de ser dos demais direitos subjetivos são os direitos da personalidade, sem os quais, o ser humano perderia tal condição. Ademais, o chamado "capitalismo de vigilância" estrutura-se a partir da coleta massiva de dados pessoais dos usuários da Internet. No entanto, para o seu correto funcionamento é fundamental que o usuário deixe rastros que possam identifica-lo assim como suas preferências. Neste sentido, Shoshana Zuboff2 alerta que os gigantes do capitalismo de vigilância, ou "Big Techs" devem intensificar a competição para continuar lucrando no contexto dos novos mercados tendo em vista o comportamento futuro diante das novas tecnologias. Assim, a sofisticação dos mecanismos de rastreamento do uso de variados aplicativos associado aos algoritmos de predição e à Inteligência Artificial despertam a importância e urgência na modernização da tutela dos direitos de personalidade, seja reconhecendo "novos" direitos de personalidade, seja consolidando mecanismos eficazes de tutela dada à velocidade que tudo acontece no ambiente digital. Um ponto importante é a tutela da proteção de dados pessoais enquanto um dos direitos de personalidade nesse contexto após a morte do seu titular. Há muitos desafios como a perpetuação das informações armazenadas em nuvem, por exemplo. Isto porque o parágrafo único do art. 12 do Código Civil determina: "Em se tratando de morto, terá legitimação para requerer a medida prevista neste artigo o cônjuge sobrevivente, ou qualquer parente em linha reta, ou colateral até o quarto grau." No entanto, as regras previstas na atual redação do Código Civil não foram previstas levando em consideração o desenvolvimento tecnológico. Atualmente, a Comissão Revisora do Código Civil, presidida pelo Ministro Luis Felipe Salomão, além do Ministro Vice-Presidente Marco Aurélio Belizze, Relator Professor Doutor Flávio Tartuce e Relatora Professora Doutora Rosa Maria de Andrade Nery,3 tem a missão hercúlea de revisar e atualizar o Código Civil. Um dos pontos a serem enfrentados é a tutela dos direitos de personalidade em ambiente digital. Sobre esse tema, na Audiência Pública realizada no dia 23/10/2023, falamos sobre o tema.4 A fim de contribuir para o desenvolvimento da doutrina da proteção de dados pessoais no Brasil, um dos pontos que precisa ser definido é se a proteção de dados pessoais se estende à pessoa falecida como os demais direitos de personalidade. A LGPD é omissa a este respeito, pois em seu art. 5º, inc. I, traz o conceito de dado pessoal, ou seja, "informação relacionada a pessoa natural identificada ou identificável;" Portanto, a lei é omissa sobre a tutela da proteção de dados pessoais após a morte. Há quem possa interpretar de maneira restritiva o termo "pessoa natural" para apenas pessoa viva, negando a tutela post mortem dos dados pessoais. Outros, porém, podem concluir que "pessoa natural" pode ser viva ou morta, aplicando-se, nesta última hipótese, o rol dos legitimados previsto no parágrafo único do art. 12 do Código Civil. Concordamos com esta interpretação, pois não há nenhum óbice à tutela jurídica do titular de dados pessoais depois de sua morte, desde que não viole outros direitos de personalidade, como o direito à intimidade e à privacidade. Um caso norte-americano emblemático, conhecido como John Ellsworth v. Yahoo5, no qual o pai de um jovem soldado morto no Iraque solicitou ao provedor de serviço de correio eletrônico Yahoo acesso à conta do e-mail do filho falecido para servir de subsídios para escrever um livro sobre a participação deste na guerra. No referido caso, depois de o provedor Yahoo ter negado o pedido de John Ellsworth, a Justiça do estado norte-americano de Michigan decidiu que o provedor deveria enviar ao autor cópia de todo o conteúdo do e-mail de Justin Ellsworth, em formato digital (gravado em cd) e impresso. O Yahoo optou por não recorrer contra a decisão, cumprindo a ordem judicial. Essa decisão proferida em 20 de abril de 2005 teve ampla divulgação e levantou inúmeros questionamentos sobre o assunto, em especial, sobre a possibilidade ou não de os herdeiros terem acesso à conta de e-mail do usuário falecido e as consequências de uma direção ou outra. O que foi analisado por Cíntia Rosa Pereira de Lima e Ana Beatriz Benincasa Possi,6 no qual concluem que todos os direitos de personalidade devem ser levados em consideração. Assim, no caso acima, se dado acesso total e irrestrito a todos os e-mails violaria a privacidade do soldado falecido. Contudo, se fosse negado acesso aos e-mails relacionados à participação na guerra deste soldado, parte da memória ficaria prejudicada. Neste sentido, o ideal seria permitir acesso apenas aos e-mails sobre a participação do soldado na guerra. Por isso, sugere-se um complemento ao artigo 12 do Código Civil, cujo correspondente artigo no futuro Código Civil poderia ter a seguinte redação: "Art. 12. Pode-se exigir que cesse a ameaça, ou a lesão, a direito da personalidade, e reclamar perdas e danos, sem prejuízo de outras sanções previstas em lei. Parágrafo único. Em se tratando de morto, terá legitimação para requerer a medida prevista neste artigo o cônjuge sobrevivente, ou qualquer parente em linha reta, ou colateral até o quarto grau[,]" desde que não prejudique outros direitos de personalidade. Nota-se, contudo, que há quem entenda em sentido contrário, negando a proteção de dados pessoais à pessoa falecida. O tema foi enfrentado pelo WP29, no parecer 4/20077, sobre o conceito de dado pessoal, no qual foram estabelecidos quatro requisitos que devem ser preenchidos para que seja considerado um dado pessoal, quais sejam: 1º) "qualquer informação"; 2º) "relacionada a"; 3º) "pessoa natural"; e 4°) "identificada ou identificável". O conceito de "qualquer informação" no referido parecer é o mais amplo possível. Quanto à sua natureza, podem ser informações objetivas ou subjetivas (opiniões e impressões externadas pelos usuários), destacando ainda que não é necessário ser verdadeira ou provada para ser passível de proteção. O conteúdo dos dados pessoais também tem uma conotação ampla, podendo dizer respeito a quaisquer aspectos da vida íntima de seu titular. Além disso, os dados que merecem proteção são aqueles disponíveis em qualquer meio, físico ou eletrônico, desde que contenha as informações e dados pessoais, tampouco entendeu-se que a informação ou dado deva estar inserida em um banco de dados estruturado, para ser passível de proteção. Já o requisito de "relacionado a" ganha a conotação de que um determinado dado deve dizer respeito a um indivíduo. Em algumas hipóteses, esta relação é facilmente identificável. Contudo, o parecer aponta que, em certas ocasiões, a ligação não é tão evidente8. São apontados, no parecer, três elementos não cumulativos que podem indicar que um certo dado é relacionado a uma determinada pessoa. O primeiro deles é o conteúdo, tratando-se de uma hipótese na qual a relação entre pessoa e dado é direta. O segundo é o propósito, e diz respeito às situações nas quais uma informação, apesar de não ser conectada diretamente com a pessoa, pode ser utilizada com finalidade de avaliar, tratar ou influenciar de certa forma o modo de ser de uma pessoa. Por fim, apontam o resultado9 como terceira hipótese que pode qualificar esta conexão, tratando-se de casos nos quais um certo dado, apesar de não disser respeito direta ou indiretamente a determinada pessoa, pode impactar sua esfera de interesses, motivo pelo qual merece proteção. O quarto elemento do conceito em análise, em seu turno, é a locução "identificado ou identificável". O sujeito identificado é aquele que, em um grupo de pessoas, pode ser distinguido dos demais por suas características pessoais. Já o sujeito identificável é aquele que ainda não foi identificado, mas potencialmente pode o ser, desde que reunidos elementos suficientes. O parecer aponta que a identificação pessoal se dá à vista de elementos que individualizam um determinado sujeito, podendo ser diretos ou indiretos. O meio direto de identificação mais comum é o próprio nome da pessoa que, em certas circunstâncias, podem ser combinados com outros elementos para a precisa identificação de um indivíduo. Já os meios indiretos de identificação são aquelas "combinações únicas" de elementos extrínsecos, que permitem esse processo de individuação10. Relevante apontar que, no caso da Internet, tornou-se mais fácil o processo de identificação indireta, coletando informações de navegação de um computador específico, torna-se menos complexo identificar o usuário, utilizando métodos de categorização socioeconômica com base nos padrões de comportamento online. Como o terceiro elemento, por sua vez, o parecer restringe a proteção dos dados pessoais apenas às pessoas naturais e viventes, interpretadas em um sentido muito restrito, isto é, aquelas que tenham personalidade jurídica (capacidade de fato), e, assim, afirma-se que nem os mortos nem os nascituros teriam direito à proteção dos dados pessoais.11 Com a devida vênia, tal restrição não se sustenta no direito brasileiro, que garante alguns direitos de personalidade do de cujus, sendo que o cônjuge ou companheiro sobrevivente, os parentes em linha reta e os colaterais até o 4º grau tem legitimidade ativa, nos termos do parágrafo único do art. 12 do CC/02. Assim, como um direito de personalidade autônomo, o de cujus tem direito à proteção de seus dados, desde que não mitigue outros direitos de personalidade.12 __________ 1 Os Direitos da personalidade. Lisboa: Livraria Morais Editora, 1961. 2 The Age of Surveillance Capitalism: the fight for a human future at the new frontier of power. Nova York: Public Affairs, 2019. p. 198. 3 Disponível aqui, acessado em 18 de janeiro de 2024. 4 Disponível aqui, acessado em 18 de janeiro de 2024. 5 In re Ellsworth, No. 2005-296,651-DE (Michigan Probate Court, May 11, 2005) (CUMMINGS, Rebecca G., The case against access to decedent's e-mail: password protection as na exercise of the right to destroy. Disponível aqui. Acessado em 30.05.2017).   6 E-mails para a posteridade: direito à herança versus direito à privacidade. In: Novo Constitucionalismo Latino-Americano I [Recurso eletrônico on-line] organização CONPEDI/ UASB Coordenadores: Liton Lanes Pilau Sobrinho; Alejandro Marcelo Medici; Sérgio Henriques Zandona Freitas. - Florianópolis: CONPEDI, 2018. pp. 130 - 149. Disponível aqui, acessado em 18 de janeiro de 2024. 7 Disponível aqui, acessado em 18 de janeiro de 2024. 8 Cita o exemplo do valor de uma casa, que é um dado que, a princípio, não diz respeito a uma pessoa, e sim ao imóvel e, portanto, não está inserido no âmbito da proteção aos dados pessoais e pode ser utilizado em diversas ocasiões, com avaliação de imóveis vizinhos. Contudo, quando este mesmo dado é utilizado como medida de riqueza pessoal de uma determinada pessoa, ganha conotação de dado pessoal e, consequentemente, pode ser protegido pelo direito aos dados pessoais. 9 O exemplo dado, neste caso, é o do monitoramento de corridas de taxis para aprimorar o serviço feito que, em certas circunstâncias, podem também afetar a privacidade do usuário. 10 O parecer cita os casos de informações fragmentárias coletadas em notícias que, individualmente, não permitem a identificação, mas, quando analisadas em conjunto, permitem a identificação da pessoa. 11 Idem, p. 21: "Information relating to dead individuals is therefore in principle not to be considered as personal data subject to the rules of the Directive, as the dead are no longer natural persons in civil law." 12 LIMA, Cíntia Rosa Pereira de. Autoridade Nacional de Proteção de Dados Pessoais e a efetividade da Lei Geral de Proteção de Dados. São Paulo: Almedina, 2019.
Introdução Muito se tem ouvido falar recententemente sobre as aplicações e implicações da Inteligência Artificial. Riscos à proteção de dados e à privacidade, preconceito e discriminação, falta de transparência, deslocamento do trabalho, desafios regulatórios, concentração de poder, e tantos outros. Realmente a última década ficou marcada por uma presença mais expressiva da IA na sociedade, majoritariamente por meio de aplicativos de redes sociais e inovações de grandes empresas de software que trazem essas novidades embutidas nos mais diversos equipamentos que consumimos, de automóveis à TVs, de relógios à distribuição de energia elétrica (smart grids). Hoje tudo é smart alguma coisa. No entanto, esse panorama começou a mudar logo na virada da década passada para a atual. Até então, tudo que era rotulado por ter alguma forma de IA embutida advinha de módulos específicos criados para tarefas específicas. Explico: Por exemplo, as traduções automatizadas feitas por computador, a exemplo do Português para o Inglês, são ensinadas à máquina e deste ensinamento se produz um módulo de tradução Português-Inglês. Para adicionar outra língua ao tardutor, Português-Francês, por exemplo, temos que ensinar a tradução novamente à máquina nesta nova língua, o Francês. Ou seja, neste paradigma (modelo) de IA, cada módulo deve ser treinado, com supervisão humana (isso é importante), sobre dados específicos para realizar uma tarefa específica. Quase nada se aproveita do ensinamento ou conhecimento anterior, neste exemplo, do conhecimento de tradução Português-Inglês é praticamente inútil para outras traduções. Assim, praticamente até agora, tudo era estanque em IA. Quase nada que se ensinava para uma tarefa poderia ser aproveitada para outra. Da IA de um carro autônomo que se auto guia em cidades e estradas, quase nada se aproveita para um eventual carro de Formula 1 guiado por uma IA, por exemplo. No início dos anos 2020 esse paradigma de IA criado sobre módulos que operam sobre tarefas específicas começou a mudar. Um novo paradigma de IA surge com modelos computacionais treinados sobre uma quantidade gigantesca de dados, dados esses estruturados (tabelas) ou não estruturados (textos livres), num treinamento sem supervisão humana. Surgem nesta época modelos como o GPT-3 e DALL-E da Open.ai e o BERT, da Google. E o que mudou? Bem, curiosamente esse novo paradigma de IA faz o aprendizado do que chamamos de 'modelo de linguagem'. A duras penas, ou melhor, a um custo computacional enorme, essas empresas pegaram quase que todo o conteúdo  disponível na web (sites, jornais, blogs, livros, entrevistas, etc.) e, a grosso modo, calcularam a probabilidade de ocorrência de uma palavra dadas as palavras anteriores que ocorrem num texto. Na prática, você insere um texto nestes modelos e o modelo completa. Você começa a escrever uma história fictícia e o modelo completa. É o que chamamos de 'modelo generativo'. Faça uma pergunta genéria e o modelo responde. Duas grandes transformações vimos a partir deste novo paradigma: 1) Esse novo paradigma de IA passou a fazer bem as tarefas específicas que outros módulos de IA também faziam bem. Por exemplo: tradução de textos entre várias línguas, geração de cartas, memorandos e ofícios, correção de textos, resposta às dúvidas, recordação de temas históricos, codificação de programas de computador, resolução charadas, etc., e, talvez a melhor parte; 2) Esse novo paradigma realiza o chamado 'aprendizado de transferência' (transfer learning) que é uma abordagem de aprendizado de máquina em que o conhecimento adquirido numa tarefa é reaproveitado para melhorar o desempenho de outra tarefa relacionada. Ou seja, esse novo paradigma de IA aproveita tudo o que aprendeu. A próxima tendência na IA procura substituir as antigas IAs específicas que têm prevalecido no cenário até o momento. O futuro prevê modelos treinados em um conjunto abrangente de dados não rotulados, adaptáveis para diversas tarefas com ajuste mínimo. Essa nova IA será feita sobre os chamados "modelos fundacionais" (foundation models). Este termo ganhou popularidade através do Instituto Stanford de Inteligência Artificial Centrada no Ser Humano (Stanford Institute for Human-Centered Artificial Intelligence (HAI))1. O motivo deste nome é claro ser pensarmos que a proposta atual deste paradigma é montar um modelo abrangente de IA que possa ser especializado oportunamente. E esse é o ponto: a especialização. Termo que na Computação emprestamos do termo em Inglês, o fine-tuning. Assim, devemos esperar para o futuro quando grandes modelos de linguagem serão especializados em tarefas específicas, ou melhor, por enquanto especializados em grandes áreas do conhecimento, tais como o Direito. Os grandes modelos de linguagem e o Direito As aplicações dos modelos de linguagem servem 'como uma luva' para a área do Direito por alguns bons motivos, tais como: a) os modelos de linguagem captam e processam dados textuais com mais facilidade do que as imagens e sons; b) o conhecimento em Direito, se comparado com outras áreas, como por exemplo muitas áreas de exatas que condensam o conhecimento em fórmulas e teoremas, é difuso, propício à leitura e à exploração textual, e c) o potencial de mercado a ser explorado ainda é bem amplo, pois existem poucos recursos computacionais nesta área, obviamente se comparado com outras áreas do conhecimento humano. Para saber mais, consulte 2 3 4 para uma busca pelo termo GPT neste site. Toda essa introdução foi feita para contextualizar uma recente e prazeroza releitura de um artigo prestigiado com mais de 1.700 citações e já mencionado aqui, o artigo 'On the opportunities and risks of foundation models'1. Mesmo sendo um artigo corrigido em 2022, o que pode parecer até desatualizado diante a agilidade dos desenvolvimentos na área, é um artigo que merece muito ser comentado dada a visão técnica sobre os impactos destas IAs generativas na sociedade. Por certo não irei comentar as mais de 200 páginas do artigo que aborda várias áreas da atuação humana, mas irei pontuar nos interesses dos leitores deste periódico (ou de parte deles para não me alongar demais). Segundo a empresa Consultor Jurídico, numa postagem da mesma em 2017 (lá se vão seis anos), o mercado jurídico barsileiro movimenta R$ 50 bi por ano no Brasil e, por isso, essas grandes IAs irão tentar oferecer soluções que podem trazer as seguintes oportunidades listadas abaixo: Oportunidades que os grandes modelos de linguagem podem proporcionar Facilitar o acesso à justiça. Uma promessa importante é que os modelos de fundacionais possam facilitar o acesso à justiça e aos serviços governamentais, eliminando as barreiras processuais e financeiras dos serviços jurídicos. Vejam como: conversar com o Spot6. Spot é um software robô observador de problemas. Dê ao Spot uma descrição de uma situação escrita por um leigo, um não-advogado, e ele retornará uma lista de problemas prováveis que podem merecer a atenção de um advogado competente. O Spot fornece à comunidade um auxílio na localização de profissionais de Direito para questões como despejo, execução hipotecária, falência e pensão alimentícia. O Spot é uma criação e uma iniciativa do Laboratório de Inovação Legal da Suffolk University Law School que é uma escola de direito privada localizada no centro de Boston; Outra: depois que um cliente fala com um advogado, antes do litígio civil, o advogado pode tentar evitar um julgamento. Nesta fase, podem contar com modelos generativos para avaliar contratos, rever termos de serviço, encontrar casos semelhantes ou relevantes e conduzir outros processos pré-contenciosos, a fim de garantir que os seus clientes estarão em vantagem; Durante o litígio, os modelos fundacionais podem ajudar os advogados a realizar pesquisas jurídicas, redigir em linguagem jurídica ou avaliar como os juízes poderão analisar as reivindicações dos advogados; Outra situação importante é dar mais poder ao advogado para atuação em casos ou situações que envolvam outros países com diferentes sistemas legais. A amplitude desses sistemas de IA pode ser tamanha a ponto de envolver e diferenciar sistemas legais estrangeiros e dar ao advogado as mesmas possibilidades de um advogado munido de ferramentas equivalentes no exterior; Tudo isso sem contar as possibilidades de redação assistida de peças, da elaboração se sumários de documentos, da transcrição de documentos legais para pessoas leigas, da inclusão e processamento de outras mídias como áudio e vídeo (transcrição e interpretação por exemplo), entre outras. Percebam que fiz comentários mais direcionados ao direito civil, no entanto, esse novo paradigma de IA irá se abrir para todas as demais áreas. Pensemos na facilidade que esses sistemas terão para triar casos e agrupá-los, na possibilidade de poderem responder à questões várias, tais como, dúvidas referente ao direito de família (seja sobre matrimônio, divórcio, partilha de bens, guarda, pensão, etc.), ou ainda sobre sucessões (como por exemplo, como fica os bens deixados pelo falecido, etc.), sobre leis específicas, Lei de Acesso à Informação, Lei Geral de Proteção de Dados, entre outras. Dificuldades dos grandes modelos de linguagem  Como era esperado, não só de 'flores' vivem os diversos modelos computacionais, incluindo aqui os modelos de IA generativa. Na IA clássica são conhecidos os casos de falta de transparência, discriminação e problemas de ingerência na privacidade alheia. A grande pergunta é: esses modelos de IA mais poderosos podem escalar estes antigos problemas? Em tese, eles podem sim ter um potencial maior de risco, mas não é o que vimos até o momento com os vários modelos de linguagem disponíveis e, tomo como exemplo, o ChatGPT. Essas situações acima mencionadas sobre discriminação e privacidade são muito bem reguladas pelos desenvolvedores. A transparência ainda carece de boas explicações sobre as fontes de dados, como também são necessárias mais explicações sobre o processo funcionamento das IAs para as tomadas de decisão e 'raciocínio'. Neste segundo ponto, sobre o seu modo de operação, a Ciência da Computação ainda terá um longo trabalho pela frente para explicar. Problemas mais práticos são mais fáceis de serem observados. Por exemplo, comenta-se que uma petição inicial não deveria ter mais de 20 páginas. Sugestão essa que por vezes passa ao largo de muitas destas peças. Considerando as 20 com 300 palavras por lauda, contamos 6.000 palavras. O GPT-3.5 tem um limite máximo de geração de 3 mil palavras por texto, enquanto que a última versão, a 4.0, tem o limite de 25 mil palavras. Notem que é apenas a petição inicial. Outra preocupação referente a estes modelos de linguagem é sobre o que chamamos de 'recuperação de informação', ou seja, aquilo que os buscadores fazem muito bem, encontrar documentos, e que as IAs generativas falham muitas vezes pois reescrevem estes textos. Dizem até que estas IAs deliram, mas este é um verbo mal empregado. Estas IAs erram mesmo. Identificar pessoas e normas jurídicas ainda não é o forte destas IAs, muito menos imaginar que elas raciocinam sobre dados e situações. Noto pelo modo humanizado como as gerações mais novas usam estas IAs que muitas pessoas parecem desconhecer que se trata ainda de um humanoide em fase de construção. Por último, é crucial sublinhar que, mesmo que os modelos fundacionais se mostrem capazes de executar com êxito todas as tarefas no domínio jurídico, a implantação representa um desafio significativo. A falha de um modelo destes no campo jurídico pode resultar em consequências graves tanto para clientes como para advogados. Para concluir, sabemos que as decisões jurídicas necessitam de contexto em múltiplas facetas, ou seja, desde uma compreensão de decisões anteriores e semelhantes, passando pela consciência da jurisprudência presente e, não menos, da compreensão das complexidades dos casos individuais. Os modelos de fundacionais possuem um potencial único até o momento para adquirir representações partilhadas de contextos históricos e jurídicos. Além disso, também possuem o claro poder linguístico e, quiçá, a precisão adequada para ressaltar casos individuais. Bem-vindas sejam! ____________ 1. BOMMASANI, Rishi et al. On the opportunities and risks of foundation models. arXiv preprint arXiv:2108.07258, 2021. Disponível aqui. Último acesso em 8 de novembro de 2023. 2. Especialista explica como ChatGPT pode ajudar advogados nas petições. Disponível no Migalhas. Último acesso em 8 de novembro de 2023. 3. CHATGPT: O que é. Disponível no Migalhas. Último acesso em 8 de novembro de 2023. 4. ChatGPT e Filhos Advogados Associados. Disponível no Migalhas. Último acesso em 8 de novembro de 2023. 5. Mercado jurídico movimenta R$ 50 bi por ano no Brasil, aponta levantamento. Disponível aqui. Último acesso em 9 de novembro de 2023. 6. The Legal Innovation & Technology Lab's Spot API. Disponível aqui. Último acesso em 9 de novembro de 2023.
O Projeto de Lei 2338 de 2023, apresentado pelo Senador Rodrigo Pacheco como resultado dos trabalhos realizados pela Comissão de Juristas designada, possibilitou a consolidação da discussão sobre a possibilidade ou não regulamentação da inteligência artificial (IA) no Brasil. A justificação do mesmo documento aponta todo o seu relevante histórico e as personalidades que se dedicaram à nova proposta. Assim, o objetivo desta lista é realizar uma pequena contribuição por meio da indicação de 10 pontos do texto que podem ser revisitados antes do avanço da matéria.  Preliminarmente, em razão da necessária transparência e apesar da relevância do assunto inteligência artificial, é preciso afirmar, conforme já exposto em outras ocasiões, que entendemos que o assunto regulamentação da IA ainda precisa de ser amadurecido e refletido por todos os envolvidos: cidadãos, empresas e Estado principalmente. A aparente urgência do tema não pode ser confundida com a sua importância tendo em vista o seu impacto em diversas áreas da sociedade. Se analisarmos os trabalhos já realizados e as questões ainda não respondidas em outros espaços como a União Europeia, veremos que o assunto ainda está longe de pacificação. Nessa linha, alguns dos apontamentos que serão descritos a seguir demonstram que essa leve "pressa" nos faz deixar passar alguns importantes detalhes. Em suma, o Direito deve regulamentar o consenso com base no bom senso.  Nesse sentido, vejamos as 10 breves sugestões que elencamos com o propósito de contribuir para o aperfeiçoamento dessa proposta conforme convite à sociedade pelo mesmo Senador no final da sua justificação. Observamos, desde já, que, na maior parte, as recomendações objetivam simplificar o texto sem comprometer o seu foco principal.  Em primeiro lugar, temos o parágrafo único do artigo 37, que indica a necessidade de publicação das "metodologias" referidas no caput do mesmo dispositivo. No caso, entendemos que não é possível identificar quais são ou seriam as "metodologias", tendo em vista que o comando somente prevê a definição de regulamento com indicação dos respectivos "procedimentos de apuração e critérios para aplicação de sanções".  Dessa forma, entendemos que o comando contido no parágrafo único do artigo 37 é desnecessário, porque já é abarcado de maneira ampla no caput. No entanto, caso o relator prefira mantê-lo, poderia, pelo menos, substituir a expressão "as metodologias" por "o regulamento", sendo que o ideal seria já definir o rito para evitar a insegurança jurídica.  Em segundo lugar, no inciso I do parágrafo 2º do artigo 9º, temos o uso da expressão "dados inadequados ou abusivos". Consideramos que os dados apenas retratam o mundo, por exemplo, número correspondente à quantidade de pessoas em uma cidade ou a lista de endereços postais de empregados de uma empresa, logo, o dado não pode ser "abusivo", mas sim a sua interpretação e o seu uso, especialmente se a finalidade for distorcer o objetivo do legislador.  Com isso, sugerimos que seja substituída a expressão "inadequados ou abusivos" apenas por "inadequados", para indicar, por exemplo, a possibilidade de seleção incorreta dos dados utilizados pela inteligência artificial.  Em terceiro lugar, temos o uso da expressão "contestabilidade" no inciso VIII do artigo 3º, para indicar um suposto princípio jurídico que deveria ser observado desde o desenvolvimento até a implementação e o uso de sistemas de IA. No entanto, salvo melhor juízo, trata-se de expressão não usual e redundante dentro do contexto do mesmo inciso, que já indica "devido processo legal" e "contraditório".  Ademais, observa-se que, em, pelo menos, outras 5 ocasiões é utilizada a expressão "direito de contestar", sendo que, idealmente, entendemos que o melhor seria simplesmente "direito de recorrer", por exemplo, da decisão automatizada baseada em IA que afetou um direito do cidadão, pois a decisão já foi publicada.  Em quarto lugar, é preciso atentar para o conceito de "autoridade competente" delineado no texto do projeto de lei, que seria "órgão ou entidade da Administração Pública Federal". Assim, a proposta ambiciona conferir caráter nacional, isto é, será aplicado para todos os entes da federação. Se o texto for mantido como está disposto, possivelmente feriria a autonomia federativa de Estados e Municípios.  Com o objetivo de garantir sem qualquer dúvida ou risco a autonomia federativa, a nossa alternativa é a manutenção de uma entidade com autonomia em relação ao Poder Executivo Federal para evitar quaisquer riscos de ingerência pela União nos Estados e Municípios principalmente.  Em quinto lugar, verificamos que o parágrafo único do artigo 5º se refere aos "direitos descritos no caput", sendo que esses direitos não estão descritos no caput propriamente, mas sim nos incisos do mesmo dispositivo.  Consequentemente, a melhor redação para o parágrafo único do artigo 5º seria indicar "exercício dos direitos descritos neste artigo" e não "no caput".  Em sexto lugar, é importante notar o caput do artigo 9º, que faz referência ao "direito de contestar e de solicitar a revisão de decisões". Novamente, trata-se de expressão repetitiva e, portanto, desnecessária, porque bastaria dizer, por exemplo, "direito de recorrer".  Nesse passo, seria prudente revisar o texto do projeto de lei para buscar possíveis expressões que poderiam ser simplificadas para facilitar a sua leitura e eliminar a remota possibilidade de interpretação equivocada da norma.  Em sétimo lugar, tendo em vista que o PL 2338 de 2023 busca o âmbito nacional, seria interessante harmonizar os prazos no que se refere, pelo menos, à esfera pública. Enquanto o parágrafo único do artigo 8º do aludido Projeto prevê o prazo de 15 dias (prorrogáveis por mais 15 dias) para o fornecimento das informações descritas no respectivo caput, os parágrafos 1º e 2º do artigo 11 da lei 12.527 de 2011 (Lei de Acesso à Informação - LAI - também com aplicação nacional), prevêem o prazo de até 20 dias (prorrogáveis por mais 10 dias) para que a Administração Pública forneça as informações requeridas.  Além disso, embora o PL 2338/2023, caso aprovado, possa ser considerado, no que se refere ao prazo mencionado, uma norma especial quando comparado com a LAI, compreendemos que a arquitetura jurídica disponibilizada pela Lei de Acesso à Informação é mais interessante tanto para quem solicita a informação quanto para o órgão público que a provê em razão do seu detalhamento, por exemplo, sobre os destinatários e os procedimentos e, especialmente, pela vedação expressa de "exigências que inviabilizem a solicitação".  Por exemplo, enquanto a LAI determina no § 3º do artigo 10º que "são vedadas quaisquer exigências relativas aos motivos determinantes da solicitação de informações de interesse público", o PL 2338/2023 estabelece que somente o requerente que se qualificar como "pessoa afetada" por sistema de IA poderá solicitar as informações listadas no seu artigo 8º como "dados processados e a sua fonte".  No caso, quando o pedido abranger informações públicas (leia-se, referentes ao interesse legítimo da sociedade), acreditamos que o mais adequado seria facilitar o acesso à sociedade e não limitar à pessoa que, aparentemente, precisará comprovar que foi "afetada" por sistema de IA. Assim, embora o seu intuito seja colaborar, na prática, essa qualificação prevista no caput do artigo 8º do PL 2338/2023 destoa do princípio da transparência pública, porque poderá servir como fundamento para impedir possíveis pesquisas cujo foco seja, por exemplo, comparar justamente a "racionalidade e a lógica do sistema" para casos semelhantes.  Em oitavo lugar, identificamos no parágrafo 2º do artigo 9º o uso das expressões "métodos imprecisos ou estatisticamente não confiáveis", que são inexatos quanto ao seu significado e, com isso, surgem questionamentos, como, por exemplo, quem é competente para confirmar ou não a confiabilidade do método? A redação que garante a segurança jurídica deve preferir o uso de termos que não gerem dúvidas e, com isso, deleguem a sua solução ao Poder Judiciário em último caso.  Destarte, caso o legislador entenda que há, realmente, a possibilidade de serem utilizados métodos imprecisos ou estatisticamente não confiáveis, a melhor opção seria inverter o raciocínio aplicado na redação do comando: o legislador deveria especificar quais são os métodos que considera "precisos" ou estatisticamente "confiáveis" a respeito da aplicação da IA.  Em nono lugar, é preciso atentar para o disposto no §1º do artigo 9º que prevê o "direito de correção de dados incompletos, inexatos ou desatualizados utilizados por sistemas de inteligência artificial". Considerando que o objetivo do PL 2338/2023 é possuir abrangência nacional tanto sobre a esfera pública quanto privada, esse dispositivo impõe obrigação demasiadamente abrangente e sem parâmetros para os seus destinatários.  Por exemplo, a partir de quando os dados poderiam ser considerados desatualizados para possibilitar o "direito de correção"? O que seriam dados "inexatos"? Além disso, considerando que os "dados" são registros extraídos diretamente do mundo real ou virtual, e, portanto, íntegros em sua essência, como podemos compreender o que seriam "dados incompletos"? A única hipótese que conseguimos considerar é o "banco de dados" estar incompleto e, por isso, gerar distorções quando enviado para a IA. Neste caso, o melhor seria ajustar a expressão para "bancos de dados incompletos", retirando, inclusive, os termos "inexatos" e "desatualizados", salvo se estas duas expressões estiverem previstas nos "termos e condições de uso" da aplicação e acompanhadas dos respectivos parâmetros.  Por fim, também no que se refere ao mesmo §1º do artigo 9º, é preciso atentar para eventual conflito com as normas pertinentes ao habeas data, especialmente o disposto nas alíneas "a" e "b" do inciso LXXII da Constituição Federal e Lei 9.507 de 1997. Nesse sentido, é importante recordar uma passagem das razões do veto relacionado aos artigos 1º, 3º e 5º desta Lei sobre Habeas Data:  "Os preceitos desbordam sensivelmente a configuração constitucional do habeas data, impondo obrigações aos entes governamentais ou de caráter público sem qualquer respaldo na Carta Constitucional. A definição do habeas data é precisa, não permitindo a conformação pretendida nestes dispositivos. Não é estabelecida, ademais, qualquer sorte de ressalva às hipóteses em que o sigilo afigura-se imprescindível à segurança do Estado e da sociedade, conforme determina a própria Constituição (art. 5º, XXXIII)." (grifo nosso).  Nesse sentido, poder-se-ia considerar a hipótese em que o PL 2338/2023 seria um meio para evitar a legislação concernente ao habeas data quando a solicitação de informação, atualização ou correção envolver dados pessoais utilizados pelo Poder Público em sistemas de IA. No entanto, tendo em vista o status constitucional da matéria, seria prudente que o Projeto de Lei fosse revisitado integralmente sob esta perspectiva.  Em décimo lugar, é importante atentar para as obrigações criadas para os Municípios conforme o artigo 21 do Projeto de Lei, pois, o mero ato de "utilizar sistemas de inteligência artificial considerados de alto risco" implicará na necessidade de adoção de medidas que podem fugir à capacidade de implementação pelos mesmos, por exemplo, recursos humanos treinados em IA.  Como exemplos, pensemos em escolas municipais para crianças que utilizem sistemas de IA para treinar seus alunos e professores ou em unidades básicas de saúde cujos sistemas de IA permitam a melhor distribuição de remédios e otimização dos atendimentos. Caso se trate de pequenos entes que tenham, provavelmente, recebido gratuitamente esses acessos aos sistemas (ou cópias dele) do respectivo Estado ou da União para serem implementados, haverá grande dificuldade de responder os questionamentos pertinentes tendo em vista a complexidade da sua operacionalização.  Como exemplo, temos a nossa experiência prática na Controladoria Geral do Governo do Estado de São Paulo durante a implementação da Lei de Acesso à Informação entre os anos 2011 e 2014, sendo que muitos Municípios não tinham (e, provavelmente, não têm até hoje) como desenvolver os próprios portais de transparência e, por isso, dependeram da disponibilização pelo Poder Executivo Estadual do respectivo código-fonte. Na própria LAI temos o reflexo disso no seu parágrafo 4º do artigo 8º, que, com exceção dos assuntos pertinentes à Lei de Responsabilidade Fiscal, dispensa os Municípios com população de até 10.000 habitantes da publicação obrigatória na Internet "de informações de interesse coletivo ou geral por eles produzidas ou custodiadas" (caput do artigo 8º da LAI). Assim, se, desde o ano de 2011, permanece essa dispensa geral da prestação de informações, como demandar que os mesmos entes (mais de 2.000 Municípios conforme imagem abaixo) tenham que prestar informações sobre IA aplicada em diferentes áreas? Registre-se que as situações aqui descritas não podem servir como desculpa isoladamente para não discutirmos a regulação da IA, mas sim como pretexto para identificarmos outros meios para resolver esse impasse e ponderarmos se, de fato, estamos preparados para disciplinar este assunto. Devemos aproveitar as oportunidades sem nos perdemos nas dificuldades inerentes à tecnologia.  Em suma, a breve lista com 10 pontos é exemplificativa. É preciso amadurecer a discussão a respeito  da necessidade  da regulação da IA. Quem serão os seus beneficiários? O que é melhor: possibilitar que cada setor busque a sua regulamentação específica ou forçar todos a se adaptar às novas regras independentemente das suas particularidades? São perguntas difíceis e estamos apenas no começo. Vamos dialogar mais sobre IA.
Quando se evoca o caráter coletivo da proteção de dados pessoais, deve-se considerar a proteção de direitos fundamentais de liberdade e de privacidade, bem como do livre desenvolvimento da personalidade da pessoa natural. Esse trecho pode ser encontrado no art. 1º da lei 13.709 de 2018, a Lei Geral de Proteção de Dados Pessoais (LGPD). Em fevereiro de 2022, por meio da Emenda Constitucional nº 1151, a Constituição Federal brasileira foi alterada para incluir a proteção de dados pessoais no seu rol de direitos e garantias fundamentais. Também foi fixada a competência privativa da União para legislar sobre proteção e tratamento de dados pessoais. Anteriormente, em 2018, respectivamente em agosto e dezembro, foi promulgada a Lei Geral de Proteção de Dados Pessoais e criada a Autoridade Nacional de Proteção de Dados no Brasil. Embora a positivação da matéria específica sobre a proteção de dados pessoais no Brasil tenha ocorrido recentemente, as discussões sobre o tema já existiam tendo sido permeadas em outras Leis, como o Código de Defesa do Consumidor, Lei de Acesso à Informação, Lei do Cadastro Positivo e o Marco Civil da Internet. Da mesma forma, outros países da América do Sul, especificamente do Mercosul, já discutiam sobre o assunto, tendo - não todos - positivado seus entendimentos sobre a proteção de dados pessoais recentemente, da mesma forma que o Brasil. Entretanto, desde a década de 1960, normas relacionadas à proteção de dados pessoais já eram pensadas como um fator necessário ao tratamento de dados. Desde então, a proteção de dados pessoais desenvolveu-se exponencialmente, assim como a própria complexidade do tratamento de dados. Em 1997, Viktor Mayer-Schönberger2 sistematizou a evolução de leis protetivas de dados pessoais de 1960 até aquele momento. Inicialmente, a proteção dos dados pessoais era mais técnica, focada nas limitações de controle por bancos de dados de órgãos públicos (com pouca menção à participação de pessoas físicas como sujeitos nesse tratamento). Isso se devia à indisponibilidade ao público de um grande fluxo de dados envolvendo informações pessoais de terceiros, estrutura essa disponível apenas ao Estado e seus órgãos. O computador não era um produto comercial e acessível ao grande público. Durante os anos 70, com a multiplicação dos centros de tratamento de dados e a criação de diversos bancos "database", a segunda geração das leis de proteção de dados surgiu com um novo viés. O foco da proteção não era mais técnico, mas na privacidade do indivíduo, sujeito ativo na proteção de seus dados. Exemplo disso foi a "Loi Informatique et Libertés"3 de 1978, reformada em 2022 e que previa "dados pessoais como direitos inerentes às pessoas".  Na década de 80, os dados pessoais começaram a ser compartilhados conforme o indivíduo fosse se envolvendo na teia social, muitas vezes fora de seu conhecimento e/ou consentimento. Assim, o complexo fluxo de compartilhamento de dados pessoais interligado ao Estado e entes privados não deveria ser apenas uma responsabilidade do indivíduo, mas do coletivo, durante todo o tratamento daquele dado pessoal4. Assim surgem as leis de quarta geração, com uma ideia de autodeterminação pelo titular de dados pessoais, mas também de tutela de dados como direito fundamental. Portanto, considerando o poder da informação e o pressuposto de que a internet é o principal fluxo de disseminação desta, a proteção de dados passou a ser incorporada nas constituições de muitos países. De modo que se um país não coaduna com os ideais de proteção de dados e segurança na rede, este pais: 1. Permitiria que exista insegurança relativa aos dados pessoais que tiverem seu tratamento realizado naquele território e 2. Geraria desconfiança e insegurança nas relações internacionais, com implicâncias econômicas, sociais e políticas complexas. Dessa forma, o presente texto procura ilustrar um cenário positivo da evolução da legislação brasileira e dos demais países-membro ativos do Mercosul - Argentina, Paraguai e Uruguai - em relação à proteção de dados pessoais. Há dez anos, em 2013, o Ministério de Justiça Brasileiro e a Secretaria Nacional do Consumidor (SENACON), em cooperação com órgãos públicos argentinos, uruguaios e internacionais, coordenaram a edição do Atlas Ibero-Americano de Proteção do Consumidor5. O documento contém 44 (quarenta e quatro) perguntas sobre pontos relativos à proteção do consumidor em 19 países, dentre elas, três perguntas específicas sobre a proteção de dados pessoais. Mais especificamente, as perguntas direcionadas pelo Atlas foram a) "Existe regulação especial em matéria de Proteção de Dados Pessoais?"; b) "Existe uma autoridade responsável pela aplicação da matéria, ou é a mesma de proteção dos consumidores? Qual é o seu regime?" e c) "Considera necessária alguma atualização ou complementação da regulação existente na matéria?". Assim, esse artigo contará com a comparação dos cenários envolvendo a proteção de dados pessoais nos países do Mercosul em 2013 e 2023 em relação a três pontos principais: legislação especial sobre proteção de dados vigente, autoridade responsável pela proteção da matéria e discussões em voga. O objetivo é o de traçar uma linha de evolução nos 10 anos que se passaram desde a edição do Atlas, trazendo aspectos atualizados. Comecemos a seguir com a análise, por ordem alfabética, de cada país. A partir de 2018, os grupos de pesquisa "Observatório da LGPD" da Faculdade de Direito da Universidade de São Paulo de Ribeirão Preto e o "Mercosul, Direito do Consumidor e Globalização", liderados respectivamente por Cíntia Rosa Pereira de Lima e Claudia Lima Marques, elaboraram um questionário minucioso para detalhar o estado da arte em diversos países da América Latina. Argentina Em 2013, no que concerne à proteção de dados pessoais, a Argentina já contava com a lei 25.326 de 20006, primeira norma de um Estado-Membro do Mercosul a dispor especificamente sobre Proteção de Dados Pessoais, estabelecendo os princípios gerais relativos à essa proteção. Esta legislação definiu os direitos dos titulares de dados, as responsabilidades dos detentores de arquivos ou bancos de dados, os mecanismos de controle e as sanções aplicáveis em caso de violação das normas de proteção de dados. A autoridade encarregada da aplicação das disposições de proteção de dados pessoais na Argentina era a Direção de Proteção de Dados Pessoais, que fazia parte do Ministério da Justiça e Direitos Humanos. Esta autoridade detinha competências e atribuições específicas para lidar com reclamações de indivíduos prejudicados por informações imprecisas, defeituosas ou não autorizadas, bem como para impor sanções às empresas que operavam bancos de dados e que violavam as normas de proteção de dados. Além disso, o sistema judicial também previa ações judiciais relacionadas à proteção de dados pessoais. Naquela época, estava sendo considerada a possibilidade de atualizar e complementar a regulamentação existente em matéria de Proteção de Dados Pessoais. O objetivo era o aprimoramento da proteção dos consumidores, principalmente no que se referia aos prazos de retenção de dados em bancos de dados e aos mecanismos para acessar e corrigir informações pessoais armazenadas. Em 2023, o país vinha discutindo, desde 2022 com uma iniciativa da Agencia de Accesso a la Información Publica (AAIP), um anteprojeto para a Lei promulgada em 2000. A contribuição da sociedade argentina culminou no Projeto de Lei de Proteção de Dados Pessoais7 , em tramitação. Brasil No Brasil, em 2013, no que diz respeito à regulamentação de proteção de dados pessoais, não existia uma lei geral abrangente. As disposições gerais referentes à proteção da privacidade podiam ser encontradas na Constituição Federal (Art. 5º, X) e no Código Civil (Art. 21). Além disso, existiam disposições específicas e setoriais relacionadas à proteção de dados pessoais no Código de Defesa do Consumidor (Art. 43), na Lei do Cadastro Positivo (lei 12.414/2011) e na Lei de Acesso à Informação (lei 12.527/2011, Art. 31). Em relação à um órgão competente, não existia uma autoridade especializada para a aplicação das normas de proteção de dados pessoais. No entanto, nos casos em que a proteção de dados pessoais era necessária no contexto das relações de consumo, as entidades que integravam o Sistema Nacional de Defesa do Consumidor (SNDC) possuíam competência para tratar dessas questões. Por fim, considerava-se vital e oportuna a atualização da legislação relacionada à proteção de dados pessoais. Tal atualização deveria ser baseada na criação de uma Lei Geral de Proteção de Dados Pessoais, cujo propósito seria o de resguardar a privacidade e a liberdade dos cidadãos em relação ao tratamento de suas informações pessoais. Na época, foi definido no documento que era imperativo que a proteção fosse assegurada em todas as situações em que se tornasse necessária, sem citar, entretanto, conceitos como tratamento de dados pessoais. Em 2023, o Brasil dispunha de cenário completamente diverso em relação à proteção de dados pessoais. Em 14 de agosto de 2018, foi promulgada no país a Lei Geral de Proteção de Dados Pessoais (LGPD) e em dezembro do mesmo, foi criada a Autoridade Nacional de Proteção de Dados, autarquia federal de natureza especial, vinculada ao Ministério da Justiça e responsável por implementar e fiscalizar a LGPD no Brasil. A autoridade tem realizado um trabalho educativo, emitindo guias orientativos sobre tratamento de dados em casos específicos, divulgando modelos organizacionais e instrutivos. Também tem realizado a fiscalização de denúncias de titulares de dados pessoais, bem como analisado incidentes de segurança com dados pessoais e aplicado multas sancionatórias aos descumpridores da LGPD, após processo administrativo próprio. Paraguai Em 2013, a proteção de dados pessoais no Paraguai era baseada na Constituição Federal, por meio do remédio constitucional do habeas data. Infraconstitucionalmente, o tema da proteção de dados era tratado principalmente na Lei 1682 de 20018, que dispunha da "regulamentação da informação em caráter privado". Em relação à um órgão competente, o país não contava com qualquer Autoridade responsável pela proteção de dados pessoais. Entretanto, no documento, não é exposta nenhuma outra lei ou normativa que disciplinasse a proteção de dados pessoais, apenas a Constituição Federal paraguaia. Já em relação à complementação/atualização da matéria, as iniciativas paraguaias reconheciam que a cooperação institucional auxiliaria nessa matéria. Em 2023, no entanto, o cenário era outro. Após a pandemia do Covid-19 em 2020, foi promulgada a Lei de Proteção de Dados Pessoais Creditícios9, que revogou completamente a Lei 1682/2001. No caso, apesar de seu nome, a lei se aplica ao tratamento de dados em registros públicos ou privados, bem como dos direitos e garantias de proteção de dados pessoais de pessoas físicas e jurídicas, de acordo com seus artigos 2º10 e 3º, c11. Uruguai Em 2013, no que diz respeito à regulamentação de dados pessoais, o Uruguai contava com a Lei 18.331 de 2008. O texto normativo criou no Uruguai, além de uma legislação específica sobre proteção de dados, também uma autoridade reguladora e fiscalizadora da matéria. Constitucionalmente, a proteção de dados pessoais não está expressamente escrita, mas foi reconhecida como "institucionalmente presente" em comunicado da Unidad Reguladora y de Control de Dados Personales (URCDP) - autoridade reguladora12. No caso, a URCDP era uma unidade descentralizada da AGESIC (Agência de Governo Eletrônico e Sociedade da Informação e do Conhecimento), que integrava a estrutura da Presidência da República Uruguaia13. A URCDP é dotada de autonomia técnica, tendo como competência assegurar o cumprimento da legislação relativa à proteção de dados pessoais e assegurar o cumprimento de seus princípios14. Em relação à complementação da matéria, ela ocorreu em 2020, com a promulgação do decreto 64 de 202015. Dentre suas modificações na Lei 18.331, estão as definições de algumas especificações, como a figura do DPDP (Delegado de Protección de Datos Personales) e a obrigação de notificação em 72 (setenta e duas) horas à Autoridade uruguaia no caso de Incidente de Segurança envolvendo dados pessoais. Conclusão Após analisar a evolução da legislação de proteção de dados pessoais e as autoridades responsáveis nos países-membro ativos do Mercosul ao longo de uma década, é evidente que houve avanços significativos nessa área. Na Argentina, a promulgação do Projeto de Lei de Proteção de Dados Pessoais em 2023 demonstra um compromisso contínuo com a proteção da privacidade e dos direitos dos cidadãos. Esse progresso está alinhado com a tendência global de fortalecer a regulamentação de dados pessoais. O Brasil, por sua vez, deu um grande passo com a aprovação da Lei Geral de Proteção de Dados Pessoais em 2018 e o estabelecimento da Autoridade Nacional de Proteção de Dados. Essas medidas garantiram uma estrutura sólida para a proteção de dados pessoais no país e demonstram um compromisso em conformidade com os padrões internacionais. No Paraguai, a promulgação da Lei de Proteção de Dados Pessoais Creditícios em resposta à pandemia de Covid-19 mostra uma resposta ágil às necessidades de proteção de dados pessoais em situações de crise. Isso reflete um entendimento crescente da importância da proteção de dados no mundo moderno. O Uruguai, com sua legislação abrangente e uma autoridade reguladora dedicada desde 2008, liderou o caminho na proteção de dados pessoais na região. A complementação da legislação em 2020 fortaleceu ainda mais as garantias de proteção de dados no país. Em conclusão, o Mercosul, por meio de seus países-membro ativos, está demonstrando um compromisso crescente com a proteção de dados pessoais. Esses avanços são essenciais não apenas para proteger os direitos individuais, mas também para promover a confiança nas relações internacionais e no ambiente digital, impulsionando assim o desenvolvimento econômico e social. A evolução da regulamentação de dados pessoais na região é um passo positivo em direção a um futuro mais seguro e privado para todos os titulares de dados pessoais. Atualmente, discute-se um esboço de um sistema de proteção de dados pessoais em nível do Mercosul de autoria de Cíntia Rosa Pereira de Lima, Claudia Lima Marques, Kelvin Peroli e Newton De Lucca, que pretende atingir uma harmonização mínima da matéria em nível supranacional tendo em vista a intensa circulação de dados pessoais transfronteiriça. Nas próximas publicações, durante este semestre, será dado destaque para expor os detalhes da proteção de dados pessoais em diversos países da América Latina. __________ 1 BRASIL. Emenda Constitucional nº 115. Disponível aqui. Acesso em 27 de setembro de 2023. 2 MAYER-SCHÖNBERGER, Viktor. General development of data protection in Europe. Cambridge: MIT Press, 1997. pp. 219-243. 3 FRANÇA. Loi 78-17 du 6 Janvier 1978 relative à l'informatique, aux fichiers et aux libertés. Disponível aqui. Acesso em 27 de setembro de 2023. 4 DONEDA, Danilo. Princípios de Proteção de Dados Pessoais. In - DE LUCCA, Newton; SIMA~O FILHO, Adalberto; LIMA, Cíntia Rosa Pereira de (coords.). 5 Atlas Ibero-americano de proteção ao consumidor = Atlas Iberoamericano de protección al consumidor / [coordenação : Secretaria Nacional do Consumidor]. - Brasília: Ministério da Justiça, 2013. 489 p. ISBN : 978-85-85820-37-4. Disponível aqui. Acesso em 27 de setembro de 2023. 6 ARGENTINA. Habeas Data. Disponível aqui. Acesso em 27 de setembro de 2023. 7 ARGENTINA. Proyecto de Ley de Protección de Datos Personales. Disponível aqui. Acesso em 27 de setembro de 2023. 8 PARAGUAI. Ley 1.682. Disponível aqui. Acesso em 27 de setembro de 2023. 9 PARAGUAI. Ley 6.534. Disponível aqui. Acesso em 27 de setembro de 2023. 10 É o texto da Lei 6.534 do Paraguai, em seu texto original: "Artículo 2°.- ÁMBITO DE APLICACIÓN. Esta Ley es de aplicación obligatoria al tratamiento de datos personales en registros públicos o privados recopilados o almacenados en el territorio nacional en sistemas de información, archivos, registros o bases de datos físicos, electrónicos o digitales a través de mecanismos manuales, automatizados o parcialmente automatizados de recolección de datos." 11 É o texto da Lei 6.534 do Paraguai, em seu texto original: "Art. 3º A los efectos de la presente Ley, se entende por [...] c) Titular de Datos: Persona física o jurídica, cuyos datos son objeto de tratamiento. [...]" 12 URUGUAI. Principales criterior administrativos. Disponível aqui. Acesso em 27 de setembro de 2023. 13 URUGUAI. Unidad Reguladora y de Control de Datos Personales. Disponível aqui. Acesso em 27 de setembro de 2023. 14 URUGUAI. Unidad Reguladora y de Control de Datos Personales. Disponível aqui. Acesso em 27 de setembro de 2023. 15 URUGUAI. Reglamentacion de los arts. 37 a 40 de la ley 19.670 y art. 12 de la ley 18.331, referente a proteccion de datos personales. Disponível aqui. Acesso em 27 de setembro de 2023.
Dois projetos de lei disputam hoje o protagonismo para a regulamentação da IA no Brasil, mas seria este o melhor caminho? Este texto, como contraponto, aborda os passos da regulamentação da IA na Europa que promete liderar o mundo neste tema. Introdução A Inteligência Artificial (IA) é considerada a tecnologia mais disruptiva dos últimos tempos e está impactando em vários setores, tais como a saúde (medicina), os negócios, a agricultura, a educação e o desenvolvimento urbano. Por exemplo, não é arriscado supor que você já tenha utilizado o ChatGPT para escrever ou corrigir um texto. Certamente já usou um serviço tipo Waze para buscar um caminho melhor para um destino novo. É confiante para usar seu cartão de crédito, pois mesmo sem saber, existe uma IA por traz do serviço de cobrança que luta muito para evitar fraudes no uso de um cartão plástico que lhe é precioso. Mas pergunto: qual é a sua disposição ou confiança em usar IA para descobrir um câncer que você ainda não tem1? Você usaria IA para tratar uma criança autista2? Teria coragem de andar num carro autônomo, guiado apenas por uma IA, na velocidade de 300km/h3? A IA além de ser uma tecnologia disruptiva, ela está cada dia mais perto de quem usa qualquer dispositivo tecnológico no dia a dia e também de quem imagina que não usa a IA. Para quem usa e-mail, talvez nem imagina que os filtros de e-mail tipo spam são controlados por IA; para quem tem conta em banco talvez nem sonhe que o limite do seu cartão de crédito é escolhido por uma IA; e, os radares nas estradas são capazes não só de ler a placa do seu carro, mas de autuarem o seu proprietário se os documentos estiverem vencidos. Lembro ainda que algum processo do seu escritório já deve ter sido analisado por uma IA4; e logo mais, até um simples PIX vai usar recursos de IA5. Embora as vantagens da IA na nossa vida quotidiana pareçam inegáveis, as pessoas estão preocupadas com os seus perigos. Será que você não irá mais conseguir convencer o seu gerente de banco a ter um limite maior no seu cartão de crédito? Será que o seu plano de saúde pode subir o valor da mensalidade quando souber que você não frequenta uma academia ou quando tiver acesso à sua lista de compras no supermercado? Além destas preocupações, a segurança física inadequada (por exemplo, nos carros autônomos), as perdas económicas e questões éticas, tais como reconhecimento facial por toda parte e a perfilização nas redes sociais e no comércio eletrônico, são apenas alguns exemplos dos danos que a IA pode causar. No Brasil as discussões sobre este tema já chagaram nas câmaras legislativas. O início das discussões se deu por conta do PL 21/2020, de autoria do deputado Eduardo Bismarck (PDT-CE), que "cria o marco legal do desenvolvimento e uso da Inteligência Artificial (IA) pelo poder público, por empresas, entidades diversas e pessoas físicas. O texto, em tramitação na Câmara dos Deputados, estabelece princípios, direitos, deveres e instrumentos de governança para a IA."6. Recentemente, em maio deste ano, o senador Rodrigo Pacheco (PSD-MG), presidente do Senado Federal, apresentou o PL 2.338/20237, o qual, segundo o próprio texto, "estabelece normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial (IA) no Brasil."  Este projeto foi resultado do trabalho de uma comissão de juristas que analisou outras propostas relacionadas ao tema e também legislação já existente em outros países8. Muito embora tenhamos dois textos em tramitação sobre um assunto deveras impactante para a nossa sociedade, percebo que, fora dos limites acadêmicos, universitários, e quiçá nas empresas de tecnologia, a grande parte afetada pelo uso da IA, ou seja, a nossa sociedade, nossos trabalhos, nossa saúde, nossa educação, nossa segurança, enfim, nós, o povo (we the people), estamos alijados desta discussão. Uma pergunta fica: e lá fora, fora do Brasil, como está esta discussão? Estamos no caminho certo ou vamos esperar eles decidirem para escolher um caminho bom para nós? Ou seria bom para eles? Neste artigo traço um resumo do que está sendo a trajetória europeia para se tornar a liderança mundial na regulamentação da IA9. Percebam que, dadas nossas conexões fortes, ao menos comerciais, com a Europa, além dos vínculos e semelhanças no sistema jurídico, existe uma centelha de expectativa que possamos adotar um sistema semelhante. Vejamos! Passos iniciais Um grande passo foi dado em fevereiro de 2017 quando os legisladores da União Europeia, UE, promulgaram a Resolução do Parlamento Europeu que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica10. Três anos mais tarde, o mesmo Parlamento Europeu reconheceu que o sistema jurídico vigente na época carecia de uma disciplina específica relativa à responsabilidade dos sistemas de IA. Segundo o Parlamento, as capacidades e a autonomia das tecnologias tornam difícil rastrear decisões humanas específicas. Por consequência, a pessoa que eventualmente sofre um dano causado por um sistema de IA pode não ser indenizada sem uma prova da responsabilidade do operador. Assim sendo, esta resolução contém uma proposta, no anexo B, com recomendações à Comissão Europeia para disciplinar a responsabilidade quanto ao uso da IA. Por volta da mesma época em 2020 a Comissão Europeia divulgou um white paper, ou seja, um documento exploratório, que apresenta opções políticas para permitir um desenvolvimento confiável e seguro da inteligência artificial na Europa, no pleno respeito pelos valores e direitos dos cidadãos europeus. Este white paper é na verdade um relatório, um guia, que informa os leitores de forma concisa sobre a complexidade do tema que é a IA, e também apresenta a filosofia do órgão emissor, a Comissão Europeia, sobre o assunto. Novamente a Comissão Europeia, seguindo as recomendações do Parlamento Europeu, apresenta, no mês de abril de 2021, uma proposta de um arcabouço jurídico para a IA12. Neste documento de 108 páginas e nove anexos a Comissão segue uma abordagem baseada no risco e diferencia as utilizações da IA de acordo com o risco eventual, sendo estes riscos classificados como risco inaceitável, risco elevado ou baixo risco. O risco é inaceitável se representar uma ameaça clara à segurança e aos direitos fundamentais das pessoas e é, portanto, proibido. A Comissão Europeia identificou exemplos de riscos inaceitáveis como utilizações de IA que manipulam o comportamento humano e sistemas que permitem pontuação de crédito. Para a Comissão Europeia um sistema de IA classificado como alto risco é um sistema que deve estar sujeito a uma verificação de conformidade por terceiros. O conceito de alto risco é detalhado no Anexo III da proposta e está dividido em oito áreas. Entre essas áreas estão sistemas de IA relacionados à infraestruturas críticas (como tráfego rodoviário e abastecimento de água), treinamento educacional (por exemplo, o uso de sistemas de IA para corrigir e pontuar testes e exames), equipamentos e componentes de segurança de produtos (por exemplo, robôs para cirurgia assistida) e seleção de funcionários (por exemplo, software de classificação de currículos). Os sistemas de IA que se enquadram na categoria de alto risco estão sujeitos a requisitos rigorosos, que devem ser cumpridos antes de serem colocados no mercado. A IA na Europa hoje Recentemente, no dia 14 de junho de 2023, o Parlamento Europeu aprovou algumas alterações sobre o texto que estabelece regras harmonizadas em matéria de inteligência artificial13. A União Europeia deu um grande passo, um passo inovador no mundo, para estabelecer regras sobre como as empresas podem usar a inteligência artificial. Esse chamado EU AI Act é uma medida ousada que Bruxelas espera que abra caminho para padrões globais para uma tecnologia utilizada em tudo, desde chatbots como o ChatGPT da OpenAI até procedimentos cirúrgicos e detecção de fraudes bancárias, todos estes sistemas eventualmente regulados por uma legislação única. Este documento, o EU AI Act, relata o acordo feito entre os 705 legisladores, membros do Parlamento da União Europeia, e é uma lei em versão preliminar. Este documento agora será negociado com o Conselho da União Europeia e os estados membros da UE antes de se tornar lei definitiva e ser seguido pelos 27 países membros UE. Além do já comentado sistema de classificação de riscos, a lei também descreve requisitos de transparência para sistemas de IA. De acordo com este documento, sistemas como o ChatGPT deverão divulgar que o seu conteúdo foi gerado por IA, distinguir imagens falsas de imagens reais e fornecer salvaguardas contra a geração de conteúdos ilegais. As empresas que programam estes chatbots também deverão publicar resumos detalhados dos dados protegidos por direitos de autor utilizados para treinar estes sistemas de IA. Por outro lado, sistemas de IA com risco mínimo ou nenhum risco, como filtros de spam, estão fora das regras. Caro leitor, estamos vivendo um momento de profundas mudanças no campo da tecnologia. Mudanças estas que mais uma vez impactarão nossa sociedade de maneira absoluta e, por vezes, irrevogável. Para aqueles que ainda esperam para ver se uma "lei pega" para depois analisar ou suportar as mudanças acarretadas por ela, aconselho se informar sobre o tema e dar voz às suas vontades, seus anseios e suas expectativas antes que esses sistemas de IA passem a dominar a sua vida (se já não está parcialmente dominada). We the people! ______________ Referências bibliográficas 1. Promising new AI can detect early signs of lung cancer that doctors can't see. Disponível aqui. Último acesso em 21 de setembro de 2023. 2. Artificial Intelligence (AI) to Diagnose and Treat Autism. A Disponível aqui. Último acesso em 21 de setembro de 2023. 3. Self-Driving Race Car Sets New Speed Record. Disponível aqui. Último acesso em 21 de setembro de 2023. 4. Inteligência Artificial no Poder Judiciário. Disponível aqui. Último acesso em 21 de setembro de 2023. 5. Bradesco vai usar IA para confirmar transferências por PIX; entenda. Disponível aqui. Último acesso em 21 de setembro de 2023. 6. Projeto cria marco legal para uso de inteligência artificial no Brasil. Fonte: Agência Câmara de Notícias. Disponível aqui. Último acesso em 20 de setembro de 2023. 7. PL 2338/2032. Disponível aqui. Último acesso em 20 de setembro de 2023. 8. Senado analisa projeto que regulamenta a inteligência artificial. Fonte: Agência Senado. Disponível aqui. Último acesso em 21 de setembro de 2023. 9. Europe is leading the race to regulate AI. Here's what you need to know. Disponível aqui. Último acesso em 19 de setembro de 2023. 10. Disposições de Direito Civil sobre Robótica. Disponível aqui. Último acesso em 19 de setembro de 2023. 11. Regime de responsabilidade civil aplicável à inteligência artificial. Disponível aqui. Último acesso em 19 de setembro de 2023. 12. Regulamento Inteligência Artificial. Disponível aqui. Último acesso em 19 de setembro de 2023. 13. Regulamento Inteligência Artificial (alterado). Disponível aqui. Último acesso em 20 de setembro de 2023.
A Inteligência Artificial (IA) tem sido objeto de grande discussão nos últimos tempos, em âmbitos privado e público. Não é surpresa que a tecnologia vem transformando rápida e profundamente a sociedade e, portanto, gerando preocupações sobre o futuro. Recentemente, com a criação do ChatGPT e disseminação de outras ferramentas de IA Generativa, esta tecnologia passou a ser utilizada cotidianamente mesmo por pessoas sem expertise nas áreas de computação ou similares. A ferramenta tem sido empregada das mais diversas formas e em todos os campos socioeconômicos, passando pela aplicação em áreas como a música, o cinema, a saúde e a educação. Se, por um lado, ela facilita a realização de tarefas e barateia os custos de sua execução, por outro, ela tem aberto um mar de possibilidades que nem sempre têm sido bem aceitas. Na cultura, questões éticas têm sido levantadas sobre a reprodução de vozes e imagens de artistas já falecidos, por exemplo. Além disso, o SAG-AFTRA (Screen Actors Guild-American Federation of Television and Radio Artists) tem realizado greves dado o avanço da IA no cinema e a ameaça de desemprego dos profissionais da área. Após o lançamento do ChatGPT, ganharam força argumentos catastróficos sobre o futuro da humanidade e, mais especificamente, sobre o futuro do trabalho. Mesmo que tais posições sejam muitas vezes infundadas, é verdade que a inovação foi revolucionária e que a sociedade está em profunda transformação. Em 2018, alguns autores já defendiam que a Inteligência Artificial seria uma Tecnologia de Propósito Geral (TPG), assim como foram a máquina a vapor e a eletricidade. Isso significa que ela adentra e reconfigura rápida e estruturalmente os campos social e econômico. Neste contexto de acalorado debate, figuras importantes do meio das BigTechs se pronunciaram sobre supostos riscos à humanidade gerados pela IA. O engenheiro Blake Lemoine, por exemplo, foi demitido do Google após ter afirmado ao jornal The Washington Post que a ferramenta de IA da empresa havia adquirido consciência própria. Outro posicionamento polêmico foi o de Elon Musk, dono da X, que aderiu à carta aberta assinada por centenas de empresários e especialistas solicitando que os laboratórios de IA paralisassem suas pesquisas envolvendo sistemas de IA mais poderosos do que o GPT-4 durante seis meses, até que fossem criados protocolos de segurança para o design e desenvolvimento avançados de IA que fossem rigorosamente auditados e supervisionados por peritos externos independentes. No entanto, a fim de compreender o processo que vivemos, é também necessário olhar os dados por uma outra perspectiva. Se a Inteligência Artificial é hoje o que um dia foi a energia elétrica, podemos observar as oportunidades geradas junto às transformações. Segundo relatório escrito pela Bloomberg  (2023), após o lançamento de ferramentas de IA Generativa, a indústria desse instrumento pode alcançar a marca de US$ 1,32 trilhão em 2032. Isso significa que o mercado em questão é gigantesco e importantíssimo. Para termos comparativos, o PIB do Brasil em 2021 era de US$ 1,609 trilhão. No Brasil, em 2021, o lançamento da Estratégia Brasileira de Inteligência Artificial (EBIA) foi essencial para a recolocação do país no cenário internacional como atento à agenda e possível produtor de tecnologias. Além disso, o Governo Federal e governos estaduais lançaram iniciativas importantes para o desenvolvimento da IA e têm investido em inovação. Exemplo disso é o programa paulista de subvenção econômica Pesquisa Inovativa em Pequenas Empresas (PIPE), da FAPESP.  Na esfera federal, a Finep, o Fundo Nacional de Desenvolvimento Científico e Tecnológico (FNDCT), o Banco Nacional de Desenvolvimento Econômico e Social (BNDES) e o MCTI  têm sido os principais investidores em Ciência, Tecnologia e Inovação (CT&I). O posicionamento estatal revelado por meio da EBIA, somado aos programas públicos de incentivo ao desenvolvimento de CT&I, encorajam o setor privado a inovar. Consequentemente, a economia brasileira tende a se fortalecer, gerando mais empregos e diminuindo as desigualdades. Em relatório de 2021, a Associação das Empresas de Tecnologia da Informação e Comunicação (TIC) e de Tecnologias Digitais (Brasscom) estima que as empresas de tecnologia demandem 797 mil talentos entre 2021 e 2025. Porém, com o crescimento exponencial do número de vagas e o número de formandos aquém da demanda, a projeção é de que haja um déficit de 530 mil ao final desses cinco anos. Outro dado interessante é que, enquanto a média nacional de salários é de R$ 2.001, a remuneração média do setor de serviços de TIC é de R$ 5.028, ou seja 2,5 vezes superior. Essas informações indicam que estamos presenciando uma geração de um novo campo de atuação, com novas oportunidades de emprego e melhores salários.   Somado a isso, cursos de Graduação e Especialização na área de tecnologia e, especificamente, de IA, estão despontando em universidades públicas e privadas ao redor do Brasil. Em pesquisa publicada em 2023, foram encontrados 646 cursos de Bacharelado e Tecnológicos relacionados à IA. A região Sudeste é a com maior oferta de vagas, seguida das regiões Sul e Nordeste do país. Quanto aos cursos de Especialização, foram identificados 114, sendo que a maioria também está no Sudeste brasileiro, seguido pelo Sul e Centro-Oeste. Percebendo tal demanda, Organizações da Sociedade Civil (OSCs), startups e até grandes empresas de tecnologia também têm oferecido cursos de capacitação em Inteligência Artificial. BigTechs como IBM, Google e Microsoft têm oferecido cursos introdutórios sobre IA em formato online e gratuito, por exemplo. Com a grande maioria dos cursos sendo oferecidos por organizações e empresas privadas, constata-se que o setor privado está mais atento às mudanças do mercado. Porém, ainda que as ações públicas sejam mais tímidas, elas estão ocorrendo. Além disso, como já era de se esperar, o Sudeste tem liderado o desenvolvimento acadêmico e a capacitação em IA conforme . Considerando, então, o novo mercado surgindo e a criação de cursos nas áreas de tecnologia, é possível afirmar que a Inteligência Artificial não está ameaçando o futuro do trabalho, mas sim criando uma nova configuração para ele. No entanto, cabe a nós formular políticas públicas e alianças entre o setor público, privado e academia para que as oportunidades sejam distribuídas em todo o Brasil e ofertadas a todas as classes sociais, de forma a diminuir as desigualdades, e não aumentá-las. Para tal, o debate precisa ser aprofundado e abordado a partir de uma visão multidimensional, pois, a diferença da IA para as outras tecnologias está no fato de ela possuir o potencial de aumentar o desemprego no campo da mão-de-obra qualificada, não apenas nos setores que exigem baixa qualificação.
Aprovado no Senado e em tramitação na Câmara dos Deputados há 3 anos, o PL 2630/20, para alguns conhecido como PL das Fake News, para outros como PL da Censura, pautou o debate público recente ao ter aprovada a urgência em sua tramitação e, posteriormente, com forte ação por parte das "Big Techs", grandes companhias de tecnologia, sobretudo do Google, mas também da oposição, no tensionamento da discussão, ser retirado da pauta de votação sob pedido do relator Orlando Silva (PCdoB-SP), em vistas a alta possibilidade de rejeição no plenário. O tema é complexo e há de ser enfrentado pelo Estado. No retrovisor o 8 de janeiro, os ataques às escolas e a própria reação das "Big Techs" na influência da formação de vontade do legislativo do País são exemplos de eventos nos quais as plataformas virtuais se tornaram ambiente profícuo para concretização e coordenação de ações de cunho trágico e criminoso para o Estado Democrático de Direito. No presente esforço, busca-se explorar os impactos e as entranhas dessa complexidade. Vale destacar, como referência ao novo contexto, o abandono das teorias e crenças de "neutralidade das redes" sobretudo com um maior entendimento sobre o papel dos algoritmos interferindo no oferecimento de conteúdo não só nas redes sociais, com a possibilidade de impulsionamento de informações de fomento ao discurso de ódio e desinformação, mas também mecanismos de busca, como o próprio Google.1 Professor da Universidade de Frankfurt e colaborador do Legislativo no tema, Ricardo Campos2 demonstra que o PL em questão em muito se assemelha com iniciativas legislativas de outros lugares do mundo, sobretudo da União Europeia, em um sentido de responsabilização administrativa das plataformas, risco sistêmico e dever de cuidado, mas também da Austrália, por exemplo, no que tange ao jornalismo e sua remuneração a ser negociada com plataformas digitais mediante parâmetros gerais que desaguem em critérios concretos. Afirma, ainda, que o Brasil inovaria em regular aplicativos de mensagens privadas, o que não existe nas outras regulações até então. Há de se dizer que, legalmente, exige-se decisão judicial para remoção de conteúdo, por exemplo, com o artigo 19 do Marco Civil da Internet, o que se mostra defasado e ineficaz na dinâmica da desinformação e, nessa esteira, verifica-se a importante do PL em discussão, já que se procura estruturar um regime de responsabilização. Ainda, o PL busca definir uma lista de conteúdo ilícito em vista dos quais um dever de cuidado recairia sobre as plataformas, exigindo-se ação de ofício, como por exemplo na violação a direitos de crianças e adolescentes, e um procedimento de notificação para as demais violações para que se possibilite a remoção dos conteúdos a partir da devida justificativa, resguardando-se ao máximo o devido processo legal, a liberdade de expressão e a transparência. Central para a retirada de pauta do PL ressaltamos duas questões, a falta de consenso sobre o limite da imunidade material parlamentar, isto é, como se daria uma possível restrição ao discurso de um parlamentar tendo em vista essa regulação e, também, a criação de agência independente, como forma de controle externo, em um sentido, pode-se dizer, de agência reguladora, na esteira desse projeto, o que, segundo especialistas3, padeceria de vício de iniciativa e poderia colocar em risco a autonomia da regulação.   Também central para o revés foi a ação das Big Techs na esteira do debate político. Estudo4 do Laboratório de Estudos de Internet e Mídias Sociais da UFRJ demonstrou ações vigorosas de plataformas como Google, Meta, Spotify e Brasil Paralelo que, de maneira opaca, com burla aos termos de uso, manipularam o mercado de publicidades nas vésperas da votação, ressaltando-se a veiculação de anúncios do Google no spotify contra o PL, o que fere os termos de uso do Spotify e o anúncio fixado de texto contra a iniciativa na página do buscador, afirmando que a normativa iria "aumentar a confusão entre o que é verdade e mentira no Brasil", além de rotulá-la como PL da Censura e privilegiar notícias, textos e anúncios nesse sentido, remetendo a fontes hiper partidárias e fomentando, por si mesmo anúncios em outras plataformas, como o Meta. Afirma-se que o impacto negativo do PL para essas plataformas, para além da responsabilização e do dever de cuidado enquanto geradores de ônus, seria a possível redução dos valores de publicidade digital, tendo em vista a impossibilidade atual de se estimar o quanto anúncios criminosos, opacos e irregulares movimentam esse mercado. Diante disso, o Ministro Alexandre de Moraes, na esteira do inquérito 4.7815 do Distrito Federal, em polêmica decisão, determinou, de ofício, a colheita de depoimentos dos presidentes das big techs Google, Meta e Spotify e do canal Brasil Paralelo sobre as medidas tomadas, além da retirada das informações, textos, anúncios e impulsionamentos a partir do Google contra a proposta, ressaltando a possível configuração de abuso de poder econômico e tentativa de impactar de maneira ilegal e imoral a opinião pública e dos parlamentares, com indução à manutenção "condutas criminosas praticadas pelas milícias digitais investigadas (...)". A decisão mais uma vez suscitou polêmica, questionando-se o ativismo por parte do Ministro em lidar com a situação de ofício e imediatamente, além de acusações, de senadores como Flávio Bolsonaro6, de que a medida interfere no processo legislativo, sendo um ataque à separação dos Poderes. Aponta-se, no entanto, que a problemática será enfrentada pelo Estado, tendo em vista os impactos claros que o novo contexto fático de uma economia de dados e da digitalização de uma esfera pública ou, pelo menos, da virtualização da opinião pública com forte protagonismo das plataformas sociais como ambientes de debate e impulsionamento, de fluxo de informações e sobretudo de dados. A influência dessas plataformas sobre o debate público brasileiro não pode se dar de maneira abusiva, com a captura da discussão pública por meio desse lobby, através da manipulação da publicidade digital e afins. Esse enfrentamento não realizado pelo Legislativo no agora gera, inevitavelmente, protagonismo do Judiciário para resolver questões concretas de efetivação de direitos fundamentais com a utilização da hermenêutica constitucional, ressaltando-se o provável julgamento da inconstitucionalidade do artigo 19 do Marco Civil.7 No mesmo sentido, o CADE e a SENACON também determinaram ações para lidar com o tema. Rodrigo Pacheco, presidente do Senado Federal, casa em que o PL 2360 foi aprovado, inclusive, apresentou, dois dias depois da retirada de pauta em questão, um projeto de lei para regulamentação da inteligência artificial, o PL 2.338/23. Consequência de amplo debate e de um relatório apresentado por uma comissão de juristas no Senado, a proposta guarda intrínseca relação com o PL das Fake News, prevendo necessidade de informação prévia sobre sistemas de inteligência artificial, explicações sobre suas decisões, intervenção humana, vedação à discriminação além de listar sistemas de alto risco em que o  acompanhamento deve ser mais próximo, com governança, transparência e isonomia. No mesmo sentido, trata também de responsabilização civil. De um lado ou de outro, conclui-se que o contexto factual, marcado pela economia de dados e pelo fluxo informacional incessante e intenso, imprescinde de uma resposta do Direito no sentido de enfrentar a realidade dos fatos concretos em respeito ao ordenamento jurídico pátrio e aos direitos que nele estão positivados. Seja por meio do Legislativo, do Judiciário e até do Executivo, o Estado brasileiro, assim como os Estados que se nomeiam Estados Democráticos de Direito devem, cedo ou tarde, lidar com a regulação, seja da desinformação, seja da inteligência artificial, no sentido de evitar tanto a captura das instituições do Estado pelas Big Techs quanto de proteger direitos fundamentais.  _____________ 1 BINENBOJM, Gustavo. Regulação de redes sociais: entre remédios e venenos. In: JOTA. Publicado em 02 de maio de 2023. Disponível em: https://www.jota.info/opiniao-e-analise/colunas/publicistas/regulacao-de-redes-sociais-entre-remedios-e-venenos-02052023 . Acesso em: 08 de maio de 2023. 2 FIGUEIREDO, Janaína. In: O GLOBO. Entrevista: PL das Fake news inova ao regular WhatsApp e Telegram, diz pesquisador Ricardo Campos. Disponível em: https://oglobo.globo.com/politica/noticia/2023/04/entrevista-pl-das-fake-news-inova-ao-regular-whatsapp-e-telegram-diz-pesquisador-ricardo-campos.ghtml . 3 BINENBOJM, Gustavo. Regulação de redes sociais: entre remédios e venenos. In: JOTA. Publicado em 02 de maio de 2023. Disponível em: https://www.jota.info/opiniao-e-analise/colunas/publicistas/regulacao-de-redes-sociais-entre-remedios-e-venenos-02052023. Acesso em: 08 de maio de 2023. 4 NETLAB. A Guerra das Plataformas Contra o PL 2630. Abril, 2023. Disponível em: https://uploads.strikinglycdn.com/files/2cab203d-e44d-423e-b4e9-2a13cf44432e/A%20guerra%20das%20plataformas%20contra%20o%20PL%202630%20-%20NetLab%20UFRJ,%20Abril%202023.pdf. Acesso em: 08 de maio de 2023. 5 BRASIL. Supremo Tribunal Federal. Inquérito 4.781 Distrito Federal. Relator Min. Alexandre de Moraes. Disponível em: https://www.stf.jus.br/arquivo/cms/noticiaNoticiaStf/anexo/INQ4781GOOGLE.pdf . Acesso em: 08 de maio de 2023. 6 AGÊNCIA SENADO. Ação de Moraes contra plataformas digitais provoca debate entre senadores. Disponível em: https://www12.senado.leg.br/noticias/materias/2023/05/02/pl-das-fake-news-acao-de-moraes-contra-plataformas-digitais-provoca-debate . Acesso em: 02 de maio de 2023. 7 LEONARDO, Rodrigo Xavier. Controle de constitucionalidade do Marco Civil da Internet em audiência no STF. Consultor Jurídico, 3 de abril de 2023. Disponível em: . Acesso em: 08 de maio de 2023.
Recente notícia informa que a Microsoft chegou a um acordo para pagamento de multa de US$20 milhões para resolver disputa iniciada pela Federal Trade Commission (FTC) norte-americana por violação ao Children's Online Privacy Protection Act (ou COPPA, na sigla em inglês). Segundo a FTC, a empresa coletou dados pessoais de crianças e adolescentes que se cadastraram no seu sistema de jogos Xbox sem notificar ou obter o consentimento de pais ou responsáveis, e reteve ilegalmente essas informações1. Além da sanção pecuniária, o a Microsoft concordou em robustecer as proteções à privacidade do público infantojuvenil no sistema Xbox. Entre as medidas estabelecidas estão a ampliação das proteções do COPPA para editoras de jogos terceirizadas que compartilham dados de crianças e adolescentes com a Microsoft, bem como a inclusão de "avatares" gerados a partir de imagens de crianças e informações biométricas e de saúde no escopo das regras do COPPA. Para melhor contextualizar a violação, convém registrar que o COPPA é uma legislação dos Estados Unidos da América que foi promulgada em 1998 com o objetivo de proteger a privacidade on-line de crianças, adotando-se o critério etário de 13 anos2. O COPPA estabelece regras específicas que os operadores de sites, serviços on-line e aplicativos em geral devem seguir ao coletar dados pessoais desse público e sua principal exigência é que tais operadores obtenham o consentimento verificável dos pais antes de coletar, usar ou divulgar informações pessoais de uma criança3. O consentimento verificável é um processo que deve ser razoavelmente projetado para garantir que quem fornece o consentimento seja o pai ou responsável legal da criança. Isso pode envolver procedimentos analógicos, como o envio de um formulário físico assinado e remetido por correio, a autenticação por telefonema, ou mesmo procedimentos automatizados em meio eletrônico, como o fornecimento de informações de cartão de crédito, o envio de um alerta por aplicativo ou o duplo cadastro, que exige uma conta para o genitor/supervisor e outra para a criança que utilizará o serviço4. No Brasil, a Lei Geral de Proteção de Dados Pessoais (Lei n. 13.709/2018) define o consentimento como uma dentre várias hipóteses de tratamento de dados pessoais (art. 7º, I) e de dados pessoais sensíveis (art. 11, I), e indica a necessidade de especificação e destaque dado por pelo menos um dos pais ou pelo responsável legal para o tratamento de dados pessoais de crianças (art. 14, §1º)5. Não há exigência similar quanto ao consentimento para o tratamento de dados pessoais de adolescentes, que são mencionados apenas no caput do artigo 14, do qual consta a exigência de observância ao princípio do melhor interesse6. Além do consentimento verificável, o COPPA exige que os operadores forneçam aos pais um aviso claro e completo sobre as práticas de coleta e uso de dados pessoais. Esse aviso deve descrever os tipos de informações coletadas, como elas são usadas e se são compartilhadas com terceiros. Os pais ou responsáveis devem ter a opção de consentir ou recusar a coleta e uso de dados pessoais dos menores, sem condicionantes de uso, o que revela grande proximidade7 entre o escopo protetivo da norma estadunidense com a exigência contida no §4º do artigo 14 da LGPD: "Os controladores não deverão condicionar a participação dos titulares de que trata o § 1º deste artigo em jogos, aplicações de internet ou outras atividades ao fornecimento de informações pessoais além das estritamente necessárias à atividade". Outra obrigação imposta pelo COPPA é a de manter a segurança das informações coletadas das crianças, o que está em total sintonia com as exigências da LGPD brasileira, particularmente em razão do princípio da segurança (art. 6º, VII) e do dever geral de segurança da informação (art. 46). Basicamente, devem ser implementadas medidas razoáveis para proteger dados pessoais contra acessos não autorizados, uso indevido ou divulgação ilícita. O COPPA também estabelece regras específicas para a retenção de dados, definindo que operadores somente podem reter as informações pelo tempo necessário para cumprir a finalidade para a qual foram coletadas, devendo eliminá-las, de forma segura, quando não forem mais necessárias. Tal exigência se coaduna com o princípio da necessidade, expressamente definido na LGPD brasileira a partir da "limitação do tratamento ao mínimo necessário para a realização de suas finalidades, com abrangência dos dados pertinentes, proporcionais e não excessivos em relação às finalidades do tratamento de dados" (art. 6º, III). É importante ressaltar que o COPPA se aplica a qualquer site, serviço on-line ou aplicativo que seja direcionado a crianças menores de 13 anos ou que tenha conhecimento real de que está coletando informações pessoais de crianças. Isso inclui sites e aplicativos voltados especificamente para crianças, bem como sites e aplicativos geralmente direcionados a um público amplo, mas que sabidamente coletam informações pessoais de crianças. Além disso, o não cumprimento do COPPA pode resultar em ações de fiscalização, multas e até mesmo processos judiciais, sendo a FTC é a agência responsável por sua aplicação. Voltando ao caso envolvendo a Microsoft, de acordo com a reclamação apresentada pelo Departamento de Justiça (DOJ) norte-americano, a empresa violou os requisitos de notificação, consentimento e retenção de dados da COPPA. Isso porque, na fattispecie, os jogos eletrônicos disponibilizados para o sistema Xbox da Microsoft permitem que os usuários joguem e conversem8 com outros jogadores por meio do serviço on-line Xbox Live. Para acessar e jogar em um console Xbox ou usar qualquer uma das outras funcionalidades do Xbox Live, os usuários devem criar uma conta, fornecendo dados pessoais cadastrais, como nome completo, endereço de e-mail e data de nascimento. Porém, mesmo quando um usuário indicava que tinha menos de 13 anos, até o final de 2021, era solicitado o fornecimento de informações adicionais, como número de telefone, e a concordância com o contrato de serviço, o acordo de licença de usuário final (EULA) e a política de publicidade da Microsoft, que, até 2019, incluía uma caixa pré-marcada permitindo que a Microsoft enviasse mensagens promocionais e compartilhasse dados do usuário com anunciantes, de acordo com a reclamação. Somente após os usuários fornecerem essas informações é que a Microsoft exigia que qualquer pessoa menor de 13 anos envolvesse seus pais ou responsáveis no processo de criação da conta. A partir de então, o genitor ou responsável tinha que concluir o processo de criação da conta antes que a criança pudesse ter acesos a ela. Segundo a reclamação, entre 2015 e 2020, a Microsoft reteve os dados - às vezes por anos - que coletou das crianças durante o processo de criação de conta, mesmo quando um genitor ou responsável não concluía o processo. Essa foi a principal violação diagnosticada, pois o COPPA proíbe a retenção de dados pessoais sobre crianças por mais tempo do que o necessário para cumprir a finalidade para a qual foram coletadas. Seria equivalente a uma violação ao já mencionado princípio da necessidade definido no artigo 6º, inciso III, da LGPD. Também foi objeto da reclamação o fato de que, após a criação de uma conta, a criança pode criar um perfil virtual que incluirá o seu "gamertag", que é o identificador principal visível para ela própria e para outros usuários do Xbox Live (sendo semelhante ao um nickname), podendo também fazer o upload de uma foto ou utilizar um avatar, que é uma figura ou imagem com aspecto de caricatura que representa o usuário. Segundo a reclamação, a Microsoft combinava essas informações com um identificador persistente exclusivo criado para cada titular de conta, inclusive crianças, e tinha poder de compartilhar essas informações com desenvolvedores de jogos e aplicativos terceirizados. A Microsoft permitia - por padrão - que todos os usuários, inclusive crianças, jogassem jogos e usassem aplicativos de terceiros enquanto estivessem no Xbox Live, exigindo que os pais tomassem medidas adicionais para optar por não permitir que seus filhos os acessassem. Elora Fernandes e Filipe Medon destacam que os pais possuem papel de grande relevância na tomada de decisão dos filhos quando há a necessidade do consentimento para tanto, mas que, com a evolução etária, a criança ou adolescente passa a manifestar os próprios interesses e vontades. O papel dos pais ou responsáveis se reduz para que seja demonstrado o respeito, naquilo em que couber, em relação às decisões dos filhos. O que, conforme os autores pontuam, "não significa dizer, contudo, que os pais se exoneram de suas responsabilidades9". Para solucionar a investigação, além da sanção monetária, a Microsoft ainda concordou com as seguintes exigências: (i) informar os pais ou responsáveis que não criaram uma conta separada para seu filho de que fazê-lo fornecerá proteções adicionais de privacidade para a criança, por padrão; (ii) obter o consentimento dos pais ou responsáveis para contas criadas antes de maio de 2021, se o titular da conta ainda for uma criança; (iii) estabelecer e manter sistemas para excluir, dentro de duas semanas a partir da data de coleta, todos os dados pessoais coletados de crianças para fins de obtenção do consentimento dos pais ou responsáveis, caso não tenha sido obtido, e excluir todos os outros dados pessoais coletados de crianças após cessar a necessidade de cumprir a finalidade para a qual foram coletados; (iv) notificar os estúdios desenvolvedores de jogos eletrônicos quando divulgar dados pessoais de crianças, informando que o usuário é uma criança, o que exigirá que tais empresas apliquem as proteções do COPPA a essa criança. É inegável que crianças são consideradas um grupo vulnerável, pois podem não ter a capacidade de entender completamente as implicações da coleta e do uso de seus dados pessoais, se tornando alvos fáceis para práticas injustas ou abusivas relacionadas à coleta de informações em ambientes virtuais. Para os chamados "nativos digitais", é preciso considerar os contextos nos quais as crianças interagem em ambientes virtuais e como assimilam os reflexos dessas interações quanto à privacidade10. Segundo Fernando Büscher von Teschenhausen Eberlin, no caso das crianças, "a vulnerabilidade técnica ocorrerá casuisticamente, dependendo da idade da criança e do conhecimento que ela possui sobre o produto ou serviço adquirido"11. Além disso, a indústria de jogos eletrônicos cresceu significativamente nos últimos anos, com milhões de jogadores em todo o mundo, incluindo um grande número de crianças. E, com a popularidade dos jogos on-line e a expansão de plataformas de jogos, como consoles, PCs e dispositivos móveis, há uma maior exposição de crianças a serviços on-line que necessariamente coletam dados pessoais para viabilizar a prestação do serviço. Nesse contexto, a ação tomada pela FTC contra a Microsoft é emblemática, pois destaca a importância da proteção dos dados pessoais das crianças (e, também, dos adolescentes) em aplicações on-line. Ao exigir o cumprimento das regras do COPPA e impor à Microsoft penalidades por violações, a FTC visa garantir que dados pessoais do público infantojuvenil sejam tratados de maneira adequada e que os pais tenham controle sobre a coleta e uso desses dados. A ordem proposta reforçará as proteções de privacidade no sistema Xbox e estabelecerá medidas claras para a coleta, retenção e divulgação de dados pessoais desse público, o que é relevante a nível global12 pela própria pujança do mercado de jogos eletrônicos e pelo amplo acesso que se tem aos serviços on-line da Xbox Live. Esses dados pessoais podem ser usados para diversos fins, como a personalização de experiências de jogo, o direcionamento de publicidade e análises de mercado. Por isso, a coleta e o uso dessas informações podem representar riscos à privacidade e segurança das crianças a ponto de demandar releituras de institutos tradicionais, ou, como assevera Rosane Leal da Silva, "o maior desafio, doravante, não será na seara da normatização, mas de buscar a sua efetivação, evitando que se deturpe o sentido e o alcance do princípio do melhor interesse"13. Como já defendi em trabalho escrito em conjunto com Fernanda Pantaleão Dirscherl, "como consequência, maior responsabilidade se exige de controladores e operadores de dados, que devem realizar suas atividades, desenvolvendo meios elucidativos e explícitos para a legitimação do tratamento de dados, sempre em respeito ao princípio do melhor interesse. Caso contrário, a inobservância de tal princípio - que, repita-se, está elencado no próprio caput do artigo 14 e tem aplicação a crianças e adolescentes - já representará violação à lei e poderá desencadear consequências civis e administrativas"14. Assim, sendo certo que nem todo controle é facilmente exercido pelos pais15, o que revela a importância do debate mais específico sobre dados pessoais, não há dúvidas de que a casuística será imprescindível para que se possa inferir a aplicação dos requisitos para o tratamento de dados pessoais em sintonia com a imprescindível observância do melhor interesse, que se aplica a todas as faixas etárias inferiores a 18 anos. E, sem dúvidas, essa é a principal lição que se extrai do caso envolvendo as sanções aplicadas à Microsoft. __________ 1 ESTADOS UNIDOS DA AMÉRICA. Federal Trade Commission. FTC Will Require Microsoft to Pay $20 million over Charges it Illegally Collected Personal Information from Children without Their Parents' Consent, 5 jun. 2023. Disponível aqui. Acesso em 10 jun. 2023. 2 Para fins de comparação, convém lembrar que, no Brasil, considera-se criança a pessoa com doze anos incompletos, e adolescente a pessoa com idade entre doze e dezoito anos, segundo previsão do artigo 2º do Estatuto da Criança e do Adolescente (Lei nº 8.069, de 13 de julho de 1990). Desse modo, a proteção estabelecida no COPPA, em relação ao público infantojuvenil brasileiro, não cuida somente de crianças, mas também de adolescentes com idade entre doze e treze anos. 3 Com a ampliação do acesso a serviços digitais em geral, um dos grandes desafios relacionados ao COPPA envolve a identificação do usuário para que se possa saber se a pessoa é, ou não, uma criança. Segundo Roberta Densa: "O desafio enfrentado está relacionado a entender quem é o usuário da plataforma e se essa pessoa é ou não uma criança. Se o COPPA exige que o website e que serviços online dirigidos para crianças tomem cuidados para coleta e tratamento de dados, também exige para aqueles que são voltados para o público em geral, mas que coletam informações sobre o público infantil". DENSA, Roberta. Publicidade digital e proteção de dados de crianças e adolescentes nos Estados Unidos. Migalhas de Proteção de Dados, 22 out. 2021. Disponível aqui. Acesso em: 10 jun. 2023. 4 Existem várias empresas que oferecem serviços especializados em obtenção de consentimento verificável de pais ou responsáveis para acesso de crianças a jogos e serviços on-line, tais como a AgeCheq, SuperAwesome/KWS, GDPRiS e PRIVO. 5 Quanto às particularidades do artigo 14 da LGPD, conferir, por todos, o comentários de DENSA, Roberta. Artigo 14 (Do Tratamento de Dados Pessoais de Crianças e de Adolescentes). In: MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti; FALEIROS JÚNIOR, José Luiz de Moura (coord.). Comentários à Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018). Indaiatuba: Foco, 2022, p. 181-199. 6 Segundo Mariana Palmeira e Caitlin Mulholland: "Apesar de indicar no caput o adolescente como titular de dados pessoais, o conjunto de parágrafos do artigo 14 não deixa dúvidas acerca do seu alcance limitado a crianças, na medida em que em nenhuma outra oportunidade faz menção ao termo adolescente. A restrição é estabelecida logo no parágrafo 1º com a dicção literal: "o tratamento de dados pessoais de crianças deverá ser realizado (...)", para então, nos parágrafos subsequentes, fazer referência sempre aos termos do que está disposto neste parágrafo inicial. Significa dizer que os adolescentes terão tutelados os seus dados pessoais sempre à luz do princípio do melhor interesse, mas as regras específicas previstas no artigo 14 e seus parágrafos só serão aplicadas às situações de tratamento de dados de crianças". PALMEIRA, Mariana; MULHOLLAND, Caitlin. As bases legais para tratamento de dados da criança e a abrangência dos parágrafos do artigo 14, da LGPD. Migalhas de Proteção de Dados, 17 set. 2021. Disponível aqui. Acesso em: 10 jun. 2023. 7 Em relação às exigências contidas no artigo 14 da LGPD, concordamos com Chiara Spadaccini de Teffé, que assim se pronuncia: "os controladores deverão realizar todos os esforços razoáveis para verificar se o consentimento a que se refere o §1º foi manifestado pelo responsável pela criança, consideradas as tecnologias disponíveis (artigo 14, §5º). Identifica-se, aqui, dever de cuidado atribuído ao controlador. Pondera a doutrina que se, por um lado, o controlador não pode tratar dados antes do consentimento, por outro, precisará de tais dados para contatar o responsável legal pela criança. Dessa forma, os controladores deverão apurar sua verdadeira idade, para, se for o caso, suspender o tratamento de seus dados até a obtenção do consentimento do responsável". TEFFÉ, Chiara Spadaccini de. Tratamento de dados pessoais de crianças e adolescentes: considerações sobre o artigo 14 da LGPD. In: MULHOLLAND, Caitlin (Org.). A LGPD e o novo marco normativo no Brasil. Porto Alegre: Arquipélago Editorial, 2020, p. 170. 8 Sobre essa peculiaridade, é importante a lembrança de Ian Bogost quanto à proeminência das estruturas "free-to-play" direcionadas ao público mais jovem: "Between 2003 and 2009 two big shifts took place in the games marketplace. The first was Facebook, which released a platform for developers to make apps and games that would run within the social network's ecosystem. The second was the iPhone, the Apple App Store, and the copycats and spin-offs that it inspired. By the end of the first decade of the new millennium, free-to-play had become the norm for new games, particularly those being released for play online, via downloads, on social networks, and on smartphones-a category that is quickly overtaking disc-based games in both sales and cultural significance." BOGOST, Ian. How to talk about videogames. Minneapolis: University of Minnesota Press, 2015, p. 49-50. 9 FERNANDES, Elora; MEDON, Filipe. Proteção de crianças e adolescentes na LGPD: Desafios interpretativos. Revista Eletrônica da PGE-RJ, Rio de Janeiro, v. 4, n.2, maio/ago., 2021, p. 4. 10 LIVINGSTONE, Sonia; STOILOVA, Mariya; NANDAGIRI, Rishita. Children's data and privacy online: Growing up in a digital age. An evidence review. Londres: London School of Economics and Political Science, 2019, p. 13. 11 EBERLIN, Fernando Büscher von Teschenhausen. Direitos da criança na sociedade da informação: ambiente digital, privacidade e dados pessoais. São Paulo: Thomson Reuters Brasil, 2020, p. 163. O autor ainda acrescenta: "Muitas vezes, o entendimento técnico das crianças em relação a produtos e serviços da sociedade da informação pode ser maior do que o dos adultos. A melhora na qualidade das informações técnicas e a boa-fé na sua transmissão ao consumidor são formas de minimizar essa assimetria". 12 Conferir, sobre o tema e no contexto mais específico da regulamentação da OCDE o interessante artigo de: DENSA, Roberta; DANTAS, Cecília. Proteção de dados de criança em meio digital: análise dos riscos conforme a Organização para Cooperação e Desenvolvimento (OCDE). Migalhas de Proteção de Dados, 10 jun. 2022. Disponível aqui. Acesso em: 10 jun. 2023. 13 SILVA, Rosane Leal da. A infância conectada: a proteção de dados pessoais de crianças e adolescentes em perspectiva comparada entre a União Europeia e o Brasil. In: DE LUCCA, Newton; SIMÃO FILHO, Adalberto; LIMA, Cíntia Rosa Pereira de; MACIEL, Renata Mota (Coord.). Direito & Internet IV: sistema de proteção de dados pessoais. São Paulo: Quartier Latin, 2019, p. 284. 14 FALEIROS JÚNIOR, José Luiz de Moura; DIRSCHERL, Fernanda Pantaleão. Proteção de dados de crianças e adolescentes em redes sociais: uma leitura do artigo 14 da LGPD para além do mero controle parental. In: TEIXEIRA, Ana Carolina Brochado; FALEIROS JÚNIOR, José Luiz de Moura; DENSA, Roberta (coord.). Infância, adolescência e tecnologia: o Estatuto da Criança e do Adolescente na sociedade da informação. Indaiatuba: Foco, 2022, p. 359. 15 DENSA, Roberta. Proteção jurídica da criança consumidora. Indaiatuba: Foco, 2018, p. 191.
sexta-feira, 23 de junho de 2023

CPF: vilão ou aliado à LGPD?

Introdução Os documentos nacionais de identificação civil são uma realidade para a maioria dos países. No site da World Privacy Forum1 é possível ver uma lista (de 2021) de países que adotam identidades nacionais (id), os que têm id digitalizadas e também os que têm, no documento de identificação, com algum dado biométrico associado, tal como a impressão digital ou uma imagem da íris. No Brasil estamos acostumados a usar dois documentos nacionais de identificação, que são a Carteira de Identidade (RG) e o Cadastro de Pessoa Física (CPF). Não estamos aqui deixando de considerar a Carteira Nacional de Habilitação e, muito menos, e talvez o mais importante deles, o nosso primeiro e obrigatório documento, a Certidão de Nascimento. Não obstante os dois últimos, no nosso cotidiano os números do RG e do CPF são realmente imprescindíveis para muitos e serviços, tanto públicos quanto os privados. Notem também que dos dados incluídos nestes documentos, tais como o seu nome, o nome da sua mãe, entre outros, nenhum é tão importante quanto o número do documento, mais especificamente o número do RG e o número do CPF. Reforço que estes números indexam quase todos os "movimentos" da nossa vida, indexam nosso cotidiano. O grande livro Imaginem que possa haver um livro de registro diário de todas as atividades de todas as pessoas neste país. As pessoas saem de casa com seus carros, compram em lojas e farmácias, frequentam escolas e academias, vão a shows e cinemas, usam transporte público, entre diversas outras atividades, e tudo passa a ser registrado neste livro de "movimentos". Notem que para praticamente todos estes "movimentos" têm um número de RG ou CPF embutido ou associado: na carteira de habilitação, nas compras com nota fiscal (ou sem, como nas farmácias), nas escolas e academias usamos estes números, como também para conseguir outros serviços e documentos (cartões de banco, cartões de transporte coletivo, serviços de internet e telefonia), quase tudo tem um número de CPF associado. Até quem usa a internet, o seu número de IP está associado à sua conta no provedor que, obviamente, tem seu número de CPF. Voltemos ao livro dos "movimentos". Se indexarmos todas as tarefas descritas neste livro pelo CPF dos envolvidos teremos listados num índex, ao final do livro, todos os "movimentos" e atividades que fizemos ao longo do dia. Este livro físico ainda não existe e, provavelmente, não vai existir, mas certamente existem vários livros digitais pela web que acompanham nossa vida. E qual é o problema? Voltando ao site da World Privacy Forum2 vemos que a maioria dos países têm algum tipo de id nacional, no entanto e estranhamente para muitos leitores, alguns países não obrigam seus cidadãos a terem um id. Por exemplo, nos países do Reino Unido (Inglaterra, Escócia, País de Gales e Irlanda do Norte) um id não é um documento compulsório. A necessidade de um documento de identificação nasceu devido ao fato do Reino Unido estar totalmente envolvido na Segunda Guerra Mundial entre 1939 e 1945. Nesta época as pessoas recebiam uma carteira de identidade nacional individual que deveria ser carregada o tempo todo (até 1952) e cadernetas de racionamento para alimentos e mercadorias escassas (o racionamento continuou até 1954)3. Os cartões de identificação do tempo de guerra foram finalmente retirados pelo governo de Churchill em 1952, sete anos após o final da guerra4, devido às tensões criadas entre a polícia e cidadãos inocentes. Consequentemente, hoje muitos países do Commonwealth não emitem um cartão nacional de identidade, tais como a Austrália, o Canadá e Nova Zelândia, muito embora todos eles exijam documentos específicos de identificação para algumas atividades, tais como dirigir um veículo automotor, viajar ao exterior, votar, entre outros. Percebemos assim, que a existência ou não de um documento de identificação nacional não é imperativo e muito menos impeditivo para o exercício da cidadania em muitos países. Mesmo sem um documento de identificação um cidadão consegue trabalhar, estudar, ter uma moradia, constituir família, enfim, viver dignamente. Notem que, identificar uma pessoa não significa identificar univocamente esta pessoa, ou seja, assegurar a singularidade do registro. Em outras palavras, os dados contidos num documento de identificação não necessariamente precisam ser únicos e específicos para um único indivíduo. Tomemos, como exemplo, o passaporte. Ele é um documento de identificação aceito internacionalmente e dele constam seu nome, nacionalidade, data e local de nascimento, sexo e nomes dos pais. Não existe um número único de identificação associado à pessoa do passaporte. Até mesmo o número do passaporte segue a validade do documento. Mesmo que alguém possa considerar que o conjunto de dados do passaporte seja único, ou seja, o nome seu, dos seus pais, aliado aos outros dados... só poderia ter uma pessoa nestas condições. No entanto, sabemos que isso vale para quase todos, mas tecnicamente não garante a unicidade da pessoa. Já, o CPF é esse número único. Existe um número "estampado" em cada um de nós. A lei 14.534 de 11/01/2023 Em seu artigo primeiro "Fica estabelecido o número de inscrição no Cadastro de Pessoas Físicas (CPF) como número único e suficiente para identificação do cidadão nos bancos de dados de serviços públicos."5. Pronto! Criamos um número único que será o identificador de praticamente todos os nossos registros e documentos públicos, tais como: certidão de nascimento, casamento, óbito, identidade, PIS, PASEP, título de eleitor, CNH, entre outros. Esta lei tem origem no PL 1.422/2019 cujo relator, senador Esperidião Amin (PP-SC), alega que a medida favorece os cidadãos, especialmente os mais pobres6. No entanto, a configuração de um número de identificação nacional, um número de identidade nacional, é usado pelos governos de muitos países como um meio de rastrear seus cidadãos, residentes permanentes e residentes temporários para fins de trabalho, tributação, benefícios governamentais, cuidados de saúde e outras funções relacionadas com o governo. Números únicos também existem em outros países, mas com finalidades específicas. Por exemplo, nos EUA número de Seguro Social (Social Security Number, SSN) é um número individualizado de nove dígitos emitido para cidadãos dos EUA, residentes permanentes e temporários que é usado para requerer benefícios sociais e para fins fiscais. Lembro-me das recomendações dos funcionários da agência local da Social Security Administration de sigilo total sobre este número, quando recebi um SSN. Nos EUA não usamos o SSN para abrir conta em banco, para compras no comércio (incluindo farmácias), para fins escolares, entre outros. Um SSN é um número sigiloso guardado a "sete chaves". Existe um motivo para termos números únicos? Os números associados à documentos nasceram como um modo de indexação dos documentos. Para não fazer buscas grandes quantidades de registros por nomes ou outros dados complexos, é mais fácil, tanto para um humano quanto para uma máquina, buscar por um número. Assim os números foram adotados apenas com parte da burocracia de lidar com grandes volumes de documentos. Lembrem-se, já existiu um tempo em que o mundo não era digital, ou seja, os registros eram fixados em mídias analógicas, papel basicamente. No entanto, a lógica do processo analógico, ou seja, a lógica de negócio, não mudou quando o mundo passou a ser digital, pois a mudança do mundo analógico para o digital foi gradual. Assim, os números continuaram a indexar os registros computacionais, ou seja, existiam números internos de registros para tudo, CNH, RG, PIS, Passaporte, etc. Percebam que, dada a grandiosidade do universo que se deseja endereçar, ter uma identificação única pode ser uma boa ideia, mesmo em serviços que já nasceram digitais. Por exemplo, é desejável que só exista um @cristiano no Instagram, o perfil do futebolista Cristiano Ronaldo, o ser humano com maior número de seguidores nesta plataforma [6], com 590 milhões de followers, "míseros" 8% da população mundial. A identificação unívoca garante que o usuário não se enganará a seguir o eventual perfil de outra pessoa com o mesmo identificador. O mesmo vale para endereço de e-mail e páginas web (URL). Não é por falta de um id obrigatório e único que os cidadãos da Noruega, França, Suécia, México, Itália, entre diversos outros, não recebem os serviços do estado, tampouco cumpram suas obrigações perante seus municípios, distritos e assemelhados. Por sinal, cabe reforçar que vários países, dentre esses a própria Itália, aceita solicitações de cidadania baseadas apenas na consanguinidade de parentes (avôs e avós, por exemplo) por meio de documentos muitas vezes rudimentares, como livros de registros paroquiais, por exemplo. Lembro que aceitando um novo cidadão, o estado assume uma série de obrigações, tais como prover saúde, educação e segurança a esta pessoa. Efetivamente a lei 14.534 não traz benefícios aos cidadãos brasileiros por disporem, a partir de janeiro, de um apenas um número único de identificação. Num estado que se esforça para disponibilizar até mesmo eleições nacionais num modelo totalmente digital sem a necessidade dos eleitores apresentarem um id singular à sua pessoa, não deveria haver a necessidade de fusão de todos seus registros públicos num número único para prestar os demais serviços obrigatórios. Hoje, com praticamente todos os serviços públicos digitalizados, não deveria ser ônus do cidadão a facilitação da associação de dados diversos que podem expô-lo por completo para qualquer serviço público. Notem que, com um número único, todos os seus registros, do nascimento, passando pelos postos de saúde, eleições, trabalho, vida escolar, fiscal e, até a sua morte, todos estarão indexados a um único identificador, um único indexador. Teremos um número que controla a sua vida, não por sua escolha, mas por imposição do estado. Conclui-se que, diferentemente do favorecimento dos "cidadãos, especialmente os mais pobres", a única motivação para um id único é a rastreabilidade dos individuos. O que a LGPD ofereceu com uma mão, a lei nº 14.534 tirou com a outra. No próximo artigo veremos com a comunidade europeia, avessa as ideias de um id único, reage às pressões da Comissão Europeia ávida para impor um modelo semelhante ao nosso. Referências bibliográficas 1. National IDs Around the World - Interactive map. Disponível aqui. Último acesso em 12 de junho de 2023. 2. Identity cards abolished after 12 years - archive, 1952. A Disponível aqui. Último acesso em 14 de junho de 2023. 3. Reconsidering the case for ID cards. Disponível aqui. Último acesso em 13 de junho de 2023. 4. Lei nº 14.534 de 11/01/2023. Disponível aqui. Último acesso em 14 de junho de 2023. 5. CPF será número único de identificação do cidadão, determina lei sancionada. Disponível aqui. Último acesso em 14 de junho de 2023. 6. The Top 20 Most Followed Instagram Accounts. Disponível aqui. Último acesso em 14 de junho de 2023.
Introdução Em maio de 2023, um investidor processou a Coinbase por "insider trading" nos Estados Unidos. O CEO, um membro do conselho e outros executivos da referida corporação de intermediação de criptomoedas foram acusados de utilizarem informações privilegiadas para evitar perdas de mais de US$ 1 bilhão. Além de ter vendido rapidamente US$ 2,9 bilhões em ações antes que a administração da Coinbase revelasse posteriormente "informações negativas e materiais que destruíram o otimismo do mercado"1, a empresa também é acusada de coletar ilegalmente impressões digitais e modelos faciais dos usuários - dados obrigatórios para a abertura de uma conta.2 Afirma-se que o armazenamento de tais informações biométricas sensíveis expõem os usuários a altos riscos de violação de privacidade por meio de vazamento de dados. Hoje, em uma conjuntura global pautada pela digitalização dos documentos, compartilhamento em nuvem e ainda recentes legislações sobre a aplicação de tecnologias de proteção aos dados armazenados, a divulgação de informações por agentes internos - insiders - para fins de benefício próprio tem se tornado cada vez mais comum. O presente artigo apresentará breve síntese deste fenômeno, seguido por métodos de prevenção contra insider trading e consequente discussão. Vazamento de Dados A violação de dados pessoais vem se tornando uma prática regular, em que apenas um vazamento pode resultar em milhões de usuários com dados pessoais expostos e causar prejuízos financeiros na casa dos milhões de dólares. Conforme o Relatório de Custo de Violação dos Dados em 2022, publicado pela IBM Security e pelo Ponemon Institute3, com escopo de 550 empresas impactadas por violação de dados, em 17 países e regiões e em 17 setores diferentes, foi calculado que o custo total médio global de uma violação de dados é de US$ 4,35 milhões. Tal prática vem infelizmente se tornando mais fácil de ser implementada devido não só à incipiente regulação jurídico-econômica de ferramentas como a Inteligência Artificial, mas também às recentes legislações sobre proteção de dados (Regulamento Geral sobre a Proteção de Dados - GDPR no direito europeu - data de 2018 enquanto a Lei Geral de Proteção de Dados - LGPD no direito brasileiro - data de 2020). Essa prática também se acentua devido a ferramentas de armazenamento em nuvem e drives compartilhados: o relatório supracitado4 afirma que 45% das empresas admitiram violação e vazamento das informações da nuvem. Os vazamentos intencionais ocorrem por meio de outsiders ou insiders. O primeiro abrange agentes externos, por intermédio de ciberataques, hackeamento, vírus, malwares e engenharia social.5 Exemplos dessas condutas podem envolver um agente externo que tem a capacidade de explorar um backdoor do sistema ou controles de acesso mal configurados para contornar o mecanismo de autenticação de um servidor e obter acesso a informações confidenciais, ou, por meio da engenharia social, funcionários e clientes podem ser enganados através de emails contendo malwares disfarçados para que entreguem dados valiosos da empresa a criminosos.6 Já a segunda categoria é formada por agentes internos, não necessariamente funcionários, mas também parceiros, advogados, técnicos de T.I. ou qualquer outro indivíduo que possua acesso legítimo às informações confidenciais e utilize-as para vantagem pessoal ou espionagem empresarial/bancária.7 Sua forma mais comum é a do insider trading8: a venda ou aquisição de ações após conhecimento da violação de dados ou de informações privilegiadas, mas antes do anúncio público - a exemplo da equipe da Coinbase; e a venda ou uso de informações privilegiadas de clientes - dados de identificação pessoal (biometria), financeira (contas, senhas e históricos bancários) e sexual, religiosa, urbanística, etc. Detecção e Prevenção contra o Insider Trading Como revela o "Custo de Ameaças Internas de 2022: Relatório Global", os casos de ameaças internas aumentaram 44% nos últimos dois anos, com custos por incidente subindo mais de um terço, para US$ 15,38 milhões.9 Da mesma forma, o Relatório de Ameaças Internas do IBM Security X-Force 2021 afirma que 40% dos incidentes de vazamento de dados envolveram um funcionário com acesso privilegiado aos ativos da empresa.10 Diante desse cenário, urge pontuar as medidas necessárias para detectar e prevenir a ação de insiders: para isso, é necessária a ação conjunta de sistemas de prevenção e detecção de vazamento de dados (DLPD)11 e técnicas de gerenciamento de equipes e formação de profissionais. Em relação à primeira, existem duas técnicas DLPD: as medidas de segurança básica (firewall, software antivírus, detecção de intrusão, autenticação, controle de acesso e criptografia) e as abordagens específicas.12 Estas se dividem em: análise baseada em conteúdo e análise baseada em contexto. A primeira funciona por meio da varredura de dados confidenciais em notebooks, servidores, nuvem ou em trânsito da rede de saída, identificando o conteúdo das informações da impressão digital de dados, análise léxica (padronização das estruturas sintáticas) e análise estatística dos dados monitorados a fim de protegê-las.13 Na impressão digital de dados, por exemplo, o destaque de certas assinaturas ou palavras-chave confidenciais são extraídas e comparadas com o conteúdo monitorado para identificar possíveis vazamentos de dados.14 Apesar de tal método funcionar de modo eficiente para a proteção contra perdas acidentais, ainda pode ser contornado por alguns insiders.15 No tocante à análise por contexto, ao invés de realizar uma varredura de dados confidenciais, os padrões de acesso aos dados normais de usuários são planificados e categorizados, de forma a identificar o momento em que um agente se desvia do perfil pré-estabelecido, a fim de prevenir ameaças internas.16 A criação de um sistema de monitoramento interno, por exemplo, é capaz de detectar indivíduos maliciosos que, apesar de possuírem acesso legítimo às informações pessoais de outrem, apresentam padrões de navegação destoantes de seu padrão específico.17 Tal método, ainda que não priorizado pelos pesquisadores da área, diferentemente daquele baseado em conteúdo, é capaz de discernir com mais exatidão as ameaças de insiders.18 Por fim, com relação às metodologias não computacionais, pode-se destacar: a instituição de treinamento regular de conscientização sobre segurança cibernética e exercícios práticos caso dados sejam violados e vazados; exames de incidentes anteriores de ataques virtuais; lembrança incisiva aos funcionários demitidos ou que se demitiram sobre políticas de segurança de dados da empresa; monitoramento de funcionários insatisfeitos ou que possivelmente estejam comprometidos com outras empresas/bancos; vigilância constante daqueles que têm acesso às informações compartilhadas na nuvem; separação entre funcionários habilitados ao manuseio ou guarda dos dados e aqueles que prestam serviços eventuais - técnicos de T.I., advogados, entre outros.19 Apesar de tal método ser importante para prevenir vazamentos e identificar insiders, é perceptível que os sistemas virtuais de detecção são extremamente mais precisos em relação aos métodos de gerenciamento de equipes. Em um ambiente bancário, por exemplo, frente a uma (possível) iminente crise financeira, a exemplo da Coinbase, a "conscientização" dos agentes ou o curso de gestão responsável de dados pessoais impactará muito menos a decisão de manusear impropriamente certas informações confidenciais em relação à um sistema computacional de detecção automática de ações desviantes dos padrões de determinados indivíduos, conforme a análise por contexto.  Considerações Finais A digitalização de processos de cadastramentos, inscrições, solicitações e até mesmo de documentos, isto é, a transferência de dados físicos para o ambiente virtual, facilitou sobremaneira seu acesso, seja simultâneo - por meio da nuvem, ou offline - por servidores físicos. No entanto, tal agilidade veio acompanhada do inevitável risco de vazamento de dados, em especial àqueles sensíveis, como os financeiros e biométricos - já que a face, a pupila e as digitais não podem ser facilmente modificadas entre os indivíduos. Além disso, a grande quantidade de informações armazenadas eleva o potencial risco financeiro/industrial e o consequente danos às empresas e aos usuários de bancos caso seus dados pessoais sofram vazamento.20 No que tange às medidas de prevenção e identificação de insider trading, apesar da gestão de equipes e cursos de conscientização sobre as consequências jurídicas do manuseio impróprio de dados pessoais alheios também serem necessárias, as medidas DLPD fundamentadas na análise de conteúdo e de contexto são mais inibitórias e eficazes, pelo menos a curto prazo. ---------- ABERNETHY, Darren. Insider Trading in the Data Breach Context: Proactive Corporate Planning and Regulatory Enforcement. GreenbergTraurig. 18/05/2020. Disponível em: . Acesso em: 12 de junho de 2023. BURNSON, Robert. Investidor processa Coinbase por 'insider trading' nos EUA. Valor Econômico,02/05/2023. Disponível em: . Acesso em: 12 de junho de 2023. CHENG, Long; LIU, Fang; YAO, Danfeng. Enterprise data breach: causes, challenges, prevention, and future directions. Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, v. 7, n. 5, p. 2; 2017. Disponível em: . Acesso em: 12 de junho de 2023. Equipe InfoMoney. Coinbase roubou dados de usuários e CEO praticou insider trading, acusam investidores nos EUA. InfoMoney, 02/05/2023. Disponível em: . Acesso em:  12 de junho de 2023. GOLDSTEIN, Jeremy. What Are Insider Threats and How Can You Mitigate Them? Security Intelligence. 16/07/2020. Disponível em: . Acesso em: 12 de junho de 2023. Insider Threats Are Becoming More Frequent and More Costly: What Businesses Need to Know Now. ID WatchDog. Disponível em: . Acesso em 12 de junho de 2023. PETROPOULOS, Mathew S; Ngo HQ, Upadhyaya S. A data-centric approach to insider attack detection in database systems. In: Proceedings of the 13th International Conference on Recent Advances in Intrusion Detection, RAID'10, Ottawa, Ontario, Canada. Berlin, Heidelberg: Springer-Verlag; 2010, 382-401. Ponemon Institute. 2022 Cost of Insider Threats: Global Report. 2022. Disponível em: . Acesso em: 12 de junho de 2023. Relatório de Custo da Violação de Dados 2022. IBM Security. São Paulo. 07/2022. p. 19. Disponível em: . Acesso em 12 de junho de 2023. 2021 IBM Security X-Force Insider Threat Report. IBM Security. 05/2021. Disponível em: . Acesso em: 12 de junho de 2023. ---------- 1 BURNSON, Robert. Investidor processa Coinbase por 'insider trading' nos EUA. Valor Econômico, 02/05/2023. Disponível em: . Acesso em: 12 de junho de 2023. 2 Equipe InfoMoney. Coinbase roubou dados de usuários e CEO praticou insider trading, acusam investidores nos EUA. InfoMoney, 02/05/2023. Disponível em: . Acesso em:  12 de junho de 2023. 3 Relatório de Custo da Violação de Dados 2022. IBM Security. São Paulo. 07/2022. p. 9. Disponível em: . Acesso em 12 de junho de 2023. 4 Ibidem, p. 39 5 CHENG, Long; LIU, Fang; YAO, Danfeng. Enterprise data breach: causes, challenges, prevention, and future directions. Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, v. 7, n. 5, p. 2; 2017. Disponível em: . Acesso em: 12 de junho de 2023. 6 Idem. 7 ABERNETHY, Darren. Insider Trading in the Data Breach Context: Proactive Corporate Planning and Regulatory Enforcement. GreenbergTraurig. 18/05/2020. Disponível em: . Acesso em: 12 de junho de 2023. 8 GOLDSTEIN, Jeremy. What Are Insider Threats and How Can You Mitigate Them? Security Intelligence. 16/07/2020. Disponível em: . Acesso em: 12 de junho de 2023. 9 Ponemon Institute. 2022 Cost of Insider Threats: Global Report. 2022. Disponível em: . Acesso em: 12 de junho de 2023. 10 2021 IBM Security X-Force Insider Threat Report. IBM Security. 05/2021. Disponível em: . Acesso em: 12 de junho de 2023.   11 CHENG, Long; LIU, Fang; YAO, Danfeng. Enterprise data breach: causes, challenges, prevention, and future directions. Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, v. 7, n. 5, p. 2; 2017. Disponível em: . Acesso em: 12 de junho de 2023. 12 Ibidem, p. 6. 13 Idem. 14 Idem. 15 Idem. 16 Ibidem, p. 7. 17 PETROPOULOS, Mathew S; Ngo HQ, Upadhyaya S. A data-centric approach to insider attack detection in database systems. In: Proceedings of the 13th International Conference on Recent Advances in Intrusion Detection, RAID'10, Ottawa, Ontario, Canada. Berlin, Heidelberg: Springer-Verlag; 2010, 382-401. 18 CHENG, Long; LIU, Fang; YAO, Danfeng. Enterprise data breach: causes, challenges, prevention, and future directions. Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, v. 7, n. 5, p. 7; 2017. Disponível em: . Acesso em: 12 de junho de 2023. 19 Insider Threats Are Becoming More Frequent and More Costly: What Businesses Need to Know Now. ID WatchDog. Disponível em: . Acesso em 12 de junho de 2023. 20 Relatório de Custo da Violação de Dados 2022. IBM Security. São Paulo. 07/2022. p. 19. Disponível em: . Acesso em 12 de junho de 2023.
Você está vivendo em uma simulação de computador? Este é o provocativo questionamento feito por Bostrom, filósofo da Universidade de Oxford, no seu famoso artigo publicado em 2001. No seu trabalho, conjectura sermos simulações de antepassados de uma civilização pós-humana altamente tecnológica situada em algum momento distante no futuro - argumento que ganhou, recentemente, atenção por conta do filme Bandersnatch e das declarações de Elon Musk. Apresar de se tratar de especulações e de reflexões teóricas, outra situação bastante real com substratos semelhantes já está acontecendo, embora não seja, por todos, perceptível de plano. A diferença é a mudança no eixo temporal. Se, na ideia originária, o futuro simula o passado, o que está acontecendo agora é justamente o inverso - o passado simulando o futuro por meio de tratamento de dados, dentre os quais os pessoais. Este é um dos argumentos principais de Zuboff1: a formação de mercados comportamentais futuros que se baseiam em tecnologias preditivas e inferenciais aplicadas às pessoas para lhes determinar perfis, os quais são utilizados como insumo para que controladores (fornecedores, empregadores, poder público e assim por diante) decidam situações que, em função disto, deixam de ser contingenciais e passam a ser moduladas, como muito bem esclarece Cohen2. Na área de proteção de dados, é o que iremos conhecer como decisões automatizadas baseadas em perfis. Como o próprio nome sugere, esta espécie de tratamento de dados se dá por um processo cíclico e dinâmico - a própria LGPD trata de perfilização e decisões automatizadas em conjunto3, embora não se confundam em seu significado. De todo modo, esse processamento comporta algumas fases. Em um primeiro momento, dados pessoais são coletados e agregados a outros dados, formando um dataset que será usado para formar um modelo algorítmico. Nesta fase, geralmente, os dados são anonimizados, perdendo, a priori, a capacidade de tornar o titular identificado ou identificável. A partir daqui a LGPD deixa de ser aplicável. Na sequência, são executadas técnicas de data analytics, as quais analisam estes dados e encontram correlações entre eles, formando perfis de grupos, gerando conhecimentos baseados em probabilidades e estatísticas, e não em causalidade4 e na realidade observável. Assim, por exemplo, pode ser descoberto que pessoas do sexo masculino, na faixa entre 25 e 30 anos, que jogam videogame e compram cerveja duas vezes por semana tenham apenas 15% de probabilidade de quitar com suas dívidas - isto é uma inferência preditiva relativa a esse conjunto de pessoas. Aqui se faz uma observação: a maioria dos processos de perfilização de grupo são não-distributivos, ou seja, nem todos os membros do grupo terão determinado atributo ou característica descoberta nas correlações. Para deixar mais claro, exemplifiquemos: em um dado bairro, foi identificado que 80% das pessoas que têm olhos azuis utilizam óculos - este é o perfil do grupo. Fica cristalino que, neste caso, de 10 pessoas, apenas 8 usam óculos, mas todas serão tratadas de acordo com o perfil de grupo, independentemente de suas particularidades. Mas como essa peça informacional não se refere a alguém em específico, senão a um grupo indeterminado que pretensamente comunga algo identificado por dados, esta inferência, em si, não é um dado pessoal. Todavia, quando, pela coleta de dados pessoais de um titular em particular em outro momento se identificarem pedaços informacionais que revelem semelhanças com o padrão do modelo, a ele se aplicará este perfil de grupo, voltando então a ter status de dado pessoal. A LGPD, nesse sentido, acertou quando estabeleceu que "poderão ser igualmente considerados como dados pessoais, para os fins desta Lei, aqueles utilizados para formação do perfil comportamental de determinada pessoa natural, se identificada"5. Disso conclui-se que inferências aplicadas a determinado sujeito são, conforme a definição legal, dados pessoais aptos a atrair, novamente, a LGPD. A questão problemática não é exatamente esta; é, outrossim, a razoabilidade destas inferências que se tornam dados pessoais pela aplicação do perfil em uma decisão automatizada que determinará situações da vida do titular, desde recomendações de filmes até mesmo a decisões propriamente ditas referentes a benefícios sociais ou à desplataformização de consumidores e trabalhadores da era digital, entre outras possibilidades. Os riscos de não se aplicar a LGPD na fase de formação das inferências, bem como de não haver tutela específica sobre a correção, exatidão, atualidade ou mesmo qualidade inferencial deixa o titular de dados de mãos atadas para exercer os seus outros direitos (ex ante e ex post à decisão automatizada). Qual a razoabilidade de, hipoteticamente, uma instituição financeira negar crédito a um consumidor porque compra cervejas, joga videogames e é relativamente jovem, ao par de ter um bom histórico de crédito ou mesmo a existência de poupanças e rendimentos? Ou, ainda, de se aplicar inferências resultantes de um modelo algorítmico que tem maior precisão para homens brancos do que para mulheres pretas em seleções de currículos para vagas de trabalho? Vejam que há questões que perpassam de confiabilidade do sistema, discriminação e generalização de autorrepresentações6 com resultado injusto e em violação à autodeterminação individual. É exatamente sobre isso de que trata o direito a inferências razoáveis. De acordo com o Projeto de Lei do Senado n. 2338, de 2023, originado do Substitutivo do Marco Regulatório da IA no Brasil, são irrazoáveis as inferências que: (i) sejam fundadas em dados inadequados ou abusivos para as finalidades de tratamento; (ii) sejam baseadas em métodos imprecisos ou estatisticamente não confiáveis; e (iii) não considerem de forma adequada a individualidade e as características pessoais do indivíduo7. Este é um dos pontos de intersecção entre a lex data e a iminente lex artificialis intelligentia: o direito a inferências razoáveis, que (re)estabelece o foco não no processamento e coleta de dados pessoais somente, mas na sua avalição e no seu julgamento preditivo aplicável a importantes situações. Por seu intermédio, estabelece-se deveres dialógicos-comunicativos entre controladores e fornecedores de IA com os afetados desde as escolhas de design até a aceitabilidade normativa e a relevância da inferência de acordo com a finalidade buscada por quem emprega sistemas inteligentes8, além de outras questões que fogem do escopo desta breve reflexão. Sinalize-se que este novo direito faz parte de um procedimento mais complexo e completo do que prevê o art. 20 da LGPD, o que definimos como supradireito de validação9, apto a melhor tutelar os titulares de dados/afetados pela IA. Esse supradireito é um direito não explícito que estabelece que todas as decisões automatizadas baseadas em perfis que afetem os direitos ou interesses significativos dos titulares devam ser submetidas a um método legal de validação para garantir que sejam justas, transparentes, imparciais e não discriminatórias. Embora implícito, se concretiza por outros direitos, notadamente de caráter procedimental, abarcando desde a formação de um modelo algorítmico, o direito à informação prévia sobre a utilização de sistemas de inteligência artificial, contestação, revisão, até a possibilidade de se exigir justificações em respeito ao resultado de uma dada decisão em particular - ideia esta que melhor desenvolveremos em outra oportunidade. Em tempos em que "agentes inteligentes" são autônomos ou prescindem de supervisão humana, mas cujos efeitos são diretos nas esferas jurídicas e existenciais das pessoas, o básico é termos algum nível de validação de decisões significativas tomadas para ou por nós, por meio de um procedimento jurídico constante nos direitos dos titulares e em diálogo com aqueles a futura lei sobre IA - que vai passar, necessariamente, pela verificação da razoabilidade das inferências criadas e utilizadas. __________ 1 Estas possibilidades advêm de "novas capacidades para inferir e deduzir pensamentos, sentimentos, intenções e interesses de pessoas e grupos com uma arquitetura automatizada que opera como um espelho unidirecional independentemente de consciência, conhecimento e consentimento da pessoa, possibilitando, assim, acesso secreto e privilegiado a dados comportamentais." (ZUBOFF, Shoshana. A era do capitalismo de vigilância: a luta por um futuro humano na nova fronteira do poder. Rio de Janeiro: Intrínseca, 2021). 2 "A modulação é um modo de invasão de privacidade, mas também é um modo de produção de conhecimento projetado para produzir uma maneira específica de saber e um modo de governança projetado para produzir um tipo específico de sujeito. Seu propósito é produzir consumidores-cidadãos dóceis e previsíveis cujos modos preferidos de autodeterminação se desenvolvem ao longo de trajetórias previsíveis e rentáveis. (...) um processo muito mais sutil de feedback contínuo, os estímulos são adaptados para atender a inclinações existentes, orientando-os em direções que se alinham com objetivos de maximização de lucro". (trad. nossa). (COHEN, Julie E. What Privacy is for? Harvard Law Review, v. 126, p. 1904-1933, 2013. p. 1917). 3 LGPD. Art. 20. O titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade. 4 Conforme Miragem, "(...) registre-se que correlação é a medida da relação entre duas variáveis, que pode ser demonstrada em termos estatísticos e não implica necessariamente em uma relação de causa e efeito (p.ex. a frequência de aquisição de determinados produtos pelos consumidores se dá em determinado horário ou em determinado dia da semana), como ocorre no juízo de causalidade, no qual a relação entre duas variáveis pressupõe que uma é consequência da outra". (MIRAGEM, Bruno. A Lei Geral de Proteção de Dados (Lei 13.709/2018) e o direito do consumidor. Revista dos Tribunais, São Paulo, v. 1009, p. 173-222, nov. 2019). 5 LGPD. Art. 12. Os dados anonimizados não serão considerados dados pessoais para os fins desta Lei, salvo quando o processo de anonimização ao qual foram submetidos for revertido, utilizando exclusivamente meios próprios, ou quando, com esforços razoáveis, puder ser revertido. § 1º A determinação do que seja razoável deve levar em consideração fatores objetivos, tais como custo e tempo necessários para reverter o processo de anonimização, de acordo com as tecnologias disponíveis, e a utilização exclusiva de meios próprios. § 2º Poderão ser igualmente considerados como dados pessoais, para os fins desta Lei, aqueles utilizados para formação do perfil comportamental de determinada pessoa natural, se identificada. 6 Veja entendimento de: MARTINS, Pedro Bastos Lobo. Profiling na Lei Geral de Proteção de Dados: o livre desenvolvimento da personalidade em face da governamentalidade algorítmica. Foco: Indaiatuba, 2022. 7 PL 2338/2023. § 2º O direito à contestação previsto no caput deste artigo abrange também decisões, recomendações ou previsões amparadas em inferências discriminatórias, irrazoáveis ou que atentem contra a boa-fé objetiva, assim compreendidas as inferências que: I - sejam fundadas em dados inadequados ou abusivos para as finalidades do tratamento; II - sejam baseadas em métodos imprecisos ou estatisticamente não confiáveis; ou III - não considerem de forma adequada a individualidade e as características pessoais dos indivíduos. 8 WACHTER, Sandra; MITTELSTADT, Brent. A right to reasonable inferences: re-thinking Data Protection Law in the Age of Big Data and AI. Columbia Business Law Review, v. 2019. p. 496-620, 2019. 9 Sobre o tema, refira-se que foi originalmente concebido na tese de doutoramento de Guilherme Mucelin, defendida perante a Universidade Federal do Rio Grande do Sul (UFRGS) em setembro de 2022, orientada pela Profª Drª Sandra Regina Martini e intitulada "Direito de validação das decisões individuais automatizadas baseadas em perfis de consumidores".