Direito Digit@l

Desafios e benefícios da criação de legislação para regulamentar a IA em relação à proteção de direitos fundamentais

A regulamentação da IA no Brasil enfrenta desafios, incluindo a necessidade de definir o escopo da legislação, a complexidade de acompanhar o avanço tecnológico e a busca por um equilíbrio entre inovação e a proteção dos direitos fundamentais dos cidadãos.

21/6/2024

A regulamentação da Inteligência Artificial (IA) no Brasil enfrenta desafios significativos, incluindo a necessidade de definir com precisão o escopo da legislação, a complexidade de acompanhar o rápido avanço tecnológico, e a busca por um equilíbrio entre inovação e a proteção dos direitos fundamentais dos cidadãos. 

Um dos principais benefícios de uma legislação específica para IA é a criação de um marco legal que oferece segurança jurídica. Tal legislação deve assegurar a proteção da dignidade da pessoa humana, a privacidade e a integridade dos dados pessoais. Além disso, deve garantir a não discriminação em processos automatizados de decisão, promovendo assim a transparência e a responsabilidade no uso das tecnologias de IA. Isso contribuirá para fortalecer a confiança pública e promover o desenvolvimento ético dessas tecnologias. 

As leis que abordam novas tecnologias devem seguir um caráter principiológico, similar ao Marco Civil da Internet. Assim, uma legislação sobre IA deve estar em harmonia e consonância com a Constituição Federal, que, em seu artigo 1º, coloca a dignidade humana como fundamento e razão de existir do Estado Brasileiro. O princípio da dignidade da pessoa humana tem sido amplamente valorizado no Judiciário, a ponto de, por meio de sua interpretação em casos concretos, originar valores constitucionais que são incorporados nos textos jurisprudenciais. 

Uma legislação sobre IA deve assegurar o atendimento das necessidades dos usuários consumidores, o respeito à sua dignidade, saúde e segurança, e a proteção de seus interesses econômicos. Deve também contribuir para a melhoria da qualidade de vida dos usuários, bem como promover a transparência e a harmonia nas relações de consumo e no uso de ferramentas de IA, especialmente no que diz respeito à compreensão da transparência algorítmica. As garantias já asseguradas no Código de Defesa do Consumidor (CDC) devem ser integradas a esta legislação, reforçadas e aprimoradas, deixando claro que as empresas que fornecem aplicações de IA estarão sujeitas à aplicação do CDC. 

Necessidade de clareza na definição de 'decisão automatizada'

A definição de "decisão automatizada" precisa ser clara para garantir que todas as decisões que afetam significativamente os direitos dos indivíduos sejam devidamente regulamentadas. Isso implica especificar os tipos de decisões cobertas, os critérios para avaliar seu impacto, e os contextos em que são aplicáveis. A ANPD deve desenvolver diretrizes claras que orientem as organizações sobre como identificar e gerenciar decisões automatizadas, assegurando que essas sejam transparentes, justificáveis e passíveis de revisão humana quando necessário.

Definição de decisões automatizadas na legislação brasileira

Na legislação brasileira, o conceito de "decisões automatizadas" é abordado principalmente na Lei Geral de Proteção de Dados Pessoais (LGPD - Lei nº 13.709/2018). A LGPD define decisões automatizadas no contexto do tratamento de dados pessoais como aquelas tomadas com base em tratamento automatizado de dados, incluindo decisões destinadas a definir perfis pessoais, profissionais, de consumo, e aspectos sobre a personalidade do titular.

Art. 20 da LGPD:

"O titular dos dados tem direito de solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade."

Melhoria da definição de decisões automatizadas

Embora a LGPD tenha dado um primeiro passo na definição e regulamentação das decisões automatizadas, há espaço para aprimorar essa definição para refletir a complexidade crescente das tecnologias de Inteligência Artificial e os seus impactos nos direitos dos indivíduos. A seguir, são sugeridas algumas melhorias:

Ampliação do Conceito: Expandir a definição para incluir decisões baseadas não apenas em dados pessoais, mas também em qualquer dado que possa impactar significativamente os direitos e liberdades dos indivíduos, incluindo decisões em áreas como saúde, segurança pública, e administração pública.

Diferenciação de Tipos de Decisões: Diferenciar entre decisões completamente automatizadas (sem intervenção humana) e decisões assistidas por IA (com intervenção humana).

Impacto Significativo: Estabelecer critérios claros para determinar o que constitui um impacto significativo nas decisões automatizadas, considerando fatores como a privacidade, a discriminação potencial, e as consequências econômicas para os indivíduos.

Transparência Algorítmica: Exigir que os sistemas de IA forneçam uma explicação acessível e compreensível das lógicas e critérios utilizados nas decisões automatizadas. Isso pode incluir a documentação detalhada de como os algoritmos processam os dados e a disponibilização de relatórios de impacto de decisões.

Direito de Revisão: Fortalecer o direito dos titulares de dados de solicitar a revisão de decisões automatizadas, garantindo procedimentos claros e acessíveis para contestação e revisão de decisões.

Intervenção Humana Qualificada: Assegurar que a revisão humana de decisões automatizadas seja realizada por indivíduos qualificados e treinados para entender os processos algorítmicos e seus impactos.

Mecanismos de Fiscalização: Criar mecanismos de fiscalização para garantir que as empresas cumpram as exigências de transparência e responsabilidade nas decisões automatizadas.

Estabelecer responsabilidades claras para os fornecedores de sistemas de IA em caso de decisões automatizadas que resultem em danos ou violações de direitos, incluindo medidas corretivas e sanções adequadas.

Capacitação dos Usuários: Promover a educação dos usuários sobre o funcionamento e os impactos das decisões automatizadas, para que possam exercer seus direitos de forma informada.

Desafios e benefícios da criação de legislação para regulamentar a IA em relação à proteção de direitos fundamentais

A regulamentação da Inteligência Artificial (IA) no Brasil enfrenta desafios como a definição precisa do escopo da legislação, a complexidade de acompanhar a evolução tecnológica, e a necessidade de equilibrar inovação com proteção dos direitos fundamentais. Entre os principais benefícios, destaca-se a criação de um marco legal que garante segurança jurídica, protege a privacidade e a integridade dos dados pessoais, e assegura a não discriminação em processos automatizados. A legislação pode promover a transparência e a responsabilidade no uso de IA, contribuindo para a confiança pública e o desenvolvimento ético das tecnologias.

Implementação eficaz da legislação

Para que a legislação sobre IA seja eficaz, é essencial adotar uma abordagem flexível e dinâmica que acompanhe as rápidas inovações tecnológicas. Isso pode ser alcançado por meio de mecanismos de revisão periódica das normas e a criação de diretrizes específicas para diferentes setores. A implementação deve incluir a capacitação das autoridades regulatórias, a criação de mecanismos de supervisão e fiscalização, e a promoção de um diálogo contínuo com stakeholders, como empresas, acadêmicos, e a sociedade civil, para ajustar a legislação conforme as necessidades emergentes.

Riscos e benefícios de proibir o uso de IA até a estabelecimento de regulamentações específicas

Proibir o uso de tecnologias de IA até que regulamentações sejam estabelecidas pode evitar danos potenciais aos direitos fundamentais, como discriminação e invasão de privacidade, mas também pode frear a inovação e o desenvolvimento tecnológico. Os riscos incluem a criação de um vácuo regulatório que poderia ser preenchido por normas inadequadas ou a aplicação de tecnologias sem o devido controle. Por outro lado, a proibição temporária pode proporcionar um período para a formulação de regulamentações mais robustas e informadas.

Necessidade de clareza na definição de 'decisão automatizada' pela ANPD

A definição de "decisão automatizada" precisa ser clara para garantir que todas as decisões que afetam significativamente os direitos dos indivíduos sejam devidamente regulamentadas. Isso implica especificar os tipos de decisões cobertas, os critérios para avaliar seu impacto, e os contextos em que são aplicáveis. A ANPD deve desenvolver diretrizes claras que orientem as organizações sobre como identificar e gerenciar decisões automatizadas, assegurando que essas sejam transparentes, justificáveis e passíveis de revisão humana quando necessário.

Medidas práticas para aumentar a transparência nos algoritmos de IA pelas empresas

Para aumentar a transparência, as empresas podem adotar medidas como a documentação detalhada dos processos de desenvolvimento e operação dos algoritmos, a realização de auditorias internas e externas regulares, e a comunicação clara aos usuários sobre como seus dados são utilizados e quais critérios são empregados nas decisões automatizadas. A implementação de modelos explicáveis de IA e a disponibilização de ferramentas de análise para que os usuários compreendam os resultados das decisões também são práticas recomendadas.

Papel da intervenção humana na revisão de decisões automatizadas e soluções para melhorar a revisão

A intervenção humana é crucial na revisão de decisões automatizadas para garantir que estas sejam justas e livres de vieses. Além da revisão humana, a adoção de mecanismos de controle como a dupla verificação por especialistas, o uso de IA para auditar IA, e a implementação de sistemas de feedback contínuo para ajustar algoritmos conforme os resultados são medidas que podem tornar a revisão mais eficiente e justa. Transparência e acesso a explicações sobre as decisões são fundamentais para permitir uma revisão eficaz e a correção de possíveis erros ou injustiças.

Vantagens e desvantagens de utilizar dados sintéticos para treinar tecnologias de IA em comparação com dados reais 

Os dados sintéticos oferecem a vantagem de não conterem informações pessoais reais, o que reduz os riscos à privacidade e facilita o cumprimento das normas de proteção de dados. Eles permitem a criação de conjuntos de dados diversificados e balanceados, úteis para treinar algoritmos em condições controladas. Contudo, podem não capturar toda a complexidade dos dados reais, o que pode afetar a precisão dos modelos treinados. Além disso, a qualidade dos dados sintéticos depende da qualidade dos modelos utilizados para gerá-los, e há riscos de introdução de vieses inadvertidos. 

Nota: Este conteúdo foi produzido com o auxílio de uma ferramenta de Inteligência Artificial, assegurando precisão e inovação na sua elaboração.

Veja mais no portal
cadastre-se, comente, saiba mais

Colunistas

Coriolano Aurélio de Almeida Camargo Santos é advogado e Presidente da Digital Law Academy. Ph.D., ocupa o cargo de Conselheiro Estadual da Ordem dos Advogados do Brasil, Seção São Paulo (OAB/SP), com mandatos entre 2013-2018 e 2022-2024. É membro da Comissão Nacional de Inteligência Artificial do Conselho Federal da OAB. Foi convidado pela Mesa do Congresso Nacional para criar e coordenar a comissão de Juristas que promoveu a audiência pública sobre a criação da Autoridade Nacional de Proteção de Dados, realizada em 24 de maio de 2019. Possui destacada carreira acadêmica, tendo atuado como professor convidado da Università Sapienza (Roma), IPBEJA (Portugal), Granada, Navarra e Universidade Complutense de Madrid (Espanha). Foi convidado pelo Supremo Tribunal Federal em duas ocasiões para discutir temas ligados ao Direito e à Tecnologia. Também atua como professor e coordenador do programa de Lei Geral de Proteção de Dados (LGPD) da Escola Superior de Advocacia Nacional do Conselho Federal é o órgão máximo na estrutura da Ordem dos Advogados do Brasil (CFOAB). Foi fundador e presidente da Comissão de Direito Digital e Compliance da OAB/SP (2005-2018). Atuou como Juiz do Tribunal de Impostos e Taxas de São Paulo (2005-2021) e fundou a Comissão do Contencioso Administrativo Tributário da OAB/SP em 2014. Na área de arbitragem, é membro da Câmara Empresarial de Arbitragem da FECOMERCIO, OAB/SP e da Câmara Arbitral Internacional de Paris. Foi membro do Conselho Jurídico da FIESP (2011-2020) e diretor do Departamento Jurídico da mesma entidade (2015-2022). Atualmente desempenha o papel de Diretor Jurídico do DEJUR do CIESP. Foi coordenador do Grupo de Estudos de Direito Digital da FIESP (2015/2020). Foi convidado e atuou como pesquisador junto ao Conselho Nacional de Justiça (CNJ), em 2010, para tratar da segurança física e digital de processos findos. Além disso, ocupou o cargo de Diretor Titular do Centro do Comércio da FECOMERCIO (2011-2017) e foi conselheiro do Conselho de Tecnologia da Informação e Comunicação da FECOMERCIO (2006-2010). Desde 2007, é membro do Conselho Superior de Direito da FecomercioSP. Atua como professor de pós-graduação da Universidade Presbiteriana Mackenzie desde 2007, nos cursos de Direito e Tecnologia, tendo lecionado no curso de Direito Digital da Fundação Getúlio Vargas, IMPACTA Tecnologia e no MBA em Direito Eletrônico da EPD. Ainda coordenou e fundou o Programa de Pós-Graduação em Direito Digital e Compliance do Ibmec/Damásio. É Mestre em Direito na Sociedade da Informação pela FMU (2007) e Doutor em Direito pela FADISP (2014). Lecionou na Escola de Magistrados da Justiça Federal da 3ª Região, Academia Nacional de Polícia Federal, Governo do Estado de São Paulo e Congresso Nacional, em eventos em parceria com o Departamento de Justiça dos Estados Unidos, INTERPOL e Conselho da Europa. Como parte de sua atuação internacional, é membro da International High Technology Crime Investigation Association (HTCIA) e integrou o Conselho Científico de Conferências de âmbito mundial (ICCyber), com o apoio e suporte da Diretoria Técnico-Científica do Departamento de Polícia Federal, Federal Bureau of Investigation (FBI/USA), Australian Federal Police (AFP) e Guarda Civil da Espanha. Além disso, foi professor convidado em instituições e empresas de grande porte, como Empresa Brasileira de Aeronáutica (EMBRAER), Banco Santander e Microsoft, bem como palestrou em eventos como Fenalaw/FGV.GRC-Meeting, entre outros. Foi professor colaborador da AMCHAM e SUCESU. Em sua atuação junto ao Conselho Nacional de Política Fazendária (CONFAZ), apresentou uma coletânea de pareceres colaborativos à ação governamental, alcançando resultados significativos com a publicação de Convênios e Atos COTEPE voltados para a segurança e integração nacional do sistema tributário e tecnológico. Também é autor do primeiro Internet-Book da OAB/SP, que aborda temas de tributação, direito eletrônico e sociedade da informação, e é colunista em Direito Digital, Inovação e Proteção de Dados do Portal Migalhas, entre outros. Em sua atuação prática, destaca-se nas áreas do Direito Digital, Inovação, Proteção de Dados, Tributário e Empresarial, com experiência jurídica desde 1988.

Leila Chevtchuk, eleita por aclamação pelos ministros do TST integrou o Conselho Consultivo da Escola Nacional de Formação e Aperfeiçoamento de Magistrados do Trabalho – ENAMAT. Em 2019 realizou visita técnico científica a INTERPOL em Lyon na França e EUROPOL em 2020 em Haia na Holanda. Desembargadora, desde 2010, foi Diretora da Escola Judicial do Tribunal Regional do Trabalho da 2ª região. Pela USP é especialista em transtornos mentais relacionados ao trabalho e em psicologia da saúde ocupacional. Formada em Direito pela USP. Pós-graduada pela Universidade de Lisboa, na área de Direito do Trabalho. Mestre em Relações do Trabalho pela PUC e doutorado na Universidade Autôno de Lisboa.