A Lei Geral de Proteção de Dados - LGPD (lei 13.853/19) representa um avanço significativo na tutela dos direitos fundamentais e da personalidade, além de satisfazer as necessidades negociais de padronização do mercado global. As múltiplas aplicações e formas de uso dos dados pessoais, bem como as infinitas possibilidades de ganhos financeiros advindas do domínio de informações, conferem aos dados um protagonismo negocial, vantagem competitiva, poder de influência.
O tratamento de dados interfere na quase integralidade dos seguimentos jurídicos, ganhando contornos mais pujantes na área consumerista, concorrencial e trabalhista1. Estes três ramos jurídicos permeiam o cotidiano das pessoas, pois vivemos uma sociedade de consumo, na qual a compra e a produção são núcleos de relações jurídicas. A regulamentação sobre a proteção de dados pessoais é um tema extremamente importante no momento atual da Sociedade Digital2.
A LGPD optou pela tutela da pessoa natural, motivo pelo qual sua relação com a área trabalhista restringe-se à tutela dos direitos do empregado em relação ao tratamento de dados. E, por ser o empregador3 o responsável pelo tratamento de dados na relação de emprego, resta claro que as obrigações contidas na LGPD são a ele voltadas.
Na relação de emprego, os dados pessoais (inclusive os sensíveis) são fornecidos pelo empregado ao empregador das mais variadas formas. A parti do recebimento de currículos (processo seletivo) até a rescisão contratual e mesmo após a mesma, o empregador retém documentos relativos à relação de emprego cujo conteúdo são dados pessoais do empregado, muitos deles sensíveis. Em decorrência disto, o titular de dados – o empregado4 – pode sofrer violações aos seus direitos da personalidade e fundamentais desde a fase pré à pós-contratual5, motivo pelo qual a LGPD amolda-se às relações jurídico-trabalhistas.
O empregado, em teoria, pode consentir ou não com o tratamento de dados, o que é denominado de consentimento livre e exercício da autodeterminação informativa, ou seja, o direito de decidir sobre as informações e dados pessoais que cidadão possui. O tratamento de dados, no liame empregatício, guarda delicado contorno jurídico, pois a relação de emprego é marcada pela subordinação e pelo exercício do poder empregatício pelo empregador. Estes fazem com que o direito à autodeterminação informativa do empregado assuma o formato mitigado6.
A LGPD demanda que aquele que trate dados tenha uma base para fazê-lo, ou seja, possua um fundamento para que utilize os dados pessoais. A base mais comum é o consentimento livre, previsto nos artigos 7ª a 11º da LGPD. Todavia, a base legal, sem dúvida, é o autorizativo mais seguro para o empregador. Se a lei permite o tratamento dos dados do empregado, o consentimento é dispensado, o que ultrapassa a barreira da subordinação e poder empregatício.
Utilizada a base legal, o empregador poderá efetuar o tratamento de dados necessário ao desenrolar da atividade profissional, sem que isto represente óbice de gestão. Entretanto, a adequação de uma empresa à LGPD deve observar aspectos mais amplos, pois envolve clientes, parceiros comerciais, fornecedores, etc.
Com a edição da LGPD, uma série de questões foram suscitadas em relação ao tratamento de dados na relação de emprego. Uma destas questões é a decisão automatizada no Direito do Trabalho e seus reflexos. Decisão automatizada é aquela tomada através de um tratamento de dados por intermédio de um algoritmo.
O algoritmo viabiliza a decisão automatizada, por este motivo, defini-lo guarda importância.
Na Ciência da Computação, um algoritmo é uma sequência finita de ações executáveis que visam obter uma solução para um determinado tipo de problema. Algoritmos devem ser: precisos, não ambíguos, mecânicos, eficientes e corretos. São formados por uma sequência de instruções, raciocínios e/ou operações (de atribuição, aritméticas, lógicas, relacionais)7.
A definição de algoritmo indica um conteúdo técnico que o cidadão comum ignora. Em matéria de tratamento de dados, os investimentos são voltados à automatização no processamento, bem como na elaboração de sofisticados e cada vez mais complexos algoritmos. Há uma ideia preconcebida de que a automação decisória conduz a uma segurança de ausência de discriminação ou de ofensa a direitos fundamentais, pois as decisões seriam de cunho objetivo, impessoal.
Inexiste neutralidade8 quando há escolha humana dos dados que alimentarão o algoritmo e dos critérios e parâmetros sob os quais operará. Desta forma, o algoritmo pode promover discriminação ou estabelecer parâmetros vedados na legislação. O algoritmo também pode, através da inteligência artificial, alterar a si mesmo. Este processo é batizado de machine learning, sistema que aprende sozinho, que a partir de estruturas básicas constrói novos conceitos e padrões, ultrapassando o programa inicial.
Algoritmo e as decisões automatizadas, contudo, não devem ser vilanizados, pois, sabidamente, o objetivo é prover decisões ágeis, confiáveis e fiéis aos balizamentos estabelecidos, sem causar prejuízos de nenhuma ordem. A inteligência artificial contida neste processo, inclusive, pode ser capaz de aprender e reorientar o algoritmo de forma independente, em ação positiva. Isto não fará com que a LGPD seja vulnerada, uma vez que a finalidade dos dados (possivelmente sensíveis) é promover inclusão e pluralidade, garantindo a todos o acesso e oportunidade.
A automatização de decisões reduz custos e riscos, como agiliza processos em que a análise pessoal de dados consumiria muito tempo. Por mais preparado que seja o ser humano, jamais será capaz de cruzar dados na velocidade que um algoritmo entrega resultados. Pelo que as decisões automatizadas são um ponto sensível na política de proteção de dados e se não forem tratadas com extrema cautela e dentro de robustas balizas éticas podem perpetuar desigualdades e discriminações9.
Inolvidável, pois, que as decisões automatizadas e o mundo dos algoritmos que as viabilizam, passam a largo de exercício de futurologia nas relações de emprego. Nas grandes e médias empresas, multinacionais e empresas de recrutamento a automatização decisória é realidade. E, diante disto, o Direito do Trabalho precisa avançar na tutela dos empregados, evitando que seus dados sejam utilizados em seu desfavor ou de modo ilegal.
A tomada de decisões automatizadas, no campo empresarial, por intermédio de um sistema que utilize dados e parâmetros para chegar a um resultado rápido e confiável, já faz parte do cotidiano negocial. Produtos e serviços são confeccionados e ofertados com base em decisões automatizadas, cuja determinação de público alvo parte de um algoritmo.
As estratégias de marketing de produtos e serviços são formatadas por sistemas automatizados que fazem busca ativa pela clientela, bem como efetuam coleta dados adicionais para orientar produção, melhoria dos produtos e serviços e qualquer outra aplicação rentável. Não se trata de futuro, é o hoje.
Todo processo de decisão automatizada coleta e armazena de dados. O processamento destes dados perpassa por critérios e procedimentos estabelecidos pela gestão empresarial. O empregado, titular de dados, está sujeito a decisões automatizadas, inclusive no que tange a critérios de contratação, de evolução profissional e até mesmo de dispensa de serviços.
A Constituição Federal, no Art. 7º, XXVI aduz que São direitos dos trabalhadores urbanos e rurais, além de outros que visem à melhoria de sua condição social: [...] proteção em face da automação, na forma da lei. Logo, a proteção dos dados do empregado diante da automatização decisiva é direito de raiz constitucional, direito fundamental. Por este motivo, a tutela jurídica infraconstitucional estabeleceu limites à decisão automatizada10, conferindo direitos ao sujeito titular de dados previstos no art. 20 da LGPD, vejamos:
Art. 20. O titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade.
§ 1º O controlador deverá fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada, observados os segredos comercial e industrial.
§ 2º Em caso de não oferecimento de informações de que trata o § 1º deste artigo baseado na observância de segredo comercial e industrial, a autoridade nacional poderá realizar auditoria para verificação de aspectos discriminatórios em tratamento automatizado de dados pessoais. (grifos nossos)
O texto legal permite a identificação de 3 (três) direitos do titular de dados, os quais grifamos acima, mas que elencaremos: 1) Solicitar revisão das decisões tomadas unicamente com base no tratamento automatizado de dados; 2) Solicitar ao controlador informações claras e adequadas a respeito dos critérios e procedimentos utilizados na decisão automatizada; 3) Requerer, em caso de recusa no fornecimento de informações, uma auditoria a ser realizada pela Autoridade Nacional de Proteção de Dados.
A proteção do titular de dados nas decisões automatizadas é necessária, na medida em que o uso da inteligência artificial também está sujeito a erros, por deficiência tecnológica ou até pelo uso de uma base de dados limitada ou incompleta11. Por este motivo, o direito de informação e revisão foi estabelecido na LGPD, bem como o consequente direito de pedir auditoria caso o direito de informação não seja respeitado. Então são dois direitos ativos garantidos por um terceiro reativo face a recusa de informação.
O art. 20, caput, da LGPD deve ser compreendido com cautela. À primeira vista em interpretação isolada, tal dispositivo indica proteção exclusiva para as decisões integralmente automatizadas, ou seja, se a decisão foi parte automatizada e parte humana, descortina-se a possibilidade de que o direito à revisão inexista.
A LGPD, então, deve ser interpretada de modo sistemático e teleológico, uma vez que se trata de microssistema completo protetivo de dados. E, para esta interpretação alcançar a completude é necessário uma visita aos princípios sob os quais o tratamento de dados deve ser realizado, conforme art. 6º da Lei Geral de Proteção de Dados.
Como há direito ao tratamento de dados com transparência sobre a finalidade, adequação, necessidade e predomina a ideia do livre acesso, não faz sentido compreender que o titular de dados – empregado – não possua o direito de informações claras sobre as decisões automatizadas, inclusive as que contenham interferência humana. A transparência depende da informação, pois uma retroalimenta a outra.
Todo tratamento de dados deve observar estes princípios insculpidos no art. 6ª da LGPD, tendo a legislação como princípio da responsabilização e prestação de contas. Esta hipótese, sem dúvida, amolda perfeitamente à decisão automatizada na área trabalhista, ainda que tenha sido permeada pela interferência humana.
O direito de revisão das decisões automatizadas foi inserido na legislação, de forma pioneira, pelo art. 5º, inciso VI, da Lei do Cadastro Positivo (lei 12.414/11) que dispõe ser direito do titular de dados: solicitar ao consulente a revisão de decisão realizada exclusivamente por meios automatizados. Em que pese a LGPD não ter ocupado a posição de vanguarda do direito de revisão, houve uma ampliação da gama de possibilidades revisivas, abarcando qualquer decisão automatizada que afete os interesses do titular. Ademais, a LGPD trouxe um rol, exemplificativo, de decisões automatizadas guarnecidas pela sua tutela jurídica, como as destinadas a definir perfil pessoal, profissional, de consumo e de crédito ou aspectos da personalidade do titular de dados.
Um segundo aspecto relevante é a tutela revisiva voltada às decisões que afetem o interesse do titular de dados, afastado qualquer interesse meramente especulativo ou sem fundamento jurídico relevante. O interesse12 tratado pela legislação é o jurídico, afastadas as questões meramente retóricas ou meras especulações curiosas sobre o algoritmo. Assim, para que o direito a revisão da decisão automatizada ocorra, o titular deve explicar o interesse jurídico no processo. Como exemplo, pode ser citado o interesse de descobrir se foi discriminado por conta da idade, ou do gênero, da etnia. Ou, noutro exemplo, se foi escolhido para dispensa por ser mulher em idade em fértil ou por ideologia política.
Sem dúvida, a caixa preta que alberga os algoritmos deve ser descortinada. Sem, contudo, afetar o direito das empresas de garantirem seus segredos industriais e propriedade intelectual/inventiva. Para tanto, se faz necessário que uma política de transparência entre dados, parâmetros e padrões adotados pela inteligência artificial sejam acessíveis. Neste prisma, um sistema inteligível, transparente ou compreensível é aquele que permite ao ser humano compreender o seu funcionamento de forma a esclarecer dúvidas específicas sobre como é que executa determinadas decisões ou previsões13.
A acessibilidade real destas informações deveria ter sido garantida pela LGPD. A Autoridade Nacional de Proteção de Dados (ANPD), neste cenário, deveria ter inserido regras técnicas de concepção e aplicação do sistema que alberga algoritmos, dando contornos claros e explicáveis14.
Há percalços também àqueles que efetuam tratamento de dados. Prover informação, transparência, revisão e poder passar por auditoria forçada são aspectos que demandam forte atuação preventiva.
Lamentavelmente, a LGPD recebeu um veto sobre a revisão humana da decisão automatizada. Da forma posta, as chances reais do titular de dados ter acesso e compreender o processo são mínimas. Tudo isto faz com que o acesso efetivo à informação algorítmica reverbere sérias dúvidas quanto ao atingimento de fins colimados pela legislação.
O direito ao pedido de auditoria, como garante do direito à informação, revela-se ferramenta de reforço aos direitos de informação e revisão. Porém, há uma obscuridade flagrante na ausência de especificação se há necessidade de uma recusa administrativa para o pedido de auditoria ou se perfaz necessário o acesso via judicial. O entendimento que o titular de dados opta por enveredar na via que entender mais favorável ao exercício de seus direitos ancora o acesso à justiça em caráter mais amplo, pelo que favorece a adoção.
Afora estes direitos contidos no art. 20 da LGPD, há outros incutidos na norma, cuja infringência num viés sistemático consubstancia-se plena. O titular de dados pode ainda, exercer o direito de oposição, anonimização, bloqueio e eliminação, caso os dados tenham sido tratados em desconformidade legal e de requerer incidência das penalidades contidas na legislação protetiva de dados.
Há todo um universo de direitos trazido ao empregado através da LGPD. Estes direitos geram reflexos no contrato de trabalho e até mesmo após a rescisão. As decisões automatizadas, sem dúvida, em breve serão cotidiano nas relações trabalhistas, principalmente nas empresas de médio e grande porte, pela viabilidade do custo da tecnologia. Por este motivo, é preciso analisar formas de proteger o trabalhador de abusos no tratamento de dados através de decisões automatizadas.
----------
1 MARTINS, Rafael Lara. Quais os impactos práticos da LGPD nas relações trabalhistas? A LGPD se aplica desde a fase pré-contratual, em que há o recebimento de currículos com dados Pergunte ao professor. 11 de Set. 2020. Disponível aqui. Acesso em 25 de Set. 2021.
PINHEIRO, Patrícia Peck. Direito Digital. 6ª ed. São Paulo: Saraiva, 2016, p. 483.
OLIVIERI, Nicolau. LGPD: impactos nas rotinas trabalhistas e no contrato de trabalho. O trabalho das empresas está só começando. Jota. Opinião & análise. 14 de mai. 2019. Disponível aqui. Acesso em 26 set. 2021.
SARLET, Ingo Wolfgand; MARINONI, Luiz Guilherme; MITIDIERO, Daniel. Curso de Direito Constitucional. São Paulo: Saraiva, 2018, p. 497.
CARVALHO, Flávia Regina Duarte Torres de; PERIM, Paula Abi-Chahine Yunes; DUARTE, Regina. LGPD: entre a Justiça do Trabalho e a Justiça Comum. Em que casos a competência deverá ser atribuída à Justiça do Trabalho? Jota. Dados pessoais. 30 de Jan. 2020. Disponível aqui. Acesso em 25 de Set. 2021.
CORREIA, Henrique. Curso de Direito do Trabalho. 6ª ed. Salvador: JusPodivm, 2021, p. 570.pessoais.
Jota. Pergunte ao professor. 11 de Set. 2020. Disponível aqui. Acesso em 25 de Set. 2021.
2 PINHEIRO, Patrícia Peck. Direito Digital. 6ª ed. São Paulo: Saraiva, 2016, p. 483.
3 CARVALHO, Flávia Regina Duarte Torres de; PERIM, Paula Abi-Chahine Yunes; DUARTE, Regina. LGPD: entre a Justiça do Trabalho e a Justiça Comum. Em que casos a competência deverá ser atribuída à Justiça do Trabalho? Jota. Dados pessoais. 30 de Jan. 2020. Disponível aqui. Acesso em 25 de Set. 2021. epbm-
4 CORREIA, Henrique. Curso de Direito do Trabalho. 6ª ed. Salvador: JusPodivm, 2021, p. 570.
5 SANTOS, Flávia Alcassa dos. A lei geral de proteção de dados pessoais (LGPD) e a exposição de dados sensíveis nas relações de trabalho. Revista Do Tribunal Regional Do Trabalho Da 10ª Região, 24 (2), 145-151. Disponível aqui. Acesso em 28 de Set. 2021.
6 FINCATO, Denise Pires; WÜNSCH, Guilherme. Subordinação algorítmica: caminho para o direito do trabalho na encruzilhada tecnológica? Revista do Tribunal Superior do Trabalho, São Paulo, SP, v. 86, n. 3, p. 40-56, jul./set. 2020.
7 OBLADEN, Cinthia. A obscuridade dos algoritmos e a LGPD. Instituto Nacional de Proteção de Dados – INPD. 25 de Nov. 2020 Disponível aqui. Acesso em 27 de Set. 2021.
8 AZEVEDO, André Jobim de; JAHN, Vitor Kaiser. Direito do trabalho e novas tecnologias: inteligência artificial, big data e discriminação pré-contratual. Revista da Academia Brasileira de Direito do Trabalho. Ano XXIII, nº 23, p. 19-27, 2018-2020, Dez. 2020. São Paulo: LTR, 2020, p. 24.
9 FONSECA, Edson Pires da. Lei Geral de Proteção de Dados Pessoais – LGPD. Salvador: Editora Jus Podivm, 2021, p. 119.
10 RIEMENSCHNEIDES, Patrícia Strauss; MUCELIN, Guilherme Antônio Balczarek. Internet das coisas, decisões automatizadas e direito à explicação. Revista da Faculdade de Direito da Universidade Federal de Uberlândia. Vol. 49, nº 01, Jan/Jun 2021, p. 689-708, p. 708.
11 POMPEU, Márcio; RODRIGUES, Laura Secfém. LGPD e decisões automatizadas: onde vamos parar? Consultor Jurídico. 03 de maio de 2021. Disponível aqui. Acesso em 25 Set. 2021.
12 BECKER, Daniel; FERRARI, Izabella. Ad astra per aspera: postergação da LGPD e revisitação do art. 20, § 1º. Artigo é responsável por criar o pequeno feixe de regulação de aplicações de IA, como as decisões automatizadas. Jota, Regulação e novas tecnologias. 09 de Mai. 2020. Disponível aqui. Acesso em 25 de Set. 2021.
13 PEREIRA, José Renato Laranjeira de. Transparência pela cooperação: como a regulação responsiva pode auxiliar na promoção de sistemas de machine-learning inteligíveis. Revista de Direito Setorial e Regulatório, v. 7, nº 1, p. 194-223, maio-junho 2021, p. 198.
14 FLORÊNCIO, Juliana Abrusio. Proteção de dados na cultura do algoritmo. 2019. 320 f. Tese (Doutorado em Direito) - Programa de Estudos Pós-Graduados em Direito, Pontifícia Universidade Católica de São Paulo, São Paulo, 2019. Disponível aqui. Acesso em 27 de Set. 2021.
----------
AZEVEDO, André Jobim de; JAHN, Vitor Kaiser. Direito do trabalho e novas tecnologias: inteligência artificial, big data e discriminação pré-contratual. Revista da Academia Brasileira de Direito do Trabalho. Ano XXIII, nº 23, p. 19-27, 2018-2020, Dez. 2020. São Paulo: LTR, 2020.
BECKER, Daniel; FERRARI, Izabella. Ad astra per aspera: postergação da LGPD e revisitação do art. 20, § 1º. Artigo é responsável por criar o pequeno feixe de regulação de aplicações de IA, como as decisões automatizadas. Jota, Regulação e novas tecnologias. 09 de Mai. 2020. Disponível aqui. Acesso em 25 de Set. 2021
CARVALHO, Flávia Regina Duarte Torres de; PERIM, Paula Abi-Chahine Yunes; DUARTE, Regina. LGPD: entre a Justiça do Trabalho e a Justiça Comum. Em que casos a competência deverá ser atribuída à Justiça do Trabalho? Jota. Dados pessoais. 30 de Jan. 2020. Disponível em: aqui. Acesso em 25 de Set. 2021.
CORREIA, Henrique. Curso de Direito do Trabalho. 6ª ed. Salvador: JusPodivm, 2021.
FINCATO, Denise Pires; WÜNSCH, Guilherme. Subordinação algorítmica: caminho para o direito do trabalho na encruzilhada tecnológica? Revista do Tribunal Superior do Trabalho, São Paulo, SP, v. 86, n. 3, p. 40-56, jul./set. 2020.
FLORÊNCIO, Juliana Abrusio. Proteção de dados na cultura do algoritmo. 2019. 320 f. Tese (Doutorado em Direito) - Programa de Estudos Pós-Graduados em Direito, Pontifícia Universidade Católica de São Paulo, São Paulo, 2019. Disponível aqui. Acesso em 27 de Set. 2021.
FONSECA, Edson Pires da. Lei Geral de Proteção de Dados Pessoais – LGPD. Salvador: Editora Jus Podivm, 2021.
MARTINS, Rafael Lara. Quais os impactos práticos da LGPD nas relações trabalhistas? A LGPD se aplica desde a fase pré-contratual, em que há o recebimento de currículos com dados pessoais. Jota. Pergunte ao professor. 11 de Set. 2020. Disponível aqui. Acesso em 25 de Set. 2021.
OBLADEN, Cinthia. A obscuridade dos algoritmos e a LGPD. Instituto Nacional de Proteção de Dados – INPD. 25 de Nov. 2020 Disponível aqui. Acesso em 27 de Set. 2021.
OLIVIERI, Nicolau. LGPD: impactos nas rotinas trabalhistas e no contrato de trabalho. O trabalho das empresas está só começando. Jota. Opinião & análise. 14 de mai. 2019. Disponível aqui. Acesso em 26 set. 2021.
PEREIRA, José Renato Laranjeira de. Transparência pela cooperação: como a regulação responsiva pode auxiliar na promoção de sistemas de machine-learning inteligíveis. Revista de Direito Setorial e Regulatório, v. 7, nº 1, p. 194-223, maio-junho 2021.
PINHEIRO, Patrícia Peck. Direito Digital. 6ª ed. São Paulo: Saraiva, 2016.
POMPEU, Márcio; RODRIGUES, Laura Secfém. LGPD e decisões automatizadas: onde vamos parar? Consultor Jurídico. 03 de maio de 2021. Disponível aqui. Acesso em 25 Set. 2021.
RIEMENSCHNEIDES, Patrícia Strauss; MUCELIN, Guilherme Antônio Balczarek. Internet das coisas, decisões automatizadas e direito à explicação. Revista da Faculdade de Direito da Universidade Federal de Uberlândia. Vol. 49, nº 01, Jan/Jun 2021, p. 689-708.
SANTOS, Flávia Alcassa dos. A lei geral de proteção de dados pessoais (LGPD) e a exposição de dados sensíveis nas relações de trabalho. Revista Do Tribunal Regional Do Trabalho Da 10ª Região, 24 (2), 145-151. Disponível aqui. Acesso em 28 de Set. 2021.
SARLET, Ingo Wolfgand; MARINONI, Luiz Guilherme; MITIDIERO, Daniel. Curso de Direito Constitucional. São Paulo: Saraiva, 2018.