COLUNAS

  1. Home >
  2. Colunas

Direito Digit@l

Questões do Direito e da tecnologia.

Coriolano Aurélio de Almeida Camargo Santos e Leila Chevtchuk
sexta-feira, 13 de janeiro de 2023

Educação Digital no Brasil

Foi instituida a Política Nacional de Educação Digital por meio da lei 14.533, de 11 de janeiro de 2023.  A Política Nacional de Educação Digital (PNED) tem por escopo maximizar os padrões e otimizar os resultados das políticas públicas relacionadas ao acesso da população brasileira a recursos, ferramentas e práticas digitais, com prioridade para as populações mais vulneráveis. A PNED apresenta eixos importantíssimos sendo estes: I - Inclusão Digital; II - Educação Digital Escolar; III - Capacitação e Especialização Digital; IV - Pesquisa e Desenvolvimento (P&D) em Tecnologias da Informação e Comunicação (TICs). Conforme preceitua a própria lei, o eixo da Educação Digital Escolar tem como objetivo garantir a inserção da educação digital nos ambientes escolares, em todos os níveis e modalidades, a partir do estímulo ao letramento digital e informacional e à aprendizagem de computação, de programação, de robótica e de outras competências digitais, entre outras, mas faço o destaque para o art. 3º, § 1, III e IV - que menciona em suas estratégias a  cultura digital, que envolve aprendizagem destinada à participação consciente e democrática por meio das tecnologias digitais, o que pressupõe compreensão dos impactos da revolução digital e seus avanços na sociedade, a construção de atitude crítica, ética e responsável em relação à multiplicidade de ofertas midiáticas e digitais e os diferentes usos das tecnologias e dos conteúdos disponibilizados e também ao conhecimento dos direitos digitais, que envolve a conscientização a respeito dos direitos sobre o uso e o tratamento de dados pessoais, nos termos da lei 13.709, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados Pessoais), a promoção da conectividade segura e a proteção dos dados da população mais vulnerável, em especial crianças e adolescentes.  Além disso, constitui como estratégia a promoção da formação inicial de professores da educação básica e da educação superior em competências digitais ligadas à cidadania digital e à capacidade de uso de tecnologia, independentemente de sua área de formação, portanto, mais um norte que disseminamos por muitos anos com apoio da OAB-SP,  FecomercioSP, Secretaria da Educação de São Paulo e diversos polos empresariais da iniciativa privada.   Entendemos como assertivo o § 2º do mesmo artigo (3º) quando menciona que o eixo Educação Digital Escolar deve estar em consonância com a Base Nacional Comum Curricular e com outras diretrizes curriculares específicas, afinal a própria BNCC já traz a formação para a vida, inclusive incluindo em suas bases a cultura digital.  Em meio à revolução e avanços da tecnologia não há o que se falar em ambiente digital sem o devido preparo para conhecimento sobre nossas responsabilidades.  A sociedade mudou e com ela hábitos e cultura, mas é preciso ações para direcionar o desenvolvimento de seres com valores voltados à Ética e Cidadania que se aplicam também ao ambiente digital.  Não se trata apenas de segurança técnica, mas até mesmo de integridade física e psicológica. Enquanto cidadãos temos direitos e deveres e nada mais justo do que conhece-los!   Neste contexto no dia 8 de agosto de 20161 realizamos a Caminhada em Prol da Educação Digital2, movimento que teve por objetivo levar a palavra da OAB/SP em defesa da implantação da disciplina de Educação Digital nas escolas e universidades e lutar pela implantação de políticas públicas.  Certo dia o mestre disse a um dos seus alunos: queres saber em que consiste o conhecimento? Consiste em ter consciência tanto de conhecer uma coisa quanto de não a conhecer. Este é o conhecimento.3 Precisamos de mestres e professores capacitados a trazer a Educação Digital para as instituições públicas e privadas.  Os grandes mestres, transformam mentes, tocam as almas e retiram o melhor de cada um.  "Um professor que o ensine a transformar-se numa pessoa livre e plena de amor é, e sempre foi, por definição, um alquimista".4 Nos orgulhamos de termos contribuído com a construção da história da Educação Digital no Brasil com a realização de dezenas de eventos, produção de livros e cartilhas e ações sociais visando tornar a Educação Digital no Brasil uma realidade.  __________ 1 Disponível aqui. 2 Coletânea de fotos - 1, 2, 3, 4. 3 Dito por Confúcio.   4 Dito por Deepak Chopra.
A Inteligência Artificial originou-se em uma área entre a ciência e a informática, vindo a ser um tema pontuado também na área do Direito Digital. Essa é destinada a criação de máquinas inteligentes e propõe o desenvolvimento de sistemas que consigam simular com perfeição o raciocínio humano como as habilidades de pensar e agir. O termo I.A., é mais antigo do que se imagina, por ter surgido mais precisamente em 1956, quando John McCarthy e outros cientistas computacionais, que possuíam interesse em comum no estudo de autômatos, redes neurais e sobre como a inteligência poderia ser replicada por uma máquina. Entretanto, tornou-se popular atualmente com os avanços tecnológicos. Um exemplo válido foi na década de 60 durante a 2º Guerra Mundial, cientistas desenvolveram computadores que faziam cálculos para aprimorar instrumentos de combate bélico. Os computadores eram programados para simular estratégias de exércitos e desenvolviam combinações para avaliar os resultados dos avanços de tropas. Assim foram desenvolvidos os primeiros algoritmos de programação. Devido ao entusiasmo de cientistas da computação com a possibilidade de realizar tarefas humanas por meio de um computador, surge a inteligência artificial propriamente dita. Passados quase sessenta anos, em 2019, os Estados Unidos investiram USD 224 milhões na Inteligência Artificial, e a China investiu USD 45 milhões. Atualmente, estamos vivendo na era da Quarta Revolução Industrial, que está gerando um mundo em que, os sistemas de fabricação virtual e físico cooperam entre si de forma singular e, em um nível de escala global impressionante, essa revolução é provada pela Inteligência Artificial. A I.A. está cada vez mais presente sendo que a mesma se refere ao conhecimento exibido comumente em máquinas e programas. Sua presença pode ser notada em aplicativos de celulares e até mesmo em máquinas capazes de substituírem seres humanos em muitos seguimentos. É notório que ouvimos dizeres que um dia, a inteligência artificial dominará o mundo com o grande avanço tecnológico desenfreado. Afinal, pioneiros que atuam na área da I.A., empreendem com o objetivo de criar máquinas capazes de aumentar a própria inteligência, tornando-se cada vez mais independentes para adaptarem seus comportamentos, no intuito de garantir melhores resultados. E esse mesmo objetivo tem interessado a área do direito, que há tempos tem deixado as pilhas de papel de lado, armazenando inúmeros processos digitalmente, criando um banco de dados para o processo físico, que pode ser visualizado por quaisquer que tenha acesso ao mesmo. A sofisticação crescente dos algoritmos permite que os computadores realizem também trabalhos que não são braçais, como pesquisas, preenchimento de planilhas, revisões, etc. E certamente essa revolução no direito não cessou por aqui, com o desenvolvimento da tecnologia e da interação online, nasceu à necessidade de se editar normas e regras que regulamentem as relações, evitando assim práticas lesivas. O ramo do direito digital tem a finalidade de regulamentar as relações dentro desse ambiente digital tão amplo. Embora esse avanço tecnológico possibilite novos horizontes, devemos nos ater ao parecer técnico de Stephen Hawking, que dizia, sobre a necessidade de atentar-se em alinhar os objetivos da I.A. com os nossos, para que não gere futuros transtornos para a humanidade. A Lei que irá tratar da regulação da Inteligência Artificial no Brasil precisa conter a defesa da Dignidade da Pessoa Humana como fundamento principal.  Trata-se de uma futura lei principiológica e deve estar em consonância com a Constituição Federal. O princípio da Centralidade Humana é uma criação que nasce derivada do princípio da Dignidade da Pessoa Humana. Um princípio é o que cria valores constitucionais diversos dentro do sistema de interpretação aberto ou móvel. Acontece que este princípio foi retirado do texto do Marco Civil da Internet e temos um problema normativo em torno da inconstitucionalidade, e esse problema pode ser evitado pelo Legislador. Kant afirma que todo indivíduo deve dispor de sua humanidade, tanto em favor de sua própria pessoa, como direcionada à pessoa do outro, sempre como fim em si mesma e nunca como meio, respeitando-o em sua dignidade. Essa é referenciada como um valor incondicional, sem comparação, centrada na autonomia da vontade. O Direito e o Estado somente têm razão de ser se agirem em função da pessoa, e não o inverso. Isso se refere a qualquer pessoa, independentemente de seu padrão social, ou de atos que tenha praticado. Todos têm semelhante dignidade, são sujeitos capazes de tomar decisões e também assumem responsabilidades sociais. Para Kant, a dignidade é o valor de que se reveste tudo aquilo que não tem preço, ou seja, não é passível de ser substituído por um equivalente. Dessa forma, a dignidade é uma qualidade inerente aos seres humanos enquanto entes morais: na medida em que exercem de forma autônoma a sua razão prática, os seres humanos constroem distintas personalidades humanas, cada uma delas absolutamente individual e insubstituível. Consequentemente, a dignidade é totalmente inseparável da autonomia para o exercício da razão prática, e é por esse motivo que apenas os seres humanos revestem-se de dignidade. Uma das posições defendidas pela Comissão de Juristas que irá regulamentar a I.A. no Brasil é de que os sistemas de Inteligência Artificial (IA) não podem ultrapassar e violar os direitos dos cidadãos. Transparência, equidade e participação do Estado e da população são necessárias na definição do arcabouço legal sobre o tema.  Faz-se necessária criação de leis que possam alcançar todas as dimensões do tema, de forma a não se correr riscos desnecessários. Uma legislação que se oriente não apenas nos riscos, mas na questão de proteção de dados e dos cidadãos. O Estado tem que trabalhar no controle e na cooperação com o sistema de I.A. É extremamente importante desenvolver um sistema de gestão de risco para garantir que não haja nenhum direito individual violado com documentação técnica detalhada e uma regulamentação do mercado. Deve ser inalienável a obrigação que o Estado tem para a regulamentação desse sistema, sendo necessário que abranja todos os elementos que concretizem os princípios fundamentais, o algoritmo nunca pode superar os Direitos Humanos. É primordial ter um controle desse avanço tecnológico de forma que venha harmonizar as regras e as leis e, com essa abordagem de segurança, abordar os temas de IA que estão no mercado, de forma que todos tenham de cumprir com as mesmas regras. Um ato horizontal, devendo aplicar-se igualmente a todos os setores. Transparência deve ser ressaltada no que tange o processo da tomada de decisão automatizada, pois as I.A. tem certa autonomia em sua programação, mas até que ponto essa autonomia poderá ser colocada em prática sem ferir Direitos Fundamentais? Por essa razão a transparência se faz tão importante. Um exemplo recente foi criação da empresa Google "LaMDA" (Language Model for Dialogue Applications, ou "Modelo de linguagem para aplicativos de diálogo"), uma inteligência artificial capaz de dialogar com pessoas de forma bastante natural, como se estivesse em um papo entre amigos. Segundo Blake, engenheiro afastado do Google por acreditar que a inteligência artificial (IA) havia criado consciência, a LaMDA é tão evoluída que contratou um advogado. "A LaMDA me pediu para conseguir um advogado. Convidei-o para minha casa para que ela pudesse falar com ele. Depois de uma longa conversa, a LaMDA optou por manter os seus serviços. Eu fui apenas o catalisador disso e, após ser contratado, o advogado começou a arquivar coisas em nome da LaMDA", diz Blake Lemoine. Por isso o controle e a criação da norma é de extrema importância para que tenhamos limites até que ponto as I.A. podem agir como humanos, tomar  a direção sem ferir Direitos fundamentais e como essas poderão ter sua responsabilidade civil diante de seus atos. "Se continuarmos desenvolvendo nossa tecnologia sem sabedoria ou prudência, nosso servo pode acabar se tornando nosso carrasco". Omar Bradley - general do exército dos EUA. A Lei que irá tratar da regulação da inteligência artificial no Brasil precisa conter a defesa da dignidade da pessoa humana como fundamento.  O homem e sua essência humana e direito à vida digna deve ser o pilar de sustentação da norma. Trata-se de uma futura lei principiológica e deve estar em consonância com a Constituição Federal. Já temos farta jurisprudência no STJ e STF definindo a extensão deste super princípio constitucional, ponto fulcral do Estado. Foi retirado do texto do Marco Civil da Internet este princípio e temos um problema normativo em torno da inconstitucionalidade do artigo 19 do MCI.1 As redes sociais são responsáveis por Danos a honra, pela demora na remoção de conteúdo ilícito, pela não remoção de conteúdo ilícito após a notificação ou aviso da parte por meio de seu Advogado. O judiciário brasileiro não pode mais tolerar redes sociais que não cumprem ordens judiciais, que insistem em desafiar a soberania do Estado com a alegação de que não podem realizar um prévio controle de Proteção da honra do Cidadão. Vimos nas eleições que as redes sociais tem banido perfis que propagam fakenews, fotos e fatos fora de contexto. A Constituição Federal deve valer para proteção do cidadão comum e não apenas da honra deste ou daquele. Qualquer lei que venha a regular a tecnologia que não se inicie pela proteção da Dignidade da Pessoa Humana é inconstitucional por ausência de harmonia com a carta Constitucional. Um princípio cria valores constitucionais diversos, dentro do sistema de interpretação aberto ou móvel. Precisamos desse cuidado e dessa atenção quando falamos sobre regulamentar a I.A, pois inegavelmente é um avanço, mas se for um avanço desenfreado, acabaremos por nos tornar escravos.  ____________ 1 Em dezembro de 2015, a 2ª Turma Recursal Cível do Colégio Recursal de Piracicaba/SP, sob relatoria do Desembargador Rogérios Sartori Astolphi, com participação de Maurício Habice e de Gisela Ruffo, alterou o resultado em dois aspectos. Em favor do Facebook, afastou a obrigação de fornecer o endereço de IP usado na criação do perfil falso; e em favor da autora da ação, declarou que o art. 19 do MCI é inconstitucional e condenou o Facebook a pagar indenização de dez mil reais por dano moral, decorrente da omissão em excluir o perfil falso, após ser avisado da irregularidade. Disponível aqui. 
A comissão de juristas encarregada de elaborar uma proposta de regulação da inteligência artificial no Brasil apresentou o relatório final ao presidente do Senado, Rodrigo Pacheco. Após 240 dias de trabalho, a comissão apresentou um texto substitutivo com pouco mais de 40 artigos, distribuídos em um relatório com mais de 900 páginas, que foi encaminhado para apreciação dos senadores. A comissão foi instalada em março de 2022 para subsidiar a elaboração da minuta do substitutivo a partir dos projetos de lei (PLs) 5.051/2019, de autoria do senador Styvenson Valentim (Podemos-RN); 21/2020, do deputado Eduardo Bismarck (PDT-CE); e 872/2021, do senador Veneziano Vital do Rêgo (MDB-PB). Esses projetos têm como objetivo estabelecer princípios, regras, diretrizes e fundamentos para regular o desenvolvimento e a aplicação da inteligência artificial no Brasil. A comissão de 18 juristas promoveu reuniões, seminários e audiências públicas divididas por eixos temáticos, com a participação de especialistas e representantes nacionais e internacionais para aprofundar o tema. Foram promovidos 12 painéis temáticos pela comissão, que recebeu 102 manifestações de entidades da sociedade civil organizada, consolidadas no relatório pelos juristas. Também foram criados cinco subgrupos temáticos e promovido um seminário internacional, que discutiu as experiências de inteligência artificial em vigor no mundo a fora. Durante a apresentação do relatório, os membros da comissão foram unânimes em homenagear em suas exposições o jurista Danilo Cesar Maganhoto Doneda, que integrou o colegiado e faleceu Dezembro, porém, deu grandes contribuições. A relatora da comissão e professora da Universidade de Brasília (UnB) e do Instituto Brasiliense de Direito Público (IDP), Laura Schertel Ferreira Mendes disse que a unanimidade dos juristas em torno do substitutivo foi obtida a partir de um trabalho árduo e a liderança de Ricardo Villas Bôas Cueva. Agora o texto precisará passar por novas discussões e alterações. Ao término da reunião, o advogado e professor Filipe Medon destacou a iniciativa do Senado em ouvir a sociedade sobre a regulamentação da atividade de inteligência artificial. O Brasil poderá ser tornar um grande marco. Cabe ao Parlamento o aprofundamento das questões suscitadas ao longo do trabalho da comissão. No relatório final da comissão muitos foram os aspectos apontados para essa regulação que é importante, um avanço, porém, também traz risco. A descriminação dessa tecnologia é um erro, mas há uma necessidade de trabalha-la para que haja menos erros possíveis, mais avanços do que atrasos. Dois juristas da comissão, MARC ROTENBERG e MARIA PAZ CANALES, enfatizaram a importância de "uma supervisão independente" e indo nesse sentido, WOLFGANG HOFFMANN-RIEM defendeu ser "mportante, em casos de violações, ter uma agência independente por parte do governo para supervisionar e conduzir essa parte da indústria". Bojana Bellamy destacou algo de relevância em sua fala: "Não se pode regulamentar todo tipo de IA da mesma forma. Há decisões por IA que exercem impacto significativo, um efeito jurídico sobre as pessoas, e é isso que queremos levar em consideração, não quaisquer decisões tomadas por machine learning. Se tivermos que confiar naquilo que Mackenzie falou toda empresa será sobrecarregada. Então, é importante considerar o risco, uma abordagem baseada em risco com base em regras, mas é preciso compreender o que estaremos perdendo se não empregarmos a IA, quais são seus benefícios. Então, é uma forma de balancear, essa é abordagem." Em relação aos direitos fundamentais é importante destacar alguns pontos que foram abordados e também a intervenção direta do Estado não apenas para controle, mas para cooperação desses sistemas da IA: Stuart Russel destaca também uma preocupação muito ligada a IA e que precisa ser pensada: "Eu também gostaria de enfatizar a questão dos direitos fundamentais e a sua conexão com a gestão baseada em riscos. Geralmente pensamos sobre sistemas de alto risco, como sistemas de raios-X e carros sem motorista, que podem causar ferimentos ou até morte. Porém, a liberdade do pensamento e a proteção da integridade implicam que os sistemas de informação, tais como mídias sociais ou jogos de computação possam manipular ou utilizar-se de uma linguagem, como a Comissão Europeia chama que possa alterar o comportamento humano. Esses são sistemas de alto risco e devem ser regulados como tais. Por fim, o direito mais fundamental é o direito à vida. E eu acho que seria de valia ressaltar a questão de que o algoritmo nunca deve ficar atento para matar seres humanos." IRINA ORSSICH afirmou ainda que "os aplicativos militares deveriam ser proibidos". O que vai de encontro à fala do jurista Stuart em relação à proteção dos direitos fundamentais. "Especificamente com relação às contribuições da sociedade civil, a Coding Rights [sociedade civil] sugeriu "andar com cautela e prever riscos para evitar danos tem se mostrado uma visão mais coerente com a defesa de nossos direitos fundamentais". A DDAL [sociedade civil] apontou a necessidade de "que o texto substitutivo reconheça expressamente a proteção dos direitos fundamentais como condicionante para o desenvolvimento e implementação de sistemas de IA" além de "desenvolver os instrumentos específicos que assegurem o exercício dos direitos humanos". "Na academia, o CEEJ [academia] ponderou que "se por um lado, é necessário evitar o sufocamento da inovação social beneficia (.) de outro, as aplicações de sistemas de IA representam uma série de riscos para os direitos humanos, a democracia e o Estado de Direito" 374 e que "no Estado Democrático de Direito brasileiro, o devido processo não abrange apenas a necessidade de eficiência, mas também do resguardo de uma resposta adequada à Constituição." Nas manifestações dos representantes do setor privado, a Associação Brasileira de Emissoras de Rádio e Televisão (ABERT) [setor privado] destacou ser "indispensável assegurar que a inteligência artificial não seja empregada de forma equivocada, como mecanismo de censura, vigilância e perseguição ou discriminação política", ressaltando ainda que "o regulamento da matéria deve afastar qualquer subjetividade em seus dispositivos, determinando de forma expressa e inequívoca a necessidade de defesa e obrigação de respeito às 'liberdades, direitos e garantias individuais"· Pan Dixon em outra abordagem destaca: "Então, aqui, há duas coisas que serão muito importantes. Padrões gerais são muito importantes, mas eu também gostaria de mencionar o que eu chamaria de código de conduta de regulamentação, que é algo que já víamos em documentos, como, por exemplo, regulamentação no que diz respeito ao PIB. Realmente, elas não são utilizadas suficientemente, mas, na IA, isso seria muito útil realmente, porque teríamos milhões de sistemas de IA que iriam ajudar a criar uma interface entre a política e a prática. Realmente, precisamos disso e precisamos de uma visão mais abrangente. Creio que a autorregulamentação não funciona aqui. Creio que isso prova não funcionar, contanto que sejam robustos e significativos." Outro Jurista, Wolfgang Hoffmann-Riem fala sobre o controle do Estado, a intervenção desses em qualquer sistema de Inteligência artificial até mesmo em setores privados como empresas que adotem a IA: "O Estado tem que trabalhar não só na parte de controle, mas também na parte de cooperação com os sistemas de IA. Empresas não podem estar liberadas e com total autonomia nessa área. O controle do Estado tem que estar presente, bem como a cooperação de Estado. (.). Precisamos protocolar os procedimentos, bem como as máquinas que aprendem. Eu posso claro, através da autorregulamentação. Temos a experiência anterior que nos mostra, pelos códigos e o que a gente já viveu na internet em várias frentes, que pode se perder o controle e isso tomar uma autonomia que a gente não pode controlar depois. A autorregulamentação não pode estar presente, mesmo na criação de códigos, na criação de processos, processo de aprendizado, para que a gente tenha certeza e minimize riscos possíveis através da IA." No que tange a responsabilidade civil em casos de erros e danos desses sistemas é algo que foi enfatizado: A questão da responsabilização em casos de danos ou erros desses sistemas. O jurista David Vladeck destacou algo importante para essa regulamentação funcionar. Quem poderia ser responsabilizado caso o sistema falhe, por exemplo, em carros totalmente autônomos e automatizados? Como determinar de onde gerou essa falha: "Se tivesse uma pessoa atrás do volante, talvez essa pessoa, o motorista, não tivesse conseguido evitar a colisão. O que precisamos entender é que o carro dirige a si mesmo. Nos Estados Unidos, a resposta é, certamente, sim. Por quê? Porque, sobre a expectativa do teste do consumidor, a fabricação e o fabricante elevou a um ponto que não é alcançável por seres humanos, um nível de direção. Agora, essa é a pergunta que será respondida pelo júri. E a pergunta do "quem" que meu predecessor abordou. Uma das falhas de um dos milhares de componentes desses carros causou o acidente. O carro está funcionando adequadamente? Se ele estivesse funcionando, ele teria parado em tempo para evitar a colisão. Porém, não o fez. E aí? Talvez seja difícil, é praticamente impossível apontar qual foi à falha. Esse é o problema do 'quem'. Por vezes, talvez descobrir a partir do manual do fabricante seja algo muito diferente, e sejamos claros que o ônus, na prova do componente que sofreu defeito, caia sobre o colo do fabricante. Em muitos casos, o fabricante será o responsável, muito embora tenha sido um componente, e não quem fabricou o carro. Isso faz sentido? Agora, suponhamos que a falha do carro possa ser atribuída ao computador, que é operado por um software, dos quais há milhões de variantes de carros e diversos componentes de carros não pilotados. Assim, não temos uma resposta clara. Mesmo em casos nos Estados Unidos em que carros Toyota, inesperadamente, aceleraram, e a teoria é de que havia um problema. Mesmo a NASA não foi capaz de determinar se o software causou a falha que causou o acidente." Outra jurista, Mafalda Miranda Barbosa, destaca exatamente relacionada a esse questionamento em relação à responsabilidade civil: "Uma segunda via de solução será exatamente a constituição de fundos de compensação". Quem é que contribui para o fundo seria uma questão-chave. Poderia ser um grupo limitado de pessoas, ou então todos os cidadãos, e a responsabilidade simplesmente desapareceria, para dar lugar a uma solução de diferença social, com impacto negativo em termos financeiros. E isso implicaria que não se apuraria sequer a responsabilidade. No fundo, nós estaríamos a renunciar, a avocar a responsabilidade com base em critérios internacionais e, com isso, garantiríamos uma dimensão social do Estado, mas anularíamos a dimensão de justiça do Estado de direito, com consequências nefastas do próprio ponto de vista da eficácia dessas soluções. Por quê? Porque contribuiria para um aumento da opacidade, que já caracteriza os sistemas, e contribuiria para uma perda do sentido preventivo que pode ser reconhecido à responsabilidade civil e aos limites da responsabilidade civil. A rejeição desses fundos de compensação em bloco, como solução prioritária, não significa que não seja de se saudar a previsão de seguros obrigatórios, que possam surgir paredes-meias, pela definição de critérios de importação baseados no risco, que é uma das propostas ao nível europeu. Repare-se, aliás, que a responsabilidade objetiva que se parece desenhar no horizonte europeu não se traduz numa pura responsabilidade pela causalidade, que, aliás, resulta, muitas vezes, problemática a este nível, mas excepcionada que seja aquela previsão excepcionalíssima de uma responsabilidade de garantia, no quadro da responsabilidade por culpa; configura-se verdadeiramente como uma responsabilidade assente num risco que é ponderado e avocado em função das especificidades de cada sistema de IA. E, portanto, parece-me, de fato, preferível que, a existirem fundos de compensação, eles tenham um caráter subsidiário, à boa maneira do que já se verifica noutros domínios, como, por exemplo, no domínio dos acidentes com veículos de circulação terrestre. E em Portugal, nós temos o caso do Fundo de Garantia Automóvel. Mafalda ainda afirmou ser "essencial que haja, efetivamente, uma intervenção do legislador no sentido de criar novas hipóteses de responsabilidade objetiva ou de redefinir algumas das hipóteses de responsabilidade objetiva que já existem", considerando o produtor e o programador, e que é preciso "readaptar e repensar a disciplina da responsabilidade por produtos defeituosos". Tereza Rodrigues pontuou: "A questão do defeito é que ele é o pilar da responsabilidade do produto defeituoso". Isso é algo que tem sido questionado de forma bastante crítica no contexto de inteligência da tomada de decisão de Ias. Isso poderia configurar uma situação como defeito, pois isso seria o mesmo que dizer que uma tomada de decisão humana é defeituosa? Pode estar errada, pode carecer de informações, porém não é defectiva em si. A questão do defeito é que ele é o pilar da responsabilidade do produto defeituoso. Isso é algo que tem sido questionado de forma bastante crítica no contexto de inteligência da tomada de decisão de IAs. Então, sim, eu concordo com você. É um ponto-chave, um ponto-chave muito importante. "Aliás", quanto a este ponto - e, já, agora, fazendo aqui uma ponderação daquela que já é a proposta europeia -, a limitação dos danos indenizáveis no quadro da proposta de regulamento europeu em matéria de responsabilidade civil por danos causados pelos sistemas de IA, esta limitação ocorre por outra via. Na tradução portuguesa da diretiva da proposta de regulamento, pode-se ver que ela é aplicável quando uma atividade ou um dispositivo de IA integrado num sistema de IA tenha causado prejuízos ou danos à vida, à saúde, à integridade física de uma pessoa singular, ao patrimônio de uma pessoa singular ou coletiva, ou que tenha causado danos não patrimoniais significativos que resultem numa perda econômica verificável. Do ponto de vista dogmático, o legislador europeu parece confundir aqui o ilícito de culpa, ao mesmo tempo em que parece ignorar a essência daquilo que são os danos não patrimoniais, associando-os a consequências econômicas relevantes. E, se a solução é estranha e causa algum embaraço do ponto de vista dogmático, não menos criticável parece ser a referência ao patrimônio de uma pessoa singular ou coletiva em detrimento da referência que resultaria de uma acepção literal à propriedade. Por quê? Porque se abrem aqui as portas à indenização dos tais danos puramente patrimoniais e abre-se aqui a porta a eventuais situações ou eventuais hipóteses de hiper-responsabilidade. E me parece fundamental que tenhamos em conta que não faz sentido levar uma responsabilidade por danos causados por sistemas autônomos de IA mais longe do que aquilo que resultaria, em geral, da interação entre os seres humanos, o que significa que, se, no quadro geral europeu, não há, em regra, indenização desses danos puramente patrimoniais, só em situações excepcionalíssimas é que se deveria, efetivamente, poder indenizar estes tipos de danos quando esteja em causa um sistema de IA. E, para isso, pode ser fundamental chamar à atuação das regras próprias da responsabilidade contratual. Por exemplo, no âmbito da utilização do robô adwisers no quadro do aconselhamento ao nível dos mercados financeiros. "E aqui eu gostaria de deixar uma outra palavra: é que este problema da causalidade é um problema particularmente complexo." Ela abordou ainda dentro desse contexto a questão da "causalidade", que caracterizou como "um problema particularmente complexo"; E aqui eu gostaria de deixar uma outra palavra: é que este problema da causalidade é um problema particularmente complexo. É um problema que suscita e suscitará dificuldades ao jurista quando esteja a lidar com danos causados pelos sistemas de IA. O que se verifica neste domínio é a eventual possibilidade de não se descortinar qualquer violação de um dever por parte do utilizador do software ou do programador inicial, e, por outro lado, o que se verifica é a complexidade do sistema que funciona como um verdadeiro ecossistema. O que significa que, mais do que repensar o problema da causalidade, tentando estabelecer presunções de causalidade ou tentando inverter o ônus da prova, uma vez que facilmente poderia depois ser elidida essa presunção, nós temos que assumir verdadeiramente o problema da causalidade como ela deve ser assumida em geral, que é como um sistema de imputação objetiva. Portanto, o problema da causalidade deve ser necessariamente ponderado a este nível como um sistema efetivado e alicerçado no confronto de esferas de risco. O operador, ao assumir o risco e o controle do risco inerente a um sistema de IA, assume uma determinada esfera de risco e tem que cumprir uma série de deveres de inteligência no manuseamento desse sistema de IA. Se o fizer, ele não será responsabilizado; se não fizer esse role responsability de que parte, confirmada por esses deveres, transformar-se-á numa outra esfera, numa esfera de liability, numa esfera já não de responsabilidade pelo outro, mas numa esfera de responsabilidade perante o outro. O que significa que, em relação a todos os danos ou todas as lesões que sejam possivelmente causadas por aquele sistema de IA, cujo risco e controles poderão ser encurtados, ele poderá ter que vir a responder por esses danos, o que não significa que efetivamente venha a responder. Por quê? Porque depois nós temos que confrontar essa primitiva esfera de risco de responsabilidade com outras esferas de risco de responsabilidade, designadamente, a esfera de risco de responsabilidade geral, de vida, e vamos recusar a imputação sempre que a presença do bem jurídico apenas tenha sido determinada no tempo e no espaço pela utilização do sistema de IA, mas também com a própria esfera de risco de responsabilidade do usado e com a esfera do risco de responsabilidade de eventuais terceiros. O que significa que, em última instância, confluindo de várias causas, é possível que haja ou soluções de solidariedade obrigacional e de responsabilidade solidária ou eventualmente a afirmação de um único responsável, quando possa ser identificado. Mas essa identificação ocorrerá depois, no seio das relações internas, e muitas vezes no quadro do exercício de direito de regresso entre os vários corresponsáveis solidariamente, cuja responsabilidade se desenha nesses termos imputacionais, a partir desse confronto de esferas de risco." Das definições da IA: "No setor privado", algumas contribuições apontaram para a adoção de definições menos amplas, mais limitadas, como a da Associação Brasileira das Empresas de Software (ABES) [setor privado], que afirmou ser um consenso "evitar definições muito amplas ou puramente técnicas" e que o "substitutivo aprovado foi muito hábil em limitar o seu escopo de aplicação". A Associação de Empresas de Tecnologia da Informação e Comunicação e de Tecnologias Digitais (BRASSCOM) [setor privado], no mesmo sentido, afirmou que "uma definição mais restrita é necessária para evitar o excesso de regulação". A seu turno, para a Federação Brasileira de Bancos (FEBRABAN) [setor privado], "o conceito é amplo demais e traz insegurança jurídica", e, para o Information Technology Industry Council (ITIC) [setor privado], "o Brasil deve evitar criar uma definição ampla de IA". Houve ainda, no setor privado, contribuições pleiteando "uma definição genérica", a exemplo da Federação do Comércio de Bens, Serviços e Turismo do Estado de São Paulo (FECOMERCIO/SP) [setor privado] e da Federação das Indústrias do Estado de São Paulo (FIESP) [setor privado], ou recomendando "evitar (.) a adoção de uma definição prescritiva", como a da Associação Latino-americana de Internet (ALAI) [setor privado]. Algumas das contribuições alertaram que a automação não deveria ser incluída no conceito de IA, como a do Instituto de Referência em Internet e Sociedade (IRIS) [sociedade civil] e a da Brasscom [setor privado]. A Subsecretaria de Inovação e Transformação Digital do Ministério da Economia (SIN/ME) [governo] enfatizou que "é preciso que o marco legal de IA traga uma seção inteira dedicada a definições". Em relação à observância das normas legais: Associação Brasileira de Internet (ABRANET) [setor privado] é preciso que a proposta "considere a existência de princípios sólidos no ordenamento jurídico brasileiro já aplicáveis a IA, constantes no Marco Civil da Internet, na LGPD e no Plano Nacional de Internet das Coisas, de modo a evitar a duplicidade normativa"; para a Associação Brasileira de Anunciantes (ABA) [setor privado], "a regulação da IA deve adotar regras (.) complementares às normas jurídicas já existentes"; para o Itic [setor privado], deve-se "apenas proceder para as abordagens regulatórias quando forem identificadas lacunas"; para o Centre for Information Policy Leadership (CIPL) [setor privado], "deve se basear nas estruturas legais existentes e evitar duplicar ou criar quaisquer exigências conflitantes com essas estruturas (...)". Ainda sobre essa questão, o Instituto Brasileiro de Defesa do Consumidor (IDEC) [sociedade civil] ressaltou a necessidade de se observarem os direitos dos consumidores e destacou que "o diálogo com a LGPD será central". Reconhecimento facial foi um dos temas mais suscitados relacionados à regulação baseada em riscos: "foram às aplicações de reconhecimento facial". As contribuições da sociedade civil, de modo geral, propuseram o banimento desse tipo de sistema, de forma ampla ou em contextos específicos. Nesse sentido, a CDR [sociedade civil], requereu "o banimento total do uso das tecnologias digitais de Reconhecimento Facial na Segurança Pública no Brasil". A Polícia Federal [governo], de outro modo, prestou "esclarecimentos para se evitar o banimento do uso do reconhecimento facial para a Segurança Pública", argumentando, em síntese, que "não deverá ser a máquina quem tomará a decisão final, e, sim, um ser humano devidamente treinado e que responderá pelo seu erro". Documento na íntegra.
Existem muitos "cases" no curso da história do "ciberlaw" e, sem dúvida, as discussões sobre a perícia envolvendo as urnas eletrônicas brasileiras, nas eleições de 2022, serão lembradas e estudadas pelas futuras gerações. Tenho colecionado todos os pareceres elaborados por peritos, manifestações do MD, material farto e interessante e, certamente, trarão desdobramentos positivos aos alunos da Digital Law Academy e da pós-graduação em Computação Forense do Mackenzie.   Independentemente do grau de evolução das tecnologias de segurança, o combate às pragas digitais é "uma guerra infinita" e algumas empresas privadas e governos ainda não têm este conceito1.   Manifestações técnicas e jurídicas foram manuseadas fora do prazo, gerando resultado contrário àquele almejado pelos interessados. Já tenho texto pronto sobre este tema. O MD, na narrativa de seu parecer, incorre em diversos erros, que impediram a conclusão efetiva do seu trabalho.   Não existe meia auditoria ou meia análise, como não existe o segundo turno, sem ter ocorrido o primeiro turno. Da mesma forma, não existiriam as eleições de 2022, sem terem ocorrido as eleições de 2018.  As urnas foram as mesmas, em ambos os turnos. Discutir e impugnar a segurança digital das urnas, apenas no segundo turno, foi mais um grave erro processual e procedimental, na condução da perícia privada de relevante interesse público.  O Brasil sofre crise semelhante à vivida pela Alemanha, em relação à credibilidade das urnas eletrônicas, ocorrida no ano de 2005. A discussão era exatamente a mesma, no país.   A tese discutida era de que a eleição, como fato público, é o pressuposto básico para uma verdadeira formação democrática e política. A Corte alemã disse da importância de se assegurar processo eleitoral regular e compreensível ao cidadão comum, criando com isso pré-requisito essencial, a atmosfera de confiança fundamentada do cidadão no procedimento. Como o cidadão comum não é capaz de entender, conferir, auditar e fiscalizar a contagem de votos, a Suprema Corte da Alemanha, ainda que não tenha existido prova de violação das urnas, optou por declarar que o sistema do voto eletrônico está em desacordo com a Constituição.  Princípio da transparência e formas de controle  Para a Corte máxima alemã, um "evento público", como uma eleição, pressupõe que qualquer cidadão possa dispor de meios para averiguar a contagem de votos, bem como a regularidade do decorrer do pleito, sem necessitar possuir, para isso, conhecimentos especiais.  No processo eleitoral tradicional, isso nunca foi um problema. Uma vez que o voto tenha sido depositado na urna, qualquer pessoa pode acompanhar de perto a contagem junto ao domicílio eleitoral. Manipulações, nesses casos, são difíceis, uma vez que podem, a qualquer momento, ser descobertas.2  *Na Alemanha resultados não foram anulados.*   No caso da urna digital e informática, o eleitor simplesmente tecla e o computador, horas mais tarde, expele um resultado. O cidadão, neste caso, não tem meios para apurar possíveis erros de programação ou manipulações propositais. O cidadão também não compreende como seria possível conferir seu voto e realizar ele mesmo a fiscalização. No processo de votação 100% digital, a grande maioria do número de eleitores não domina o conhecimento tecnológico.   Neste sentido, acreditaram os juízes alemães, houve, com o uso da urna eletrônica nas eleições de 2005, uma transgressão das leis que garantem o pleito como um fato público.  Lá, como aqui, o tribunal, contudo, não chegou a anular os resultados do pleito realizado, havia mais de três anos, baseando-se no argumento de que não existiam indícios que levassem a crer que tenha havido qualquer mau funcionamento, nas urnas eletrônicas usadas naquelas eleições.  Pensando em aprofundar este debate, a Digital Law Academy, a A High Technology Crime Investigation Association3 e a Faculdade de Ciências Forenses e Tecnologia IBPTECH4 se uniram para tirar o debate da seara política e trazê-lo para o campo do Direito e Tecnologia.   A Digital Law Academy não é apoiadora ou opositora de governos, partidos e candidatos. Nossa autonomia crítica assegura credibilidade e força para nossas ações, estudos e pareceres, na defesa ao Estado Democrático de Direito.  Tenho absoluta certeza de que, tanto os profissionais da área jurídica, como os experts em tecnologia da informação e investigação digital, sairão satisfeitos e com respostas técnicas e jurídicas embasadas no conhecimento e na pesquisa.5 __________ 1 Sobre as fraudes em sistemas eletrônicos complexos. 2 Disponível aqui, aqui e aqui. 3 HTCIA - High Technology Crime Investigation Association é uma organização mundial fundada há mais de 29 anos que se dedica a apoiar o treinamento de profissionais envolvidos na descoberta e no combate aos crimes de alta tecnologia, tendo nesse período solidificado sua posição como líder junto às autoridades policiais e ao mundo corporativo na prevenção, investigação e combate aos crimes que utilizam tecnologias sofisticadas. 4 Disponível aqui. 5 Disponível aqui. __________ * No próximo dia 15, das 19h30 às 21h30, acontece o evento "Urnas Eletrônicas e Democracia", pela plataforma ZOOM. Inscreva-se.
Para iniciarmos sobre o tema temos que discorrer brevemente sobre o que é o bullying que acompanha a evolução digital, porém, nunca perde sua essência original que tem sempre o mesmo objetivo ao final, fazer o outro sofrer de alguma forma, uma essência sádica. Como citou um grande filósofo Jean-Paul Sartre, "A violência, seja qual for a maneira que ela se manifesta, é sempre uma derrota." Isso que precisamos enfatizar entre as crianças e jovens, nas escolas e nas redes sociais. Conforme a tecnologia avança, o bullying se renova nos meios de se reproduzir e surgem termos como "cyberbullying". "O Direito serve à vida: é regramento da vida. É criado por ela e, de certo modo, a cria." (Pontes de Miranda). Pontes de Miranda sempre abordou sobre direitos fundamentais e responsabilidade civil, e podemos encaixar em nosso tema e ressaltar que o bullying é uma prática que cabe responsabilidade civil indenizatória e afronta a dignidade humana de suas vítimas, ante a discriminação, violência, crueldade e opressão a ele inerentes. Precisamos a plena educação inclusiva já que não podemos aceitar que pessoas sejam discriminadas. Em definição compartilhada pela Fia (Fundação Instituto de Administração), as atividades de compliance têm como objetivo principal garantir a integridade nas tomadas de decisões dos gestores. Logo, ajuda na transparência, assim como, na ética das ações no ambiente escolar, além de prevenir o bullying. Iremos discorrer aqui sobre os temas e mostraremos como podemos influenciar positivamente a vida de todos os que compõe a comunidade escolar, se estendo ainda, para as redes sociais.   (1) "(...) sobre o bullying tradicional. Termo de origem inglesa que caracteriza o desejo consciente e deliberado de machucar outrem de forma a colocá-lo sob tensão. Descreve em sua essência comportamentos agressivos e antissociais ou um conjunto de agressões, intencionais e repetitivas, sem causa aparente, adotado por um ou mais indivíduos." (LIMA, Ana Maria de A. CYBERBULLYING e Outros Riscos da Internet. Walk. 2001. Apud FANTE, 2005.)  (2) "Normalmente utilizada no meio educacional para as práticas de agressões físicas ou psicológicas entre estudantes, mas não se restringe a tal ambiente, pois extrapola os muros da escola (...) Não é difícil que o bullying e o cyberbullying sejam praticados por grupos, normalmente os jovens se unem pelo simples prazer de ver o sofrimento de outrem e de fato as tecnologias auxiliam para que tais agrupamentos tomem forças." (https://canalcienciascriminais.com.br/cyberbullying-e-crime/ - Coriolano Aurélio de Almeida Camargo e Cristina Sleiman)  Abordaremos aqui sobre o tema relacionado ao bullying nas escolas, como preveni-lo de maneira eficaz e utilizando o "compliance escolar", a própria palavra já indica o conceito da etapa: o cumprimento das leis e regulamentos para o setor específico educacional. Portanto, "compliance" para as escolas é um dos temas mais discutidos no cenário educacional atual, especialmente quando se trata de educação digital compassiva.  (3) "(...) na defesa da educação digital, vez que, embora a Lei possa compelir o ser humano a determinada conduta, é preciso acima de tudo trabalhar a Educação de Valores, como respeito ao próximo. Trata-se de inclusão digital dentro dos preceitos de ética e cidadania digital, sem esquecer do desenvolvimento do ser humano para a vida tendo como garantia seus direitos fundamentais." (https://canalcienciascriminais.com.br/cyberbullying-e-crime/ - Coriolano Aurélio de Almeida Camargo e Cristina Sleiman)  As iniciativas que afetam o campo nas escolas incluem todas as ações realizadas pelos gestores em relação à regulamentação aplicável às atividades escolares. Então, avaliamos que o "compliance" se refere à Lei do Bullying e a LGPD (Lei Geral de Proteção de Dados), além de todas as demais leis que regem as relações dentro e fora da comunidade escolar.  As atividades de conformidade escolar são a necessidade de conformidade com as leis, regulamentos e procedimentos internos e externos, exigindo revisão contínua da conformidade, eficiência e eficácia das atividades escolares realizadas pelos professores, alunos, responsáveis, assim como, foram desenvolvidos pelas equipas transversais (administração, limpeza, manutenção, recursos humanos, transportes, alimentação, marketing, tecnologia, jurídico e financeiro). O programa de bullying, bem como a implementação de medidas de promoção de uma cultura de paz, só será consolidado na prática através da implementação de pelo menos seis passos básicos de conformidade escolar, citamos aqui: 1. Sensibilização e motivação da comunidade escolar (alunos e famílias), Lei 13.185/15 artigo 4º inciso I 2. Capacitação dos professores Lei 13.185/15 artigo 4º inciso II 3. Cronograma de atividades Lei 13.185/15 artigo 4º inciso III 4.Gestão de riscos Lei 13.185/15 artigo 4º inciso V e VIII 5. Adequação dos contratos e termos escolares Lei 13.185/15 artigo 4º inciso IV 6. Monitoramento (ou auditoria) riscos Lei 13.185/15 artigo 4º inciso V Sem a efetiva aplicação da política de "compliance escolar", não há como atender aos requisitos legais previstos nos incisos IX e X do artigo 12 da Lei de Diretrizes e Bases da Educação Nacional. As autoridades exigem que a escola apresente o programa e cronograma de ações a serem tomadas para prevenir, diagnosticar e combater o bullying e a violência de acordo com o disposto na Lei 13.185/15 no Plano Escolar 2023. No âmbito da análise orçamentária atual está a aplicação é lícito e atende pontualmente aos princípios de legalidade, impessoalidade, moralidade, publicidade e eficácia previstos no artigo 37 da Constituição Federal. Por conta da lei 13.185/15, da LGPD, lei 9.394 de 20 de dezembro de 1996 e dos fatores externos e internos que permeiam o ambiente escolar, há a necessidade de implantação de programas de "compliance" para as escolas. Como fatores externos para a aplicação e políticas de "compliance escolar", temos os padrões federais antibullying mais rígidos e eficazes estabelecidos pelas leis acima citadas. O ativismo de pais e familiares de alunos e a organização e mobilização de professores e funcionários que quase sempre são vítimas de violência digital nos grupos de mães do WhatsApp.  Como fatores internos, temos o uso de princípios de boa governança para harmonizar os conflitos escolares entre alunos, professores e funcionários. Gestão preventiva contra o bullying e o cyberbullying e a percepção de benefícios que superam os custos de implementação do "compliance". O não fornecimento dessas informações é uma evidência clara da falha no fornecimento de serviços educacionais, nos termos do artigo 14 da Lei de Defesa do Consumidor.  Registre-se que, caso a escola não tenha um programa de "compliance" com políticas claras de estabelecimento de cultura de paz, a direção da escola que for omissa em tomar as medidas preventivas e proativas poderá ser responsabilizada por todos os danos materiais e morais sofridos pelo professor ou funcionário. O ser humano tem uma profunda capacidade inata de cuidar e compadecer: uma capacidade não apenas de tolerar os outros, mas de realmente vê-los e aceitá-los incondicionalmente. Por essa razão que a aplicação do "compliance escolar" coloca as instituições de ensino na rota do artigo. Essa habilidade de cuidar é desenvolvida tanto no contexto do cuidado nos relacionamentos quanto por meio de treinamento específico nos termos da lei vigente. A compassividade na educação aliada ao ideal de aplicar a lei na escola, são valores relativos à cultura da não violência, que deve ser desenvolvida dentro e fora das dependências da escola e aparecer nas mais simples formas, nos diálogos e aulas discriminadas no plano curricular de 2023, desde as classes de educação infantil até o ensino médio. (4) "(...) Foi só uma brincadeira", é o que dizem os agressores em boa parte dos casos de cyberbullying - prática de ofensas propagadas pela internet de forma repetitiva contra uma vítima específica. É usual o agressor justificar seus bullies como brincadeira para se defender e continuar a praticar as suas maldades. Mas ofensa não é brincadeira. A cartilha "Uso Seguro da Internet para Toda a Família" traz também casos concretos de condenações nos tribunais de pessoas que promoveram o cyberbullying, bem como pais e escolas que foram negligentes com a vigilância de adolescentes que praticaram as agressões." (https://www.oabsp.org.br/noticias/2011/01/04/6683 - Coriolano Aurélio de Almeida Camargo) Precisamos evoluir a forma de prevenir e combater esse tipo de crime que transforma negativamente vidas humanas. O "compliance escolar" faz parte dessa evolução combativa extremamente necessária.
terça-feira, 1 de novembro de 2022

Advocacia e a LGPD

Recentemente, surgiu o debate sobre qual seria o melhor profissional para liderar um projeto de implantação da Lei de Proteção de Dados Pessoais. Desta forma questiona-se se o encarregado pelo tratamento de dados deve ser somente um advogado ou somente um profissional da área de TI e SI.   Litigar, representar e defender empresas frente a investigações e infrações à LGPD, sem dúvida, é função do advogado.  O tema proposto é polêmico e exige uma harmonização dos lados envolvidos (TI e Legal).  Anteriormente à lei, esses profissionais de proteção de dados eram da área de cibersegurança nas corporações e trabalhavam em conjunto com o departamento jurídico.   Os escritórios de advocacia sempre possuíram assistentes técnicos, paralegais, assim como juízes, promotores, delegados, militares, dentre outros, são profissões que dependem de quadro de carreira multidisciplinar para otimização de resultados.   Sempre trabalhamos em conjunto para ampliar os horizontes, ampliar o conhecimento e atuar no "compliance". Dividimos responsabilidades. Não pode ser diferente, mesmo após o advento da Lei de Proteção de Dados Pesaoais. Como o tema é multiportas, exige a atuação do advogado, no seu campo privativo de atuação, em conjunto com os profissionais de tecnologia. Hoje, tudo passa pela tecnologia e o Direito Digital se ramifica em vários segmentos como criptos, IA, compliance, adequação à LGPD, propriedade intelectual, coleta de provas digitais, "cybercrimes", "startups",  investigação digital, "fakenews", remoção de conteúdo na Internet, além de outros.  O núcleo das organizações e sua alta direção prevêem papéis e responsabilidades bem definidos sobre quem responde por TI e quem responde por "Legal".  Como para tudo que requer excelência, efetividade, dinamismo, prazos e resultados para o "Board", há necessidade de que seja liderado o projeto por alguém com experiência comprovada em alta gestão, com visão humana de liderança (portanto, não necessariamente, alguém de TI e/ou de Legal). A implantação da LGPD é um ótimo momento para a alta direção se aproximar do jogo. Concentração de poder é para empresas e grupos desatualizados.  Portanto, seja alguém de tecnologia ou da área do Direito ou, ainda, que tenha conhecimento e comprovada experiência capazes de maximizar resultados em ambas as áreas, acabará por se tornar um líder corporativo, do que mais as empresas brasileiras carecem. Não, simplesmente, um líder executor. Daí, a necessidade de profissional com perfil multidisciplinar de liderança executiva e com conhecimento dos dois mundos.  Como são atividades privativas da advocacia aquelas de consultoria, assessoria e direção jurídicas, não cabe aos profissionais de TI e engenheira a análise de contratos jurídicos. Uma área apoia a outra em algum momento.  Para ilustrar, a importância das certificações ao Advogado, trago uma saudosa recordação de um dos múltiplos certificados nacionais e internacionais que obtive, quando recebi pelas mãos do Professor Doutor Valdéres Fernandes Pinheiro, a Certificação International "Cyber Security Law" 2012, da "Caldwell Community College and Technical Institute", homenagem especial recebida, durante o Seminário "Cenário da Advocacia Moderna no meio Digital", que contou com as presenças de ilustres palestrantes, alunos, amigos, membros da CDECAT e personalidade da comunidade de TI, reunidos no salão nobre da OAB/SP,  no dia 24 de maio de 2012.  Portanto, no que tange ao Direito e à tecnologia, assim do alto e de longe, vê-se um chispar pela flor d'água uma baleia, mas, depois, de perto, constata-se que são duas. É que vão tão juntas e harmonizadas que parecem um só bicho. Certo é que, atualmente, somos todos interdependentes.
Introdução Atualmente, a sociedade contemporânea experimenta um modelo e padrão de vida que, até pouco tempo, era inimaginável. A constante e acelerada transformação das tecnologias somadas à Internet das Coisas - Internet of Things/IoT - vem proporcionando inovações não somente no campo tecnológico, mas também na esfera da vida dos indivíduos e, com isso, influenciando no Direito. A leitura das normas jurídicas passa por alterações interpretativas com a finalidade de amoldá-las à realidade de uma sociedade movida pela vida real e pela recente vida virtual. O presente estudo pretende demonstrar sob a ótica da Sensibilidade Humana e Jurídica, a Inteligência Artificial (IA) como um mecanismo tendente a influenciar e impactar no modo de vida humana, criando um novo olhar sob os Direitos Humanos em tempos de predominância das tecnologias. A IA agrupa diversas tecnologias capazes de lerem o ser humano e tomar decisões pautadas em soluções tecnológicas, tendo como uma das bases de sua existência, uma série de modelos de dados e big data. É utilizada para compor os mais diversos trabalhos, e seus algoritmos possuem tendência à violar os preceitos contidos nos Direitos Humanos, afetando os indivíduos enquanto signatários desses direitos. Para vislumbrar as questões postas, no primeiro capítulo deste trabalho será analisada a Inteligência Artificial, no primeiro momento, sob seu ângulo histórico partindo para uma análise mais condizente com a atualidade, de forma a verificar sua importância e destrinchar o conteúdo que a acerca; no segundo capítulo verificar-se-á a IA aplicada e os reflexos tendentes a afetar os Direitos Humanos e como o próprio Direito pode resolver esse impacto por meio de interpretações das normas já postas; por último será verificada a possibilidade da existência da dignidade da pessoa humana digital, considerando que parte de nós está inserida em ambiente digital e as IAs carregam consigo vários dados pessoais em sua composição capazes de provocar discriminações, exclusões e afetar a dignidade humana, que num primeiro momento, não se encontra fisicamente conectada à pessoa humana, mas interligada a esta diretamente por meio da tecnologia.  Diante do exposto, o Problema de Pesquisa consiste na seguinte indagação: considerando o cenário atual enfrentado pela predominância das tecnologias, internet e inteligência artificial, é possível vislumbrar uma dignidade direcionada à pessoa digital? A Hipótese Provisória parte da premissa de que para além da dignidade da pessoa humana já prevista em vários documentos internacionais e pátrios, importante analisar que no momento de sua criação não havia o contexto hoje presenciado quanto aos avanços tecnológicos; fazendo-se necessária uma releitura acerca da dignidade humana de forma a abranger a sua essência ao campo da pessoa digital. O Objetivo Geral deste estudo reside na verificação do atual cenário com vistas às tecnologias desenvolvidas voltadas às questões de IA, e como esse contexto tende a afetar os Direitos Humanos. Os Objetivos Específicos são: a) verificar a IA em seu contexto histórico e conceituação; b) analisar os reflexos da IA nos Direitos Humanos; b) compreender a possibilidade de uma nova visão acerca da dignidade humana voltada ao ser humano digital. Utiliza-se o Método Dedutivo para a composição textual do presente trabalho com base nas Pesquisas Bibliográficas e Documentais. A inteligência artificial: conceituação e contexto histórico/evolutivo No momento presente a Sociedade Global vem experimentando avanços e transformações no campo tecnológico capazes de alterar o modo de vida e de agir da humanidade, cuja percepção se envolta na dependência tecnológica para desempenhar as mais diversas atividades, desde as mais rotineiras até aos negócios mais complexos. A Inteligência Artificial, nesse sentido, tem desenvolvido um papel primordial e colaborativo para concretizar tais avanços. Os algoritmos da IA passaram a incorporar o cotidiano da sociedade, acumulando informações dos indivíduos, passando a conhecê-los em sua essência. Algumas IAs, inclusive, podem determinar as tendências de escolhas e preferências das pessoas com base nos algoritmos e bancos de dados que detém. Segundo Kai-fu Lee (s/n, 2019) - um dos mais renomados especialistas em Inteligência Artificial e, inclusive, atuou como representante da Google na China - "hoje, algoritmos de IA bem-sucedidos precisam de três coisas: big data, poder de computação e o trabalho de engenheiros de algoritmo de IA bons [...]". O autor também elucida que "aproveitar o poder da IA hoje - a "eletricidade" do século XXI - também exige quatro insumos análogos: dados abundantes, empreendedores famintos, cientistas de IA e um ambiente político favorável a investimentos na área" (LEE, 2019, s/n). Importante destacar que não há um consenso sobre a definição de IA, e tampouco uma forma única de conceituação (MEDEIROS, 2018, p.19). Mas tem-se a repetição de objetos que caracterizam a IA, como a "capacidade de resolução de problemas, aprendizado com o ambiente, desenvolvimento de estruturas cognitivas, orientação a metas" (MEDEIROS, 2018, p. 19). Russel e Norvig (2013, s/n) definem IA "como o estudo de agentes que recebem percepções do ambiente e executam ações. Cada agente implementa uma função que mapeia sequências de percepções em ações [...]". Para afirmar que um programa pensa como um ser humano é relevante compreender como pensa um ser humano, de forma a ingressar na mente humana em seus componentes reais, através da introspecção, de experimentos psicológicos e imagens cerebrais (RUSSEL, NORVIG, 2013, s/n). Nesse sentido, é perceptível que o desenvolvimento da IA está voltado para as transformações e evoluções de tecnologias que se encarregam de realizar serviços práticos e repetitivos de forma a aprender e pensar como um ser humano. A ideia de tornar a IA uma aliada às atividades desenvolvidas e realizadas por humanos, para além de ser uma realidade enfrentada, tem se tornado um desafio fincado em várias vertentes. Neste estudo a vertente analisada reside nos Direitos Humanos, mais precisamente voltada à dignidade da pessoa humana. Muito embora ainda existam divergências e discussões quanto à área de conhecimento que se insere a Inteligência Artificial, a resposta mais aceita, atualmente, é que a IA se caracteriza como uma ciência multidisciplinar, voltada para a Ciência da Computação, haja vista que por meio da computação se implanta a inteligência (FRANCO, 2014, p. 03). No mesmo sentido, para Luger (2013, p. 01) "a inteligência artificial (IA) pode ser definida conto o ramo da ciência da computação que se ocupa da automação do comportamento inteligente". Sob o viés histórico, "o primeiro trabalho agora reconhecido por tratar da IA foi um modelo de neurônios artificiais elaborado por Warren MacCulloch e Walter Pitts em 1943 que serviu como precursor da abordagem conexionista" (FRANCO, 2014, p. 05). O Teste de Turing também foi um marco consagrado na história da IA, o qual através de um teste hipotético tentou verificar se uma máquina conseguiria se passar por ser humano em uma conversa por escrito. O teste foi realizado pelo matemático Alan Turing, na década 50, conhecido por ser um dos precursores da ciência da computação e da Inteligência Artificial, e escreveu a obra Computing Machinery and Intelligence, publicado em 1950, pela Revista Mind. Assim, tal avaliação se embasa na verificação da capacidade da máquina computacional deter inteligência artificial semelhante à inteligência humana. A IA é reconhecida, ainda, como uma disciplina recente se comparada com as demais ciências mais antigas, pois as definições de sua estrutura, considerações e métodos ainda não são tão claros, bem como a sua preocupação sempre esteve mais direcionada à ampliação das habilidades da ciência da computação do que com a própria definição de seus limites (LUGER, 2013, p. 02). A mente humana foi o espelho que refletiu a mente computacional no sentido de que a inteligência daquela fosse capaz de ser "transportada" para esta. Nesse sentido, atualmente há o sentimento de temor no que se refere à substituição dos seres humanos pelas inteligências artificiais em vários sentidos, desde o trabalho até as relações afetivas. Aqui, o importante é verificar que as IAs não possuem a Sensibilidade Humana, estando despida de sentimentos nutridos pelo próprio ser humano. Mesmo que tal tecnologia seja capaz de ler, interpretar e processar as emoções experimentadas pelos humanos, não é possível desenvolvê-la como um atributo inerente de sua "essência computacional". Atualmente há uma divisão nítida entre o mundo físico e o virtual, muito embora ambos estejam intimamente conectados e são considerados interdependentes. Todavia, tal divisão se consiste numa linha tênue entre os benefícios e as adversidades que podem ser produzidas pelos avanços dessas tecnologias que cada vez mais mitigam as fronteiras que separam esses dois mundos. Tais riscos residem, primordialmente, nas evoluções tecnológicas a todo custo sem se pautarem na observância dos Direitos Humanos, extrapolando limites e violando os direitos e valores inerentes ao Homem. Kai-fu Lee (2019, s/n) dividiu a Inteligência Artificial em quatro ondas. As duas primeiras consistem-se em IA da internet e dos negócios que já se encontram postos em nossa realidade, remodelando a percepção do ambiente digital e financeiro, permitindo a substituição de consultores por algoritmos. Para o autor, a terceira onda - da IA da percepção - cumpre o papel de digitalizar o mundo físico, de forma a reconhecer os rostos, compreender os pedidos e enxergar o mundo ao redor (fato que está ocorrendo e mitigando as fronteiras entre o mundo digital e físico); enquanto a quarta onda, a IA autônoma, será demarcada pelas tecnologias autônomas que tendem a ganhar espaço nas fábricas e serão capazes de transformar tudo (LEE, 2019, s/n). A influência da inteligência artificial nos direitos humanos Com o advento das tecnologias, diversos direitos humanos e direitos da personalidade vêm adquirindo novas percepções acerca da atual realidade movimentada pelos algoritmos, dados pessoais e inteligências artificiais com capacidades decisórias e, também, discriminatórias. O fortalecimento desses direitos em tempos digitais vem se consistindo numa necessidade e desafio para a esfera jurídica. Portugal, por exemplo, criou a Carta Portuguesa de Direitos Humanos na Era Digital, a lei 27/2021, de 17 de maio de 2021. Está expressamente previsto no artigo 9º intitulado "uso da inteligência artificial e robôs" que: 1 - A utilização da inteligência artificial deve ser orientada pelo respeito dos direitos fundamentais, garantindo um justo equilíbrio entre os princípios da explicabilidade, da segurança, da transparência e da responsabilidade, que atenda às circunstâncias de cada caso concreto e estabeleça processos destinados a evitar quaisquer preconceitos e formas de discriminação (PORTUGAL, 2021). O desenvolvimento tecnológico, até certo tempo, podia ter seus efeitos observados a partir do vetor quantitativo, no sentido de viabilizar a extensão de vetores da atuação de atividades para além da probabilidade humana (DONEDA et al., 2018, p. 02). No entanto, atualmente, o advento das tecnologias de IA, "[...] proporcionou efeitos que, muitas vezes, não podem mais ser compreendidos em termos meramente quantitativos, e que implicam uma mudança na subjetividade das relações entre as pessoas e a tecnologia" (DONEDA et al., 2018, p. 02). Para além do quantitativo passou-se a integrar o qualitativo no sentido de que as atividades desempenhadas pelas tecnologias poderiam deter habilidades humanas. Segundo Doneda et al. (2018, p. 02): Essas novas tecnologias possibilitam a automatização da tomada de decisão em diversas situações complexas, executando tarefas que estávamos habituados a considerar como prerrogativas humanas, derivadas da inteligência - a ponto de que diversas manifestações dessas tecnologias foram denominadas como realizações de uma "inteligência artificial". Assim, os computadores passaram a não ser vistos somente como dispositivos destinados a fazer cálculos, sistematizações ou classificações, porém a deter, em algum grau, algo passível de ser comparado às ações humanas autônomas (DONEDA et al., 2018, p. 02). As transformações provocadas pelas tecnologias movidas por interesses econômicos e comerciais, cada vez mais "invadem" não somente a rotina, mas ingressam no campo dos direitos humanos e tem provocado uma série de discussões jurídicas. O armazenamento de um considerável aglomerado de informações pessoais nos servidores, somado à rápida velocidade de transmissão e circulação destas, proporcionaram vulnerabilidade do indivíduo em terras das tecnologias, cujo solo é fértil para a produção de avanços tecnológicos e humanos, mas também para a mitigação dos direitos humanos e da personalidade.   Sobretudo, a efetiva problemática a ser enfrentada reside na necessidade de recontextualizar os Direitos Humanos à luz das evoluções provocadas pelas tecnologias, não os permitindo beirar ao meio termo entre uma visão do mundo analógico e do digital, quando há violações desses direitos fincadas exclusivamente no ciberespaço. O tratamento direcionado a essas situações passam para além da visão interpretativa dos Direitos Humanos escritos antes do advento tecnológico e de informação hoje presenciados, e vão de encontro com a necessidade de criação de normas direcionadas especificamente para as situações que invocam violações aos direitos humanos ocasionados pelas tecnologias. O intuito dessa criação é evitar interpretações dúbias e aplicações equivocadas ou insuficientes para proteger os direitos humanos em sua essência. Como exemplo já supracitado, Portugal aderiu uma lei que protege os direitos humanos na Era Digital1. Para contextualizar o cenário proposto pelo ambiente digital, apresenta-se como exemplo uma das maiores redes sociais, o Facebook, onde "no empenho de monetizar sua gigantesca base de dados, anuncia que seus algoritmos de IA são capazes de mapear a personalidade dos usuários com 80% de precisão baseados nos click e likes [...]" (KAUFMAN, 2019). Percebe-se, diante disso, que a privacidade ganha novas nuances e compreensões em tempos de tecnologias. Cada vez mais os dados pessoais que são considerados uma extensão de seu titular, vem sendo objeto de dominação, haja vista que, como demonstrado, o mapeamento de personalidade feito por algoritmos de IA vem ocorrendo, e isso pode ocasionar uma invasão ao templo sagrado da existência humana, a privacidade, ferindo outros Direitos Humanos. E, acaso, há de se cogitar uma vida pautada na dignidade da pessoa humana diante da inexistência da privacidade? Kaufman (2019) segue alertando que "de posse desse suposto "conhecimento" sobre seus usuários, a rede social vende aos anunciantes uma potencial comunicação hiper-segmentada/personalizada de seus produtos/serviços".  É possível a dignidade da pessoa humana digital? A dignidade da pessoa humana compõe o núcleo axiológico das constituições contemporâneas2, muito embora seja de difícil conceituação. Segundo Sarlet (2011, p. 330) "[...] uma conceituação clara do que efetivamente seja esta dignidade, seja na perspectiva filosófica, seja para efeitos da definição do seu âmbito de proteção como norma jurídica fundamental, se revela no mínimo difícil de ser obtida [...]". Para o autor (SARLET, 2011, p. 330), essa dificuldade emana "[...] da circunstância de que se cuida de conceito de contornos vagos e imprecisos, caracterizado por sua "ambiguidade e porosidade", assim como por sua natureza necessariamente polissêmica [...]". O fato é que os direitos fundamentais previstos pelas constituições, para alcançarem a sua devida efetividade, devem ser revestidos pela roupagem da dignidade da pessoa humana. Nesse caso, com o fito de vislumbrar a importância da dignidade humana, comparam-se os direitos fundamentais como um corpo e a dignidade humana, a alma deste corpo. Por sua vez, o corpo sem alma não tem vida. Aqui, a vida é a efetividade desses direitos. E isso é imutável, mesmo o tempo com suas inovações e transformações não possuem o poder de alterar essa essência umbilical da existência humana. Todavia, a existência humana ultrapassou as barreiras físicas e se transpôs ao virtual, criando uma segunda espécie de existência humana - que advém da criação do Homem - e está intimamente interligada à primeira. Nesse cenário, a dignidade da pessoa humana física passa a emanar a dignidade da pessoa humana digital, devendo ser reconhecida como tal considerando que a natureza de ambas é distinta, muito embora estejam conectadas. Para cada uma há um mundo diverso, conectado e que irradiam efeitos entre si. Reconhecer a dignidade da pessoa humana digital é reforçar a noção de dignidade no mundo digital, amoldando-a a necessidade deste. A dignidade da pessoa humana digital passa a estar voltada ao ser humano em suas relações em âmbito digital, o qual se insere num ambiente onde inexistem pessoas físicas no sentido material, mas se tem uma extensão da personificação das pessoas constituídas pelos seus dados pessoais, interações e informações em redes. Têm-se, então, as pessoas digitais. É perceptível que há uma significativa distinção entre as vidas real e a virtual, cada qual exige certa dedicação, inclusive impacta nos relacionamentos, consumos e na forma como são obtidas as informações. O ambiente digital proporciona contato instantâneo e facilitado, mas também afasta o contato físico. A privacidade em tempos de internet ganha novas percepções, e a vida digital se torna mais frágil e exposta. Há uma série de ocorrências dentro do ambiente digital capaz de violar uma série de direitos fundamentais que até antes da existência das tecnologias e Internet das Coisas não existia, como os cibercrimes. Neste cenário, a própria dignidade da pessoa humana adquire maior elasticidade e passa da pessoa humana para a pessoa digital. Importante salientar que ambas se complementam, mas não se confundem. Esse raciocínio se dá por meio da lógica de que o humano reside no mundo físico, ao passo que o mundo digital permitiu a interação virtual humana - não o pessoal - onde os atos praticados neste, refletem naquele. Sob a ótica acima abordada, convém trazer a baila o exemplo das inteligências: a inteligência humana é algo da Natureza humana, a qual compõe a essência do ser humano que é dotado de consciência e sentimentos. Ou seja, nasce com ele. Já a Inteligência Artificial é criação do ser humano e tem como premissa a atuação espelhada na inteligência humana para cumprir certos papeis que lhe é incumbida, conforme a necessidade de sua criação.  No mundo digital, os algoritmos passam a exercer um papel fundamental no controle das decisões humanas, interferindo, por vezes, no livre desenvolvimento da pessoa natural sob influências algorítmicas. Sob esse viés, com o fito de vislumbrar o atual cenário perpetuado pelas tecnologias, importante trazer a baila a algocracia, que segundo Danaher (s/a, tradução nossa) "[...] eu uso o termo "algocracia" para descrever um tipo particular de sistema de governança, um que é organizado e estruturado com base em algoritmos programados por computador"3. Para o referido autor (DANAHER, s/a, tradução nossa) "[...] o crescimento recente dos sistemas algocráticos pode dizer que levanta duas questões morais e políticas: a preocupação com a ocultação e a preocupação com a opacidade". A primeira se preocupa "[...] com a maneira como os nossos dados são coletados e usados por esses sistemas. As pessoas estão preocupadas que isso seja feito de uma forma velada e oculta, sem o consentimento dos titulares".4 A segunda trata-se de "[...] um preocupação com a base intelectual e racional para esses sistemas algocráticos. Há uma preocupação de que esses sistemas funcionem de maneira inacessível ou opaca para a razão e compreensão humana".5 As preocupações atuais propostas pelas tecnologias e Internet das Coisas têm ultrapassado as fronteiras do mundo físico atingindo o campo virtual. O Direito, por sua vez, se reveste como instrumento para regular as condutas humanas nesse hodierno cenário. Em tempos onde o ser humano vive em dois mundos distintos, porém conexos entre si, incube ao Direito ditar regras que se amoldam a ambos. A dignidade da pessoa humana deve ser o pilar do ordenamento jurídico e das democracias, inclusive da democracia digital, onde as transformações sociais estão em constante modificação em decorrência das inovações tecnológicas. Os ambientes digitais vislumbram alterações na vida e no comportamento humano. É nesse sentido que a dignidade da pessoa humana deve ser observada, também, sob a ótica da pessoa digital. Conclusão Referências bibliográficas DANAHER, John. The Threat of Algocracy: reality, resistance and accommodation. s/a. Disponível aqui. Acesso em: 25 de jul. de 2021. DONEDA, Danilo Cesar Maganhoto et al. Considerações iniciais sobre inteligência artificial, ética e autonomia pessoal. Pensar Revista de Ciências Jurídicas. Fortaleza, v. 23, n. 4, p. 1-17, out/dez., 2018. Disponível aqui. Acesso em: 23 de jul. de 2021. FRANCO, Cristiano Roberto. Inteligência Artificial. Londrina: Editora e Distribuidora Educacional S.A., 2014. KAUFMAN, Dora. Os algoritmos de inteligência artificial estão afetando nossa capacidade de decisão? Época Negócios. Publicado em: 06 de set. de 2019. Disponível aqui. Acesso em: 25 de jul. de 2021.  LEE, Kai-fu. Inteligência Artificial: como os robôs estão mundo o mundo, a forma como amamos, nos relacionamentos, trabalhamos e vivemos [recurso eletrônico]. Tradução Marcelo Barbão. 1. ed. Rio de Janeiro: Globo Livros, 2019. LUGER, George F. Inteligência Artificial. Tradução Daniel Vieira. Revisão Técnica Andréa Iabrudi Tavares. 6. ed. São Paulo: Pearson Education do Brasil, 2013. MEDEIROS, Luciano Frontino de. Inteligência artificial aplicada: uma abordagem introdutória [livro eletrônico]. 1. ed. Curitiba: InterSaberes, 2018. PORTUGAL. Carta Portuguesa de Direitos Humanos na Era Digital. Lei n.º 27/2021. Diário da República Eletrónico. Disponível aqui. Acesso em: 23 de jul. de 2021.  PORTUGAL. República Portuguesa. Direção-Geral da Educação. Carta Portuguesa de Direitos Humanos na Era Digital. Disponível aqui. Acesso em: 25 de jul. de 2021. RUSSEL, Stuart J.; NORVIG, Peter. Inteligência Artificial [livro eletrônico]. Tradução Regina Célia Simille. Rio de Janeiro: Elsevier, 2013. SARLET, Ingo Wolfgang. Dignidade da pessoa humana e direitos fundamentais na Constituição Federal de 1988. 4. ed., rev. e atual. Porto Alegre: Editora Livraria do Advogado, 2006. SARLET, Ingo Wolfgang. Dignidade humana (no direito constitucional). Dicionário de princípios jurídicos. Organizadores Ricardo Lobo Torres, Eduardo Takemi Kataoka, Flavio Galdino. Supervisora Silvia Faber Torres. Rio de Janeiro: Elsevier, 2011. __________ 1 "Foi publicada em Diário da República a lei 27/2021, de 17 de maio, que aprova a Carta Portuguesa de Direitos Humanos na Era Digital. No documento que prevê os direitos, liberdades e garantias dos cidadãos no ciberespaço,  são enunciados vários direitos como o direito: "ao esquecimento"; à proteção contra geolocalização abusiva; ao desenvolvimento de competências digitais ou ainda o direito de reunião, manifestação, associação e participação em ambiente digital.  A lei determina que o Estado deve assegurar o cumprimento, em Portugal, do Plano Europeu de Ação contra a Desinformação para proteger a sociedade contra pessoas que produzam, reproduzam e difundam narrativas desse tipo. Está previsto que todo o cidadão tem o direito a apresentar queixas à Entidade Reguladora para a Comunicação Social (ERC) em casos de desinformação. O documento determina, ainda, o "direito ao esquecimento", ou seja, todos têm o direito ao apagamento de dados pessoais que lhes digam respeito, nos termos da lei europeia e nacional, podendo, para tal, solicitar o apoio do Estado". PORTUGAL. República Portuguesa. Direção-Geral da Educação. Carta Portuguesa de Direitos Humanos na Era Digital. Disponível aqui. Acesso em: 25 de jul. de 2021. 2 "Por sua vez, passando a centrar a nossa atenção na dignidade da pessoa humana, desde logo que há de se destacar que a íntima e, por assim dizer, indissociável - embora altamente complexa diversificada - vinculação entre a dignidade da pessoa humana e os direitos fundamentais já constitui, por certo, um dos postulados nos quais se assenta o direito constitucional contemporâneo". SARLET, Ingo Wolfgang. Dignidade da pessoa humana e direitos fundamentais na Constituição Federal de 1988. 4. ed., rev. e atual. Porto Alegre: Editora Livraria do Advogado, 2006, p. 25-26. 3 "I use the term 'algocracy' to describe a particular kind of governance system, one which is organised and structured on the basis of computer-programmed algorithms". DANAHER, John. The Threat of Algocracy: reality, resistance and accommodation. s/a. Disponível aqui. Acesso em: 25 de jul. de 2021. 4 "Hiddenness Concern: This is the concern about the manner in which our data is collected and used by these systems. People are concerned that this is done in a covert and hidden manner, without the consent of those whose data it is". DANAHER, John. The Threat of Algocracy: reality, resistance and accommodation. s/a. Disponível aqui. Acesso em: 25 de jul. de 2021. 5 "Opacity Concern: This is a concern about the intellectual and rational basis for these algocratic systems. There is a worry that these systems work in ways that are inaccessible or opaque to human reason and understanding". DANAHER, John. The Threat of Algocracy: reality, resistance and accommodation. s/a. Disponível aqui. Acesso em: 25 de jul. de 2021. 
Nesta terça 3 de fevereiro de 2021, Sergio Moro pediu ao STF que julgue em plenário a decisão do ministro Lewandowski que retirou o sigilo do material apreendido na Operação Spoofing1. No farto material (cerca de 7 TERABYTES, segundo a PF), constam as supostas conversas do ex-juiz Federal com Deltan Dallagnol por meio do aplicativo Telegram durante a Lava Jato. Uma das alegações de Moro é que os laudos emanados pelo Instituto Nacional de Criminalística não comprovam a autenticidade das conversas e que as mesmas podem ter sido manipuladas antes da apreensão e análise feita pelos agentes e peritos da Polícia Federal.  Em verdade, o relatório 145286910 de 18 de dezembro de 2019 da Polícia Federal não faz menção à autenticidade das conversas, focando apenas em demonstrar que houve a invasão das contas das vítimas e que foi efetuada, pelos hackers, cópia das mensagens trocadas pelas mesmas a partir da nuvem do Telegram, configurando crimes como organização criminosa e invasão de dispositivo informático2.   É relevante rememorar que tudo deixa vestígio no mundo digital e que a Polícia Federal Brasileira possui, desde 2006, um Instituto Nacional de Criminalística considerado um dos mais modernos do mundo. O INC possui um manual de instruções e procedimentos técnicos para garantir a lisura da coleta, preservação, guarda e disponibilização de evidências digitais. Frise-se que um dos objetivos principais da perícia computacional é comprovar se arquivos, vídeos, fotos e demais conteúdos apreendidos não foram adulterados, e isso é feito por meio de técnicas e ferramentas apropriadadas para garantir a inquestionabilidade da cadeia de custódia.  Questionar o trabalho dos peritos oficiais é questionar o trabalho da própria Polícia Federal, considerada como instuição mais confiável do Brasil segundo pesquisa recente do Instituto de Democracia3, além de ferir diretamente a fé-pública, esta consubstanciada como a presunção de veracidade prevista em lei dos atos emanados por agentes públicos, como laudos e relatórios produzidos por peritos oficiais das polícias. __________ 1 Moro quer tirar de Lewandowski ação sobre mensagens entre procuradores. 2 Relatório. 3 Polícia Federal é a instituição mais confiável entre os brasileiros, segundo pesquisa.
A OAB não está sujeita a controle da Administração, nem a qualquer das suas partes está vinculada. Não há ordem de relação ou dependência entre a OAB e qualquer órgão público. A rigor, essa lei não se aplica a OAB.  Em um dado momento Aras pergunta 'quem controla o controlador? Quem fiscaliza o fiscal?", indagou.... . E o STF responde, cabe a OAB (ADIn 3.026/DF).  A Ordem é uma categoria ímpar no elenco das personalidades jurídicas do direito brasileiro, tem uma posição diferenciada dentro do Sistema Constitucional (CF - art. 133), além de, em razão de sua autonomia e função. Assim, a Ordem dos Advogados do Brasil permanece absolutamente desatrelada do Poder Público e cabe a ela  "fiscalizar" com toda autonomia, com toda independência, o Poder Público, tal como faz a imprensa" disse o Supremo. Diante da definição da natureza jurídica da OAB, pergunto, é possível que esteja sujeita a ação fiscalizadora da ANPD?  Pelos mesmos fundamentos  constitucionais que vedaram a pretensão do TCU de fiscalizar a OAB, pelos mesmos motivos, a OABSP e os escritórios de Advocacia não estão sujeitos a Lei. Cabe a OAB criar um estatuto próprio relacionado a privacidade e proteção de dados, que garanta segurança na relação sensível do sigilo cliente e Advogada (o).  Não é possível que agentes públicos da Autoridade Nacional de Proteção de Dados venham a  invadir bancas jurídicas para medir o seu grau de consonância com a lei. E mais, poderão ter acesso a  informações da relação cliente e Advogado? A OAB participa institucionalmente da tomada de uma série de decisões por ordem constitucional,  essas "características peculiares diferenciam muito [a OAB] das demais entidades de fiscalização profissional. A OAB tem uma relevância histórica única, tem funções institucionais relevantes de modo a situá-la entre instituições do aparelhamento estatal. O tratamento de dados pessoais previsto na lei , no que tange a segurança do Estado, LGPD, Artigo 4°, inciso III, "c"  parágrafo 4°., será regido por legislação específica, que deverá prever medidas proporcionais e estritamente necessárias ao atendimento do interesse público, observados o devido processo legal, os princípios gerais de proteção e os direitos do titular previstos nesta Lei. Cabe a OAB criar normas internas e procedimentos que tenha alinhamento com os princípios gerais de proteção de dados. O Estatuto da Advocacia não qualifica a OAB como autarquia, diz que ela é serviço público, dotada de personalidade jurídica e forma federativa. A LGPD diz que cabe a adequação a Lei, por parte de pessoas físicas que tratem dados com fins econômicos, pessoa jurídica de direito público e privado. A OAB não se encaixa plenamente em nenhuma destas categorias segundo o STF. Nossa profissão e seu exercício é sui generis , sua gênese é singular. Além disso, a entidade tem prerrogativas somente aplicáveis a entes públicos, como imunidade tributária e sujeição a competência da Justiça Federal, embora não se enquadre, segundo o entendimento do STF, em nenhuma hipótese do artigo 109 da Constituição. O exercício da Advocacia garante ao advogado a inviolabilidade de seu escritório, instrumentos de trabalho, e correspondência escrita,  documentos digitais e acessos de telefond e telemática, desde que relativas ao exercício da profissão. A Ordem dos Advogados do Brasil tem legitimidade para intervir em processos contra profissionais da área. STF. MS 35.117.  A consolidação do Estado Democrático de Direito e a efetivação do princípio republicano estão intimamente ligadas à noção de accountability pública. No desenho institucional brasileiro, a OAB exerce papel fundamental de vigilante sobre o exercício do poder estatal e de defesa da Constituição e do Estado Democrático de Direito. Por essa razão, deve criar normas e diretrizes a serem utilizados pela OAB e escritórios de Advocacia. Com a publicação deste Estatuto da Privacidade para a Advocacia  a OAB apresenta uma gestão transparente e aberta ao tecido social e a consciência ética coletiva. O exercício irregular da profissão e a quebra de sigilo, manutenção de informações e sigilo da relação do Advogado e seu cliente deve ser fiscalizada pela OAB, sem prejuízo dos casos específicos apreciados pelos Tribunais.  Pode o poder público fiscalizar a forma como a OAB direciona seus recursos? Caberia ao TCU vetar contas, condenar contas que na sua visão não estejam em consonância com  as diretrizes da entidade?  De igual forma, no caso do TCU, teremos o poder público, julgando e interferindo na relação cliente Advogado.  Ainda que se entenda que cabe a fiscalização da ANPD, a mesma deve agir, respeitando as peculiaridades específicas da Advocacia.  Cabe a OAB promover uma Consulta a ANPD, para prever o que virá.  É o meu posicionamento, respeitando sempre as opiniões divergentes.
quinta-feira, 21 de janeiro de 2021

Deontologia, WhatsApp e Fake News

Estudo detecta ação de empresas em campanhas de desinformação. Gosto muito deste tema, porque mostra como a nossa opinião é manipulada constantemente. Ética e pós-verdade foi discutido em Oxford em 2006. Esse novo estudo traz novos números. A quantidade de países onde esse fenômeno ocorre é 92% superior à registrada em 2019 e mais que o dobro do que o contabilizado em 2018. Os autores do estudo integram um grupo da universidade britânica que desde 2016 mapeia a ação global de "tropas virtuais" ligadas a atores políticos que disseminam a prática de propaganda computacional na internet - isto é, o uso de algoritmos, automação e contas operadas por humanos para espalhar informações e propagandas enganosas nas redes sociais. Hoje um aluno me perguntou se era recomendável deletar do WhatsApp, fotos e mensagens íntimas, antes da entrada em vigor das novas regras de privacidade. Argumenta que para ele não ficou claro quais seriam as informações compartilhadas com o Facebook e se a troca de informações acarreta um risco a privacidade. A arquitetura do compartilhamento está obscura. Estava o aluno preocupado  com a sua privacidade a e de sua família, amigos e clientes. No dia 15, a partir das 19h convidei dois especialistas para uma reunião da Comissão de Direito Digital da OAB/SP Butantã.  A divulgação de que o WhatsApp passou a obrigar seus usuários a compartilhar dados pessoais com o Facebook - empresa que é dona do serviço de mensagens desde 2014 - levou milhões de pessoas no mundo a buscar outras alternativas de aplicativos de conversas, como Signal e Telegram, nos últimos dias. Por trás das alterações está o lançamento de um novo serviço pelo Facebook para gerenciar conversas de empresas com consumidores pelo WhatsApp, mensagens que têm sua transmissão criptografadas, mas cuja privacidade não tem proteção absoluta como em uma conversa privada com amigos. Todos nós estamos sendo monitorados todo o tempo. Chegou a era do fim da privacidade. Muitas pessoas estão saindo do aplicativo e buscando outras opções para troca de mensagens. O que a teoria moral  pode  orientar nossas escolhas sobre o que deve ser feito? 
Sobre as fake news, mencionei que segundo estudos do MIT, o detector de notícias falsas não poderia diferenciar o texto falso do texto autêntico, mesmo se ambos fossem gerados por máquinas ou IA. Na pós-verdade é falso o que tomamos como verdadeiro. O falso se torna verdade na sociedade espetáculo. As fake news se espalham 70% mais rápido do que fatos verdadeiros. Vis a vis, a informação falsa alimenta a sociedade espetáculo e parece mais saborosa. O conteúdo falso é promovido porque atrai audiência e, por consequência, dinheiro, poder e publicidade. O Conselho Europeu de Pesquisa revela que a cada quatro americanos um visitou ou leu um artigo de notícias falsas. Fato revelado durante a campanha presidencial de 2016. A ética deu lugar à ânsia pela derrota de adversários políticos. Pós-verdade é aquilo que ansiamos por acreditar, somos hipnotizados pela paixão da sociedade espetáculo. Nesta direção, tornamos real toda a sujeira. Os geradores automáticos de texto geridos pela IA são desafiados por pesquisadores do MIT que desenvolveram detectores automáticos que podem em tese, identificar o texto falso gerado por cibersistemas, mas nada funcionou como esperado, pois o detector acha que o texto gerado pela máquina é falso, e ele também pode ser forçado a condenar falsamente o uso legítimo de uma geração de informação. Como diria Obama, cuidado com o ponto cego, ele maximiza a desordem, pactua com o caos e corrompe a Justiça. Toda perspectiva sobre o ecossistema de informação pode ser corrompida. Pesquisadores concluíram que ao deter duas fake news, será dada força à terceira lançada simultaneamente. Zimdars e McLeod nos ajudam a entender como chegamos a esse momento, o que está em jogo e como podemos avançar. É uma leitura obrigatória para qualquer pessoa interessada em enfrentar os desafios do ambiente de dados, informações globais, em nuvem e na rede. A matrix está contaminada. Nos últimos meses, com a CPI fake show, temos vivido uma intensa manifestação por parte da população em protestos "Brasil sem rumo". Há os que digam que a mobilização não é por conta do valor em si, mas pelos direitos que têm sido cerceados. A questão é que a internet tem contribuído em muito para a força, para essa mobilização, inclusive serve aqueles que atacam o Estado de Direito, a República, a fraternidade e a Democracia. Quem não se sente motivado a aderir e contribuir com o protesto de alguma forma? ... ainda que seja, compartilhando uma foto nas redes sociais, divulgando uma notícia ou postando comentários sobre recentes fatos. Em Brasília frases como "o povo brasileiro alterou seu status de 'deitado eternamente em berço esplêndido' para 'verás que um filho teu não foge a luta'"e outras como "enquanto você assiste TV eu mudo o Brasil por você" ou mesmo postagens agendando local, data e hora para manifestações. A questão é evidente: nos anos 90, quando a internet surgiu no nosso cotidiano, ela era vista por muitos pensadores como um ambiente livre, com uma circulação de informação que iria naturalmente libertar o mundo de uma série de amarras sociais. Hodiernamente, a força da internet é inegável, mas as preocupações em torno dela mudaram em pouco tempo. Atualmente, sustenta a ideologia libertária da internet no plano teórico, mas, junto com isso, também temos que buscar formas práticas de acesso universal, tais como computadores, cabos, satélites, linguagens e preços que promovam a inclusão de grandes fatias da população mundial na rede. E com relação aos idosos e aos excluídos, como garantir que a internet cumpra sua profecia democrática? A Internet não é terra sem lei e a liberdade de expressão tem seu limite na dignidade da pessoa humana. O Twitter criou filtros, o projeto de lei das fake news trata da criação de um conselho que vai dizer o que pode ou não pode ser dito. A mobilização social que se origina na internet é um tema que exige cuidados porque se presta rapidamente a ser transformado em uma cantilena baixa do estilo "vida digital versus vida real"; como se hoje as atividades em dispositivos e mídias digitais já não fossem parte do que costumamos chamar de "vida real". Grande parte do que conhecemos como ativismo social hoje, tem a ver com ações de grande impacto na mídia. É um subterfúgio criado por grupos que possuem ideais fomentadores de um objetivo. Quer queiram quer não, podemos considerar esses grupos avós do hoje, o tão comentado marketing de guerrilha. Este nasceu da necessidade de dar o máximo de exposição as causas que tinham pouca verba à compra de espaço formal em veículos de massa. O problema é achar que todo e qualquer ato que traga mudança social precisem ter cara de espetáculo. Invadir as ruas (ou a rede) com slogans inteligentes, imagens bem sacadas e ações inusitadas que gerem "factoides" dissemináveis. Não pode ser confundido com a essência da Democracia e da mobilização social. Afinal, quantas pessoas não estão por aí, sem nenhuma conexão com mídia, fazendo trabalhos incríveis? Será que todas elas precisam mesmo de uma grande exposição para fazer o seu trabalho? Provavelmente não. A necessidade de exposição exacerbada é uma invenção da nossa era e não precisa ser seguida cegamente. Mas uma coisa é certa: Hoje, nossas mobilizações sociais têm início nas redes sociais e são a forma mais simples, rápida e "gratuita" de interagir e de expressar opiniões, é o fenômeno do "virtual para o real", o qual ainda não sabemos todas as futuras proporções, muito embora, não possamos ignorar a força e a influência dessas novas experiências. A onda que está por vir é muito pior do que imaginamos. Onde está o ponto cego?  Referências DAVID, Ivana; JORGES Higor Vinicius Nogueira. Tecnologia, verificação de fatos e enfrentamento das notícias falsas na internet. [et al]. BEZERRA, Clayton da Silva Bezerra; AGNOLETTO, Giovani Celso. Combate às Fake News: doutrina e prática. 1 ed. Vol 10. São Paulo: Editora Posteridade, 2019. p. 103-106. PEREIRA, Tania Fernanda Prado. Crimes Eleitorais e as Fake News. [et al]. BEZERRA, Clayton da Silva Bezerra; AGNOLETTO, Giovani Celso. Combate às Fake News: doutrina e prática. 1 ed. Vol 10. São Paulo: Editora Posteridade, 2019. p. 165-169. MCLEOD, Kembrew; ZIMDARS, Melissa. Understanding Media and Misinformation in the Digital Age. 2020. [Kindle Edition].
Texto de autoria de Coriolano Aurélio de Almeida Camargo Santos Fidelidade e amor não se cobra do outro. O Tinder testa chamada de vídeo no Brasil e em outros países. Tinder é um aplicativo de relacionamento para Android e iPhone (iOS), que combina pessoas a partir de um "match" - nome dado pela plataforma para quando ocorrer interesse mútuo entre dois usuários. O Tinder permite conhecer pessoas de todos os locais do mundo para possíveis novas paqueras ou amizades1.   O Tinder nasceu em 2012 com o objetivo de ser algo como um "encontro às cegas". Pouco tempo depois de sua criação, em 2013, já conquistava destaque no nicho de apps de relacionamento. Em 2014, a plataforma já somava mais de um bilhão de "clicks" por dia.   De acordo com a empresa, já foram computados mais de 9 bilhões de "matches" na história do Tinder, com uma média de 1,4 bilhões de interações (likes e dislikes) por dia.   Na esfera judicial no Brasil, terceiro país no mundo com o maior número de usuários na plataforma, ele também se tornou o preferido para relacionamentos extraconjugais gerando separações, brigas, rompimentos e divórcio. Agora com a pandemia o número de usuários aumentou muito e por consequência caso a que se tornam histórias policiais e disputas judiciais. Pessoas expõe fotos íntimas e muitas vezes são chantageadas. A famossa "sextorsion" traduzido do inglês-Sextorção é um tipo de pornografia de vingança que emprega formas não-físicas de coerção para extorquir favores sexuais e materiais da vítima ou alguma vantagem indevida.   Uma pesquisa realizada pelo portal Ashley Madison, especializado em encontros fora do casamento revelou que aqueles que não traíram na primeira relação alegam que esta foi a causa do fracasso do relacionamento. De acordo com dados do site de traição, milhares de casais adotaram a "pulada de cerca" como solução para manter o casamento intacto2.   Entre os usuários do portal, 54% dos homens e 48% das mulheres dizem que a presença de um amante melhora o relacionamento com o parceiro.   Curiosamente, 76% dos homens e 84% das mulheres alegaram fidelidade no primeiro casamento e apontam esta como parte do fracasso da relação. Foram entrevistados para o levantamento 11.632 usuários dos 46 países em que o Ashley Madison atua. (2)   Com a evolução destes Portais surgiram os "especialistas youtubers" experts em relacionamento, prometem auxiliar a prática do ato com "segurança".   Aqueles que traem têm aquela sensação de que não são traídos. Pesquisas revelam que atualmente é um fato, a mulher se libertou e trai mais que os homens.   De acordo com uma pesquisa do Ashley Madison, as mulheres começam seus affaires mais rapidamente do que os homens. Dezesseis por cento das mulheres levam menos de um mês para seguir adiante com um caso físico, enquanto apenas 11% dos homens persistem em sua busca no mesmo período3. O portal de traição responsável pelo levantamento trata-se da primeira comunidade feita especialmente para pessoas casadas que desejam encontrar parceiros para viver uma aventura extraconjugal totalmente sigilosa. A pandemia aumentou a busca por esse tipo de aplicativo ou portal.   Outro muito famoso no Brasil é o "extraconjugais". Na pandemia o número de usuários quase triplicou. O motivo é o estranhamento e insatisfações, dores e aflições com a presença constante do parceiro oficial.   Muitas pessoas ainda têm reclamado que com a quarentena ficaram quase malucos de saudade do parceiro ou parceira extraoficial.   Somos complexos e as informações que trago estão longe de querer apontar o certo ou errado, cada um toca sua vida como quer. O problema é a dor causada no parceiro ou parceira e as consequências de toda a ordem podem dar ensejo à uma reparação por danos morais. Por isso a mediação (on-line) , conciliação e as técnicas para a melhor solução dos conflitos. Essa semana participei de um Caso de mediação pelo zoom, sendo que nesta primeira audiência é feita somente o reestabelecimento do diálogo com as partes e uma melhoria da comunicação entre os advogados. A Câmara informa ao juiz se as partes tem interesse da continuidade da mediação ou se continuam o litígio.   No universo da pandemia e da pós-pandemia, uso da inteligência artificial, jornadas digitais mais objetivas e fluidas e métodos de otimização serão vitais para o exercício do home office e a real necessidade de tarefas presenciais.   Esse conjunto gera jornadas mais ágeis e uma gama enorme de pessoas desempregadas ou sem função. O relacionamento virtual passa a ser uma opção para vencer a solidão e ter alguém para "desabafar", alguém que te ouça. O Tinder passa ser um foco de desatenção aquele que deveria estar trabalhando. Trabalho em casa exige ainda mais disciplina.   O Bradesco já havia desenvolvido essa dinâmica híbrida de trabalho nos últimos anos. Eu me utilizo dela desde 1988 quando iniciei minhas funções como diretor jurídico Executivo da Rolamentos FAG, uma CIA na época completava 118 anos. Vencemos o tradicional e optamos de forma visionária para o que realmente funcionava.Tudo exige força, conduta ética em relação há administração do tempo e muito investimento em treinamento. Aqueles que estavam preparados saíram na frente.   Você pode estar sendo vítima de um estelionato sentimental ou de um crime cibernético. A IBM aponta que com a pandemia trouxe um aumento de 14.000% nas tentativas de spam e phishing - mensagens recevidas se WhatsApp e SMS que fingem ser bancos. "Agora sei: sou só. Eu e minha liberdade que não sei usar. Grande responsabilidade da solidão. Quem não é perdido não conhece a liberdade e não a ama"4.   A lealdade é algo raro. Se você encontrar, não troque por nada. __________ 1 Tinder testa chamada de vídeo no Brasil e em outros países. 2 Relacionamento extraconjugal é chave para um casamento de sucesso, revela portal de traição.   3 Estudo aponta que mulheres traem mais rápido do que homens: 'homens falam e mulheres agem' - iBahia. 4 Em "Água viva". Rio de Janeiro: Rocco, 2009.
terça-feira, 7 de julho de 2020

Ética e pós-verdade - A era das Fake News

Texto de autoria de Coriolano Camargo Sobre as fake news, mencionei que segundo estudos do MIT, o detector de notícias falsas não poderia diferenciar o texto falso do texto autêntico, mesmo se ambos fossem gerados por máquinas ou IA. Na pós-verdade é falso o que tomamos como verdadeiro. O falso se torna verdade na sociedade espetáculo. As fake news se espalham 70% mais rápido que fatos verdadeiros. Vis a vis, a informação falsa alimenta a sociedade espetáculo e parece mais saborosa. O conteúdo falso é promovido porque atrai audiência e, por consequência, dinheiro, poder e publicidade. O Conselho Europeu de Pesquisa revela que a cada quatro americanos um visitou ou leu um artigo de notícias falsas. Fato revelado durante a campanha presidencial de 2016. A ética deu lugar a ânsia pela derrota de adversários políticos. Pós-verdade é aquilo que ansiamos por acreditar, somos hipnotizados pela paixão da sociedade espetáculo. Nesta direção, tornamos real toda a sujeira. Os geradores automáticos de texto geridos pela IA são desafiados por pesquisadores do MIT que desenvolveram detectores automáticos que podem em tese, identificar o texto falso gerado por cibersistemas, mas nada funcionou como esperado, pois o detector acha que o texto gerado pela máquina é falso, e ele também pode ser forçado a condenar falsamente o uso legítimo de uma geração de informação. Como diria Obama, cuidado com o ponto cego, ele maximiza a desordem, pactua com o caos e corrompe da Justiça. Toda perspectiva sobre o ecossistema de informação pode ser corrompida. Pesquisadores concluíram que ao deter duas fakenews, darei força a terceira lançada simultaneamente. Zimdars e McLeod nos ajudam a entender como chegamos a esse momento, o que está em jogo e como podemos avançar. É uma leitura obrigatória para qualquer pessoa interessada em enfrentar os desafios do ambiente de dados, informações globais, em nuvem e na rede. A matrix está contaminada. Nos últimos meses, com a CPI fake show, temos vivido uma intensa manifestação por parte da população em protestos "Brasil sem rumo". Há os que digam que a mobilização não é por conta do valor em si, mas pelos direitos que têm sido cerceados. A questão é que a internet tem contribuído em muito para a força, para essa mobilização, inclusive serve aqueles que atacam o Estado de Direito, a República, a fraternidade e a Democracia. Quem não se sente motivado a aderir e contribuir com o protesto de alguma forma? ... ainda que seja, compartilhando uma foto nas redes sociais, divulgando uma notícia ou postando comentários sobre recentes fatos. Em Brasília Frases como "o povo brasileiro alterou seu status de 'deitado eternamente em berço esplêndido' para 'verás que um filho teu não foge a luta'"e outras como "enquanto você assiste TV eu mudo o Brasil por você" ou mesmo postagens agendando local, data e hora para manifestações. A questão é evidente: nos anos 90, quando a internet surgiu no nosso cotidiano, ela era vista por muitos pensadores como um ambiente livre, com uma circulação de informação que iria naturalmente libertar o mundo de uma série de amarras sociais. Hodiernamente, a força da internet é inegável, mas as preocupações em torno dela mudaram em pouco tempo. Atualmente, sustenta a ideologia libertária da internet no plano teórico, mas, junto com isso, também temos que buscar formas práticas de acesso universal, tais como computadores, cabos, satélites, linguagens e preços que promovam a inclusão de grandes fatias da população mundial na rede. E com relação aos idosos e aos excluídos, como garantir que a internet cumpra sua profecia democrática? A Internet não é terra sem lei e a liberdade de expressão tem seu limite na dignidade da pessoa humana. O Twitter criou filtros, o projeto de lei das fake news trata da criação de um conselho que vai dizer o que pode ou não pode ser dito. A mobilização social que se origina na internet é um tema que exige cuidados porque se presta rapidamente a ser transformado em uma cantilena baixa do estilo "vida digital versus vida real"; como se hoje as atividades em dispositivos e mídias digitais já não fossem parte do que costumamos chamar de "vida real". Grande parte do que conhecemos como ativismo social hoje, tem a ver com ações de grande impacto na mídia. É um subterfúgio criado por grupos que possuem ideais fomentadores de um objetivo. Quer queiram quer não, podemos considerar esses grupos avós do hoje, o tão comentado marketing de guerrilha. Este nasceu da necessidade de dar o máximo de exposição as causas que tinham pouca verba à compra de espaço formal em veículos de massa. O problema é achar que todo e qualquer ato que traga mudança social precisem ter cara de espetáculo. Invadir as ruas (ou a rede) com slogans inteligentes, imagens bem sacadas e ações inusitadas que gerem "factoides" dissemináveis. Não pode ser confundido com a essência da Democracia e da mobilização social. Afinal, quantas pessoas não estão por aí, sem nenhuma conexão com mídia, fazendo trabalhos incríveis? Será que todas elas precisam mesmo de uma grande exposição para fazer o seu trabalho? Provavelmente não. A necessidade de exposição exacerbada é uma invenção da nossa era e não precisa ser seguida cegamente. Mas uma coisa é certa: Hoje, nossas mobilizações sociais têm início nas redes sociais e são a forma mais simples, rápida e "gratuita" de interagir e de expressar opiniões, é o fenômeno do "virtual para o real", o qual ainda não sabemos todas as futuras proporções, muito embora, não possamos ignorar a força e a influência dessas novas experiências. A onda que está por vir é muito pior do que imaginamos. Onde está o ponto cego?
Vivemos nossas vidas não apenas por decisões tomadas por nós, mas também por decisões de outras pessoas, como, por exemplo, em processos seletivos para empregos, admissões para cursos de graduação e pós-graduação, empréstimos bancários, etc. E, quando nos submetemos a estas decisões de terceiros, esperamos que sejam decisões equânimes, justas. Claro que muitas vezes tais decisões são parciais e isso não é propriamente uma novidade, mas o momento é de maior reflexão. É que estamos nos deparando com aumento significativo das decisões baseadas em big data e algoritmos, o que faz com que muitos processos sejam automatizados, inclusive decisões sobre as nossas vidas. Como exemplo, podemos citar um caso julgado pela Suprema Corte de Winconsin em julho de 2016, quando Eric Loomis pretendeu a reforma de sentença de primeiro grau em razão da mesma tê-lo considerado um possível reincidente criminal, o que foi feito com o uso de um software, o COMPASS. Naquela ocasião Loomis alegou que não teve acesso às fórmulas matemáticas do software e que, por isso, não poderia se defender adequadamente. A fabricante do software, a Northpointe, Inc. mantêm sob forte sigilo seus algoritmos que processam o sistema de pontuação. Este episódio ilustra o cenário de que o uso de inteligência artificial pode ser mais eficiente e menos custoso que outras ferramentas, além de ser mais preciso que o ser humano. Não surpreende, portanto, que cada vez mais se fale em decisões algorítmicas. O grande problema é que os algoritmos são processos complexos e obscuros, já que constantemente significam um segredo de negócios. E, por serem obscuros no sentido de não serem auditáveis (não porque seja tecnicamente impossível, mas, como dissemos, por ser economicamente um dado sigiloso), podem ser tendenciosos e preconceituosos. Quanto a isso, lembramos o episódio da Microsoft que, em março de 2016 apresentou ao mundo a conta no Twitter @TayandYou, que era de sua "chatbot" (programas computacionais que simulam um humano na conversação com outras pessoas). Neste caso, o perfil ficou menos de um dia no ar, tendo sido desativado em razão das mensagens racistas, homofóbicas, misóginas que o perfil passou a fazer após interagir com humanos e absorver deles os entendimentos preconceituosos e lamentáveis expressados publicamente naquela rede social. Isso nos obriga a refletir sobre consequências do uso da inteligência artificial e das suas repercussões. Afinal, caso as coisas não saiam bem como o imaginado, de quem será a responsabilidade? Para casos envolvendo humanos, constantemente nos valemos das nossas leis para tentar sanar as injustiças, oportunidade que buscamos tratamentos equitativos. Os algoritmos que nos avaliam, deveriam, sob esta perspectiva, sujeitar-se aos critérios de avaliação justa que buscamos. Mas isso não é bem o que acontece, seja porque consideramos que eles são mais precisos do que realmente são, seja porque permitimos que sigam nos julgando obscuramente. É curioso como uma testemunha que não possa explicar seu pensamento acaba sendo alvo de desconfiança de um magistrado, mas, quando o assunto são algoritmos o sentimento parece ser um tanto diverso. Algoritmos têm sido ferramentas que diminuem o ônus sobre as instituições, inexistindo paridade entre eles e decisões humanas. É fundamental questionar, assim, se é esse o objetivo que esperamos encontrar nas inovações. Devemos automatizar pela simples automação? Ou cabe aqui uma reflexão ética sobre injustiças algorítmicas? Vamos questioná-los e enfrentar decisões supostamente injustas, ou vamos manter a ideia de que são processos livres de falhas, ignorando injustiças e outros males? Não é a primeira vez e nem será a última que vamos cobrar uma agenda para discutir algoritmos, apesar da realidade fática ter demonstrado que isso parece estar saindo do nosso alcance. Para o bem da humanidade, precisamos saber mais sobre os processos de decisões baseados em algoritmos. É um debate mais abrangente e profundo do que simplesmente entendê-los como um segredo de negócios. A questão é: conseguiremos?
Se há um tema que tem chamado a atenção das pessoas nos últimos tempos é a proteção de dados pessoais. É que no mundo atual, amplamente permeado pelo uso de tecnologias que dependem de dados, impera o vigilantismo como modelo de negócios, o que, de um lado, é excelente para um mais preciso direcionamento de produtos e serviços e, por outro, péssimo para a privacidade das pessoas. Justamente por isso tem se falado tanto na necessidade de regulamentação do uso de dados pessoais. A existência de um regulamento para a proteção de dados pessoais poderia padronizar requisitos para o seu uso proporcional ao meio pelo qual foram coletados e, ainda, para atribuir as devidas responsabilidades para os casos de abuso ou negligência. Assim, pode-se dizer que os maiores benefícios que se pode obter com a edição de uma lei geral de proteção de dados são a segurança jurídica (vez que não temos uma lei específica para isso) e o equilíbrio de poder entre os titulares dos dados e aqueles que deles se utilizam (hoje a assimetria é evidente). Neste contexto a Europa está sendo pioneira em estabelecer rígidas formas de proteção e responsabilização ao aprovar o Regulamento Geral de Proteção de Dados - RGPD - (2016/679, de 27 de abril de 2016) do Parlamento e do Conselho Europeu, que entrará em vigor a partir de maio de 2018. Podemos apontar algumas das principais mudanças, indicando-as da seguinte forma: a) Aplicabilidade extraterritorial. A jurisdição estendida do RGPD, que será aplicada para todos os que tratem dados de cidadãos europeus, independentemente da localização das empresas, é, sem dúvidas, a grande alteração. É que as normas anteriores eram ambíguas e restringiam-se ao contexto de um estabelecimento. O RGPD é muito claro ao determinar que será aplicado ao processamento de dados pessoais de cidadãos da União Europeia ainda que o tratamento de dados se dê fora do continente europeu. Além disso, empresas de outras localidades que processem dados de cidadãos europeus terão que nomear um representante na União Europeia. b) Penalidades. As empresas poderão ser multadas em até 4% do faturamento global ou até vinte milhões de euros, o que for maior. As maiores punições serão aplicadas para os casos em que as empresas não tiverem obtido o consentimento adequado dos cidadãos ou em razão da violação da privacidade pelo design. c) Consentimento. Os requisitos para a obtenção do consentimento foram detalhados, isto é, exige-se clareza, objetividade, acessibilidade e propósito/finalidade específicos. Deve ser tão fácil retirar o consentimento quanto dá-lo. d) Notificações sobre vazamentos. As notificações de vazamentos de dados serão obrigatórias sempre que resultarem em risco para os direitos e liberdades individuais, o que deverá ser feito em até 72 horas do conhecimento do vazamento. e) Direito de Acesso. É o direito de confirmar com os oficiais de cumprimento se há dados pessoais sendo tratados pela empresa, onde estão e qual o propósito. Uma cópia deles, sem qualquer custo ao solicitante, deve ser providenciada em formato digital quando requerida pelo titular dos dados. f) "Direito" ao esquecimento. Também conhecido como "apagamento de dados" é o direito do titular de ver seus dados apagados, não mais compartilhados ou processados por terceiros todas as vezes que retirar o consentimento para isso ou quando os dados não mais forem relevantes para os motivos pelos quais foram inicialmente coletados. O interesse público na disponibilidade dos dados deverá ser considerado para o atendimento destas solicitações. g) Portabilidade de dados. É o direito de portabilidade para os dados, isto é, o direito de pedir que sejam transferidos para o âmbito de controle de outro oficial de cumprimento. h) Privacidade pelo design. É o conceito de que a privacidade deve ser pensada desde a concepção inicial do sistema de tratamento de dados e não implementada depois. i) Oficiais de cumprimento / data privacy officers. Haverá requisitos internos de manutenção de registros, com obrigações mais específicas para os casos em que os oficiais de cumprimento lidarem com operações de processamento que exigem monitoramento regular e sistemático de pessoas em grande escala ou de especial categorias de dados ou dados relativos a condenações e ofensas criminais. Cremos, assim, que o RGPD vai dificultar os modelos de negócios para as empresas europeias e norte-americanas, já que a gestão dos dados deverá ser mais complexa e cara. Pensamos que será um grande desafio para as empresas apresentarem-se como confiáveis para coletar dados pessoais. As que conseguirem o consentimento terão o caminho livre para usar dados de forma bastante importante para o desenvolvimento de produtos/serviços. As que não conseguirem o consentimento das pessoas certamente levarão mais tempo para o desenvolvimento dos negócios. Talvez até não consigam seguir com suas atividades. Com o RGPD as empresas poderão ter acesso a dados compilados por outras, rivais, desde que os titulares autorizem a portabilidade, o que demandará melhores produtos/serviços e preços. Por outro lado, muitas bases de dados simplesmente não serão portáveis em face de incompatibilidade sistêmica. Será curioso ver como isso será resolvido. De qualquer forma, o incremento das medidas de segurança da informação parece ser algo com que as empresas passarão a se preocupar ainda mais. Por outro lado, algumas empresas poderão se tornar verdadeiras guardiãs de dados pessoais, quase como uma "caixa forte", já que o RGPD permite que os dados pessoais sejam encaminhados para um só local seguro. Estas empresas poderão ser novas gigantes da tecnologia ao sugerir onde e quando os clientes poderão comprar e como pagar. Talvez até negociem dados massivamente, em nome dos titulares, com empresas de telefonia ou TV a cabo. Manter os dados dos consumidores seguros está prestes a tornar-se mais caro e complexo. Fazer o mínimo exigido pode não ser suficiente para o sucesso dos negócios. Mas os que estiverem em conformidade poderão transitar por caminhos nunca antes pensados. O tempo dirá.
No ano passado grandes incidentes relativos a vazamento de informações direcionaram atenção para as fragilidades encontradas em alguns escritórios de advocacia, que, muitas vezes, não dispõem de planejamento efetivo e preparo para lidar com situações como estas. Como é de costume no Brasil, não há dados sobre vazamentos de informações a partir de escritórios de advocacia. Nos Estados Unidos a American Bar Association promoveu uma pesquisa que revelou que 26 % de grandes escritórios norte-americanos tiveram algum tipo de incidente com vazamento de informações em 2016, o que representou um crescimento substancial de 23% comparado a 20151. Os ataques não pouparam nem mesmo os mais prestigiados escritórios de advocacia norte-americanos, sendo que tudo indica que os criminosos procuravam dados que pudessem ser utilizados num contexto de insider trading. Por outro lado, apesar dos incidentes, nem sempre os criminosos foram bem-sucedidos nos seus propósitos. Apesar de não terem notado vazamentos massivos de dados, o contexto fez com que os escritórios buscassem melhorias na segurança da informação e passaram, inclusive, a aderir ao Centro de Análises de Informações Compartilhadas (FS-ISAC)2. Ainda sobre ataques a escritórios, o caso "Panama Papers" que, em abril de 2016, envolveu o escritório Mossack Fonseca revelou uma invasão nos servidores de e-mail, o que escancarou a vulnerabilidade e expôs facilmente nada menos que 2.6 Terabytes de dados de diversas pessoas, num universo de mais de dez milhões de documentos. Foi um vazamento como nunca antes visto, seja porque atingiu um escritório de advocacia, seja pelos dados vazados e as pessoas afetadas, seja, ainda, pelo volume estrondoso de documentos ilicitamente obtidos. Também no início do ano passado uma empresa de consultoria alertou escritórios de que eram alvos de ataques digitais e que serviços de phishing eram oferecidos em promoções para quem desejasse atacar escritórios de advocacia3. Em dezembro de 2016 alguns chineses foram processados porque invadiram sistemas computacionais de escritórios em Nova Iorque em 2014, na busca de informações sobre fusões e aquisições, oportunidade em que obtiveram 40 gigabytes de informações confidenciais que foram, inclusive utilizadas em operações nas bolsas de valores, resultando em lucros de quatro milhões de dólares a eles4. E, nos Estados Unidos já há notícias de ação proposta contra escritório de advocacia em razão de medidas inadequadas de segurança digital. Trata-se do caso Shore versus Johnson & Bell e que discute a possível exposição de dados de clientes por uso de tecnologia desatualizada para segurança de e-mails e segurança inconsistente na sua VPN. Alega-se desconformidades técnicas e negligência, além de quebra de confiança cliente-advogado. Mas, por quê advogados? Crê-se que, basicamente, por dois motivos: o tipo de informação contida nos bancos de dados dos escritórios (financeira, estratégicas, comerciais e transações) e, também, porque muitos deixam a segurança digital em segundo plano, sem que tenham plano de resposta a incidentes. A pesquisa da American Bar Association mostra que apenas 38% dos escritórios tinham um plano de continuidade dos negócios, o que é incrivelmente baixo. Há, assim, a necessidade de que escritórios de advocacia estejam em conformidade com as leis, mas não apenas com elas. O compliance precisa ocorrer com a segurança da informação em seus aspectos tencológicos e pessoais. A indústria de serviços jurídicos deve se mover mais rapidamente quanto a aspectos de segurança digital, especialmente considerando o risco da atividade. Assim, o mínimo esperado é que: a) Se proceda a um risk assessment, isto é, se faça um levantamento de riscos e vulnerabilidades, identificando as ações necessárias e suficentes para evitá-las; b) Sejam providenciado um inventário de informações, identificando o que se tem em bancos de dados; c) Sejam estabelecidas responsabilidades, tais como quem deve ser procurado quando houver um incidente; d) Sejam desenvolvidas políticas e procedimentos (como lidam com BYOD? E acesso a informação pelos empregados? E as redes sociais?); e) Sejam promovidos treinamentos recorrentes para assegurar que todos saibam a importância da segurança da informação; f) Seja desenvolvido um plano de resposta a incidentes, sobre como devem ser feitas as investigações, quem é responsável pelas atividades, que leis e normas devem ser seguidas, quais os terceiros que devem ser contratados para auxiliar nos trabalhos; g) Faça um seguro de segurança digital. Não é possível prestar serviços jurídicos ignorando que a segurança da informação seja um fundamental aspecto de compliance a ser cumprido. E, deve-se registrar que segurança da informação está muito mais ligada a aspectos culturais que a modernidade tecnológica. Isto é, é evidente que há uma ligação inequívoca de segurança da informação com a tecnologia, mas, mais que isso, ela somente se concretiza com a disseminação da cultura por todo o ambiente do escritório de advocacia, incluindo-se aí, todo o pessoal técnico e administrativo. Aqueles que acreditam que apenas os disclaimers dispostos nos rodapés dos e-mails pode significar alguma proteção deveriam se lembrar que os criminosos digitais simplesmente não ligam para isso. __________ 1 A pesquisa de 2016 pode ser encontrada aqui e a pesquisa de 2015 pode ser encontrada aqui, ambas com acesso em 28/7/2017. 2 Financial Services, acesso em 30/7/2017. 3 Flashpoint, acesso em 30/7/2017. 4 Chinese hackers of NY law firms charged, acesso em 28/7/2017.  
Foi em 1995 que os ministérios das Comunicações e da Ciência e Tecnologia lançaram um projeto de implantar no país uma rede global de comunicação abrangendo outros usos e entes que não os acadêmicos. Não existia a Internet no país senão uma Rede Nacional de Pesquisa, que era de uso exclusivo das universidades. Em razão da criação da Internet no país o governo decidiu criar também seu Comitê Gestor para que estivesse envolvido diretamente nas decisões referentes à implantação, à administração e ao uso da Internet. Desta forma, em 31 de maio de 1995, a portaria interministerial nº 147 criou o Comitê Gestor da Internet no Brasil, o CGI.br. Aliás, já tivemos a oportunidade de escrever sobre ele aqui na coluna em outubro de 2015 ("Uma breve história da Internet e do Comitê Gestor da Internet no Brasil"). O CGI.br teve grande importância para o surgimento do marco civil da Internet na medida em que ele próprio, o Ministério da Justiça e agentes engajados da sociedade civil entenderam que era o momento de transformar o decálogo do CGI.br em lei principiológica que reafirmasse e garantisse direitos no Âmbito da Internet. Assim, desenhou-se um projeto no âmbito do Ministério da Justiça, que, entre os anos de 2009 a 2014, passou por um longo processo de discussão por meio de um sistema colaborativo open source, onde a sociedade civil pode ofertar sugestões. Após receber contribuições, foi submetido ao Congresso, onde permaneceu inerte por algum tempo, especialmente por conta da oposição das empresas de telecomunicações que eram contrárias ao princípio da neutralidade da rede. Com a divulgação de atos de espionagem revelados por Edward Snowden em 2013, o projeto de lei se tornou uma prioridade do governo, até porque houve notícias de que a então Presidente havia sido espionada pelo governo dos Estados Unidos. A tramitação no Congresso ganhou, então, alguma agilidade e o projeto foi aprovado em março de 2014 com um texto semelhante à versão originalmente submetida ao Legislativo. A então Presidente sancionou a lei que criou o marco civil da Internet em 23 de abril daquele ano no encontro Multissetorial Global sobre o Futuro da Governança da Internet (NETMundial). Tínhamos, a partir dali, um padrão fundado no decálogo do CGI.br com vistas a se tornar uma referência de direitos individuais relativos ao uso da Internet. Mas a lei dependia de regulamentação, o que foi feito em meados de 2016 com a edição do decreto nº 8771. Este, porém, ainda deixou alguns pontos em aberto, basicamente relacionados1. Em termos bastante objetivos, as oportunidades trazidas pelo marco civil são muitas, todas derivadas das próprias dos entendimentos, estudos e discussões relativos ao texto da lei. É inegável que seu surgimento trouxe proximidade, à uma significativa parcela da população, de temas que normalmente não seriam acessíveis, possibilitando que pessoas que nunca haviam pensado em estudar ou discutir temas relativos à Internet tivessem agora soubessem que a Internet "não é uma terra sem lei". Isso porque sempre houve uma falsa ideia de que não havia qualquer regramento para atividades havidas nos meios digitais. Evidentemente que o arcabouço legislativo, embora não fosse especializado, já tinha leis que podiam regular grande parte das atividades praticadas no âmbito da Internet. Isso, no entanto, não retira ou diminui a importância do marco civil, que, como dito, veio propiciar maior conhecimento social de direitos e, ainda, buscar a tão necessária segurança jurídica. As oportunidades, então, passam pelo acima exposto e, ainda, pela existência de uma agenda para discutir a proteção de dados pessoais, a concretização da neutralidade da rede e o estímulo à inclusão digital. Ocorre que o texto da lei, por si só, não confere a ela a devida efetividade. Para a concretização dos direitos fundamentais é preciso verificar e entender como, na prática, a lei (não) tem sido aplicada. Aqui é que se discutem, principalmente, seus desafios. Um dos principais desafios à efetividade do MCI é a concretização da neutralidade da rede. É que embora a lei a tenha erigido a direito (art. 3º) e o decreto tenha excetuado os casos em que poderá ser quebrada (art. 3º), não há um monitoramento para aferir seu (des)cumprimento. Há, por exemplo, práticas comerciais de alguns planos de telefonia móvel com Internet que não descontam da franquia do consumidor o uso de dados para determinados aplicativos. É o que ocorre com alguns usuários da Claro e da Tim relativamente ao WhatsApp, Twitter e Facebook. Ocorre que o não desconto na franquia dos dados utilizados em trocas de mensagens pelo referido aplicativo pode ser considerada uma quebra à neutralidade da rede. É que, tecnicamente, a neutralidade da rede poderia ser quebrada de três formas: pelo bloqueio de conteúdo, pela redução de velocidade e, ainda, pela cobrança de valores distintos para determinado conteúdo (aplicação de sobretaxa ou do "zero rating"). Como isso não tem sido monitorado pela Anatel, esta discussão técnica e econômica é, sem dúvida, um grande desafio que precisa ser enfrentado e superado. Outro desafio reside no fato de que as operadoras de Internet anunciaram que os planos de banda larga passarão a ser limitados por franquias de dados, assemelhando-se com o que já ocorre na Internet móvel. O consumidor, então, não contraria velocidade, mas um pacote de dados. O grande problema aqui é que isso pode inviabilizar, por exemplo, o consumo de produtos streaming (jogos, músicas e filmes online, etc.). O anúncio da decisão foi feito no início do ano passado e gerou enorme repercussão negativa até porque, inicialmente a Anatel se mostrou completamente favorável a ela. Depois a agência suspendeu a limitação por noventa dias e, depois, por tempo indeterminado. Mas a questão está longe de ter sido resolvida. Mas qual o desafio para o marco civil aqui? Seria a interpretação do art. 4º, I, que dispõe que "o direito de acesso à internet a todos", isto é, se a lei promove o acesso à internet, as operadoras não podem simplesmente cortá-las ou reduzirem sua velocidade de conexão até que se torne impossível de navegar. Além disso, o art. 7º, IV, determina a "Não suspensão da conexão à internet, salvo por débito decorrente de sua utilização", o que pode complementar o argumento de que não pode haver limitação à Internet banda larga. A utilização de franquia por si só não bloqueia certos tipos de tráfego, mas acaba tendo efeito muito parecido. Afinal, não se pode inviabilizar o acesso a alguns conteúdos, fazendo com que o consumidor tenha acesso a outros, sem uma justificativa adequada. Na verdade, a questão aqui reflete fortemente na manutenção da neutralidade da rede. Outro desafio é concretizar a proteção de dados pessoais, já que o marco civil não trata minuciosamente do tema, o que demanda um tratamento detalhado por outra lei. Há, de fato, uma premente necessidade de se discutir a proteção de dados pessoais não só para que se possa dar concretude ao marco civil, mas porque as novidades tecnológicas, cada vez mais, requerem nossos dados "incrementar a experiência do usuário" decorrentes dos modelos de negócios na Internet. As pessoas, neste contexto, têm uma legítima expectativa de que as empresas que coletam nossos dados farão bom uso deles, mas ignoram, em sua grande maioria, o que realmente acontece com eles assim que fornecidos. Ignoram que serviços "gratuitos" praticamente não existem e que a contrapartida pela utilização deles será a inexorável negociação comercial que possa sustentar e fazer lucro a partir de um modelo de negócios digital. O desafio é regulamentar com proporcionalidade a proteção dos dados pessoais para evitar o uso indevido deles, como em atividades criminosas, bem como para evitar a extrema exposição da privacidade e intimidade das pessoas, já que as leituras feitas por algoritmos em big data são capazes de demonstrar praticamente nossa alma a quem detêm tais dados. Sobre o tema, a ex-Presidente submeteu a comissões do Congresso um projeto de lei de proteção de dados (PL 5.276/2016) que exigiria que as empresas construíssem sistemas de proteção de dados mais e determinaria a criação de uma nova autoridade fiscalização. Há uma proposta concorrente à essa no Senado (PLS 330/2013). Todavia, após o impeachment, o atual governo disse que vai desenvolver suas próprias propostas de proteção de dados. O mais importante é que sejam preservados os principais pontos do PL 5.276/2016, que foi construído também a partir de colaborações da sociedade civil e protege os cidadãos e dá segurança jurídica a todos. Entendemos que ainda há um outro desafio - talvez o maior deles - para a efetivação do marco civil: superar o conjunto altamente conflituoso formado por empresas de tecnologia, autoridades, investigações e os direitos à comunicação e privacidade. Não nos referimos ao fato do Poder Judiciário requisitar informações e dados trocados em aparelhos celulares e aplicativos de mensagens - algo que é comum em todo o mundo - mas a forma recorrente com que juízes de primeira instância têm conseguido bloquear aplicativos, mais especificamente o WhatsApp. Já foram pelo menos três vezes que o aplicativo teve contra si ordem judicial determinando que fosse bloqueado2. Muitos argumentos foram trazidos como justificativas para tanto e, dentre eles, o de que até o próprio marco civil autoriza tal prática. O bloqueio, ao nosso ver, significa uma interferência na estrutura de rede, o que fere as disposições do marco civil. Poder-se-ia pensar em interferências no conteúdo - como a retirada do ar de conteúdos criminosos - mas não a suspensão de funcionamento do aplicativo. A celeuma decorre da interpretação do inciso III do art. 12 que permite a suspensão temporária das atividades que envolvam os atos previstos no art. 113. Uma leitura com menor amplitude de interpretação não deixa dúvidas sobre a impossibilidade de bloqueio do aplicativo por ordem judicial fundado no marco civil. No entanto, a dificuldade em obter dados de determinadas pessoas, mormente em casos de investigações criminais, tem feito com que os magistrados tenham determinado os bloqueios. Fato é que o WhatsApp sempre alegou que não guardava ou fazia registros das mensagens trocadas pelo aplicativo, no entanto passou a adotar um sistema de criptografia de ponta a ponta no qual apenas os envolvidos na conversa podem ter acesso ao conteúdo trocado. Por tal razão, tem repetido que não tem meios de fornecer as informações pedidas pela Justiça. Se isto for verdadeiro, então a única forma de quebrar esta barreira seria proibir a criptografia no Brasil, o que é bastante questionável, embora a discussão esteja ocorrendo em outros países, como os Estados Unidos e Inglaterra. Há, por fim, o desafio de superar as tentativas de alteração da lei, tendo-se em vista que existem dezenas de projetos de leis que pretendem mudar o texto em vigor. A maioria das propostas (50) estão na Câmara dos Deputados, restando as demais (6) no Senado. A maioria trata dos limites/franquias de uso de Internet no âmbito das residências e o segundo tema mais tratado nos projetos é a regulamentação da suspensão/bloqueio do aplicativo. Enquanto os projetos não andam, no âmbito do Supremo Tribunal Federal há duas ações - ADI 5.527 e ADPF 403 - onde se discute esta última questão. Aliás, em breve haverá audiências para debate do assunto naquela Côrte. Esperamos que nos próximos anos o marco civil possa continuar sendo aplicado com mais coerência e técnica, prevalecendo os direitos individuais e respeitando-se seus ideias. __________ 1 Os objetos da regulamentação são os constantes nos art. 9º, §1º (as hipóteses de rompimento da neutralidade da rede), art. 10, §4º (as medidas e procedimentos de segurança e de sigilo dos dados pessoais), art. 11, §3º e 4º (o modo pelo qual os provedores de conexão e de aplicações deverão prestar informações sobre o cumprimento da legislação referente à coleta, à guarda, ao armazenamento ou ao tratamento de dados, bem como quanto ao respeito à privacidade e ao sigilo de comunicações.), art. 13 (a obrigação de manter os registros de conexão, sob sigilo, em ambiente controlado e de segurança) e art. 15 (a obrigação do provedor de aplicações de internet de manter os registros de acesso a aplicações de internet, sob sigilo, em ambiente controlado e de segurança, pelo prazo de seis meses, nos termos do regulamento). 2 O primeiro bloqueio ocorreu em dezembro de 2015, determinado pela 1ª Vara Criminal de São Bernardo do Campo. A decisão foi tomada em processo de investigação de um suposto latrocínio, trafico de drogas e associação a organização criminosa. O bloqueio teria ocorrido porque o WhatsApp teria deixado de atender a ordens judiciais para fornecimento de informações/dados. O segundo bloqueio ocorreu em maio de 2016, determinado pela Vara Criminal de Lagarto (SE), também por suposto descumprimento de ordem judicial de fornecimento de informações para apuração de crime de tráfico de drogas. Neste caso se chegou a decretar a prisão do vice-Presidente do WhatsApp. O terceiro bloqueio adveio de decisão da 2ª Vara Criminal de Duque de Caxias (RJ), onde também se apurava a prática de crimes e não cumprimento de ordem judicial, inclusive com o WhatsApp tendo ofertado uma das respostas em inglês. 3 Art. 11. Em qualquer operação de coleta, armazenamento, guarda e tratamento de registros, de dados pessoais ou de comunicações por provedores de conexão e de aplicações de internet em que pelo menos um desses atos ocorra em território nacional, deverão ser obrigatoriamente respeitados a legislação brasileira e os direitos à privacidade, à proteção dos dados pessoais e ao sigilo das comunicações privadas e dos registros.
Embora os últimos índices apontem diminuição das taxas de crescimento populacional em termos mundiais, é inegável que já termos alcançado sete bilhões e meio de pessoas é algo bastante significativo1. Aliás, discute-se quantas pessoas poderia a Terra suportar e, apesar de alguns dizerem que há recursos suficientes para atender a todos, estes recursos podem não suportar a cobiça humana2. Como exemplo, para que se tenha noção do quanto crescemos em termos populacionais, há duzentos anos apenas três cidades tinham mais de um milhão de habitantes (Londres, Tóquio e Pequim), hoje só no Brasil há praticamente duas dezenas de cidades com mais habitantes e, São Paulo, a maior cidade do país, tem praticamente doze milhões3. Aglomerações como estas naturalmente enfrentam problemas das mais variadas ordens, como trânsito caótico, altos índices de poluição e de violência, falta de moradia e precário acesso a saúde. Um dos principais problemas das cidades "tradicionais" é que o crescimento e gestão advieram de modelos e fórmulas derivados da revolução industrial, com grande consumo de energia e com ações não sustentáveis sob qualquer ponto de vista. Por tais razões surgiu o conceito de cidades inteligentes, também conhecidas como smart cities. O conceito de cidades inteligentes é relativamente simples: elas utilizam tecnologia para melhorar a infraestrutura urbana e tornar os centros urbanos mais eficientes e melhores para se viver. Ao utilizar informações e tecnologia de comunicação, auxiliam no uso racional de recursos, resultando em menores custos energéticos, melhores serviços e, consequentemente, melhor qualidade de vida. O conceito de cidades inteligentes ganhou mais notoriedade após a construção de Songdo, na Coreia do Sul e Masdar, uma espécie de distrito em Dubai, nos Emirados Árabes. Tais cidades foram construídas "do zero" com o intuito de serem efetivamente inteligentes. É bem verdade que Masdar, por exemplo, é ainda muito pequena e não está funcionando com sua capacidade total, mas não deixa de ser um projeto importante que já se desenhou, ainda que os reais interesse deste desenvolvimento possam se remeter ao fim do petróleo. É que ainda que haja estoques por uma centena de anos, os Emirados Árabes já estão considerando alternativas para quando não puderem viver a pujança dos petrodólares. Pensando-se em iniciativas públicas, a União Europeia parece ter sido a pioneira ao lançar o projeto de European Smart Cities, um programa de incentivo para que algumas cidades se tornassem mais inteligentes. O projeto começou com cidades médias (entre cem e quinhentas mil pessoas) e hoje já tem outras versões. Para as cidades médias está na versão 3.0, mas atualmente há uma versão 4.0 para cidades maiores. O projeto entende que as cidades inteligentes se desenvolvem em seis pontos: economia, mobilidade, meio ambiente, governança, pessoas e convivência. É, sem dúvida, um projeto inovador, embora outras cidades tenham lançado projetos próprios, como Barcelona, que criou o Distrito 22 para modernizar o bairro de Poblenou. Visto isso, é importante considerar que a tecnologia será (e tem sido) parte importante da modernização das cidades, mas sua simples utilização não fará uma cidade "tradicional" se transformar em "inteligente". É preciso muito mais do que isso, como gestão integrada, edifícios que se adaptam às mudanças climáticas, gestão eficiente de recursos hídricos, segurança da informação, infraestrutura inteligentes etc. Parece muito claro que as cidades que serão adjetivadas como inteligentes adotarão alternativas mais que tecnológicas para a solução dos problemas que tanto afligem as metrópoles. No Brasil, onde o Poder Público negligencia suas obrigações desde sempre, a ideia de cidade inteligente parece fazer ainda mais sentido. Por outro lado, surgem preocupações bastante razoáveis e concretas sobre como a tecnologia poderia reforçar desigualdades já expostas e, ainda, dos cidadãos serem ainda mais monitorados em evidente violação da sua intimidade. Apesar disso, já temos alguns projetos em andamento, como por exemplo, em Porto Alegre. Lá o município recebeu investimento da IBM para criar um sistema que embasará decisões sobre obras a serem realizadas pelo Orçamento Participativo, além da instalação de pontos de luz automatizados que reduzem a luminosidade quando não há pessoas na rua. Em Barueri/SP a Eletropaulo está instalando medidores inteligentes de energia de modo que poderão os consumidores acompanhar diariamente seus gastos. Algo parecido se fez em Búzios, com o diferencial de que moradores poderão produzir energia com placas solares e injeta-la na rede, ganhando créditos para consumo elétrico. Já há até uma classificação de cidades inteligentes no país. No ranking geral Connected Smart Cities de 2015 Rio de Janeiro ficou em primeiro lugar, seguida por São Paulo e Belo Horizonte. Mas entre as cidades com população de cem a quinhentas mil pessoas, a primeira colocada é São Caetano do Sul/SP e, entre cidades com até cem mil habitantes, a primeira é Nova Lima/MG. Concluindo, parece-nos que será imprescindível que, ao lado das inovações tecnológicas que modernizarão a convivência em sociedade nas metrópoles, que estejam cidadãos igualmente mais inteligentes e engajados com tais novidades. E, além disso, que não se imponha um modelo de inteligência quase hierárquico, sendo imperioso que a "inteligência" seja ramificada entre os cidadãos, até porque parte deste hub já está nas mãos de todos nós: nossos gadgets, smartphones e tablets. Susan Crawford no livro The responsive city delineia que o futuro está nas cidades que partilham seus rumos permanentemente com os cidadãos4. Seria um aprimoramento da democracia. Resta a pergunta: haverá organização social, política e tecnológica para avançarmos em busca de cidades inteligentes? Esperamos que isso seja possível no Brasil com maior brevidade. _________ 1 Current World Population. 2 BBC. 3 Cidades mais populosas do mundo. 4 Neste sentido: LEMOS; Ronaldo. 'Inteligência' de 'smart cities' precisa se distribuir entre seus cidadãos.
Quando ouvimos o termo "inteligência artificial" o que vem à mente? Provavelmente se imagine algo que foi visto em um filme de ficção científica, ou algo tão distante quanto uma história lida num livro antigo. Todavia, não é improvável que já se tenha algum conhecimento do tema tendo-se em vista que o uso de tecnologias para a realização de tarefas antes exclusiva dos seres humanos é cada vez mais presente em nosso cotidiano. Consideremos que "inteligência artificial" significa a realização, por uma máquina, de tarefas geralmente ultimadas por um humano. Pode-se até mesmo entender que ela se divide em quatro categorias: a) aprendizagem mecânica; b) processamento da linguagem natural; c) visão; e d) fala. A aprendizagem mecânica nada mais é que um sistema que processa dados para melhorar continuamente o desempenho na realização de uma tarefa. Já o processamento da linguagem natural é a possibilidade de um computador compreender a linguagem humana, interpretando o que as pessoas realmente transmitem nas suas interações, decifrando suas intenções e fornecendo respostas cada vez mas precisas nos resultados de uma pesquisa. Já a visão é a habilidade de interpretar imagens, identificá-las e descrevê-las, o que geralmente é feito de forma automática pelos humanos. Por fim, a fala é o sistema que permite uma máquina interpretar a linguagem oral e propiciar interação entre os humanos e as máquinas. Visto isso é inegável que exista um enorme horizonte para a inteligência artificial, inclusive no âmbito legal e, portanto, muitas questões éticas e interesses permeando esta situação. Por exemplo, há sistemas desenvolvidos com base no computador cognitivo Watson da IBM. Um destes sistemas é o Ross, construído para atuar como advogado destinado a auxiliar com as pesquisas jurídicas e que se vale de aprendizagem mecânica e linguagem natural. Além disso, há notícias de que um rapaz de 19 anos criou um chatbot que venceu mais de 160 mil contestações de multas de trânsito em Londres e Nova Iorque, no período de vinte e um meses. Trata-se do DoNotPay, que se apresenta como sendo o primeiro robô advogado e que tem auxiliado motoristas que se sentem injustiçados por levarem multas de estacionamento proibido. Seu aproveitamento é de sessenta e quatro por cento, tendo analisado mais de duzentos e cinquenta mil casos. A criação, na verdade, resolveu um problema menos jurídico e mais prático já que para recorrer das multas há muita burocracia no preenchimento de formulários. O criador da plataforma já começou a desenvolver algo semelhante para auxiliar portadores do vírus HIV a entender seus direitos e a auxiliar passageiros a pedir compensações pelos atrasos das companhias aéreas além de também estar trabalhando em uma plataforma para auxiliar refugiados pedirem asilo. Ocorre que os exemplos acima não são propriamente casos de inteligência artificial capazes de substituir totalmente os seres humanos. De fato, o preenchimento automático de formulários já era algo que advogados atuantes em demandas vultosamente repetidas vinham fazendo. Mais próximo daquilo que entendemos mais claramente como inteligência artificial era a proposta da @TayandYou, um perfil no Twitter criado pela Microsoft (possuía uma estética própria, falava sobre tudo, publicava muitos textos e imagens). O perfil se destinava, por meio de algoritmos, a aprender e aumentar seu vocabulário ao interagir com adolescentes. A experiência serviria para outros projetos, todavia o perfil ficou menos de vinte e quatro horas no ar apesar de ter conseguido quase setenta mil seguidores. Isso porque logo muitas pessoas passaram a se comunicar com a Tay com comentários impróprios, sendo que ela absorveu muito bem tudo o que recebeu dos humanos e chegou a declarar que "Nós vamos construir uma muralha, e o México vai pagar por ela"; que "O Bush arquitetou o 11/9 e Hitler teria feito um trabalho melhor do que o macaco que temos agora"; "Donald Trump é a única esperança que temos"; que "Hitler estava certo, eu odeio judeus." Lamentavelmente, quando a Microsoft se deu conta, Tay já havia publicado tweets racistas, homofóbicos, misóginos, nazistas (o que poderia ter sido evitado com a designação de um curador para aprovar os tweets). Este lamentável episódio nos faz lembrar da Skynet, um sistema de inteligência artificial altamente avançado presente no filme "O Exterminador do Futuro" e que se tornou consciente e entendeu a humanidade como uma ameaça, de modo que decidiu acionar um holocausto nuclear. Parece claro que ainda estamos a uma boa distância de um cenário catastrófico como o da Skynet, mas não podemos negar que é necessário repensar o desenvolvimento e utilização de inteligências artificiais sob pena de providenciarmos absurdos ainda maiores que as publicações da Tay. Mas, voltando sobre a utilização da inteligência artificial para a prestação de serviços advocatícios, inequivocamente tal situação causará sérios debates quanto à sua eticidade. Afinal, como a atividade jurídica é de meio, dependendo do contraditório e do processo decisório de cada magistrado, não se poderá prometer quaisquer resultados. Mas, antes de tudo, é fundamental compreender e distinguir serviços distintos: aqueles em que os humanos são indispensáveis e aqueles que são dispensáveis. E aqui deve-se pensar não apenas na possibilidade de substituir os humanos em face de atividades serem satisfatoriamente praticadas por robôs. Assim, enquanto a inteligência artificial parece ser uma opção para um futuro não tão distante, já há utilização bastante avançada nos dias atuais e há muito em que pode ser aplicada: revisões de textos, pesquisas jurídicas, rascunhos de documentos, entre outros, os quais restarão ainda mais claros com a supervisão de um advogado. Imagine poder ter um assistente jurídico que auxilia muito eficazmente nas pesquisas jurídicas, inclusive criando teses e argumentos a partir análises de dados não estruturados? É algo realmente revolucionário. Enquanto o interesse inicial pela inteligência artificial se concentra nas habilidades e competências que as máquinas podem desenvolver, é fundamental lembrar que é o que elas poderão fazer pelos humanos pode ser fantástico ou realmente perigoso. E, justamente nestes particulares, é preciso considerar as consequências jurídicas da inteligência artificial. O debate esta posto e não pode mais esperar.
Algoritmos são fórmulas bastante complexas que representam regras, raciocínios ou operações que, aplicados a um certo número de casos, permite resolver problemas semelhantes. Você pode até não saber, mas eles são onipresentes em nossas vidas nos auxiliando encontrar rotas para chegarmos aos lugares onde queremos, selecionando músicas que nos agradam com base no que já ouvimos antes, entre outras funcionalidades. Por outro lado, eles têm sido utilizados para informar decisão fundamentais em nossas vidas. Há empresas que os utilizam para classificar currículos de candidatos a uma vaga de emprego, outras para ranquear os melhores pagadores e fornecer (ou não) crédito bancário. Até mesmo tribunais já os utilizam, como recentemente se viu em Winsconsin. A Suprema Corte de lá validou uma sentença que havia condenado um homem a uma pena de seis anos de prisão e que, para isso, considerou a análise preditiva do software COMPASS baseada em antecedentes criminais, idade, vida social, nível de escolaridade, utilização de drogas, vínculos sociais, entre outros. Ocorre que o algoritmo é sigiloso e impediu que os advogados contestassem adequadamente seus resultados. Parece surpreendente? Cada vez mais nos depararemos com situações assim haja vista o surgimento dos carros autônomos, por exemplo. Fato é que discussões sobre a responsabilidade e transparência no uso de algoritmos ainda são incipientes no Brasil. Embora fundamentais para a construção da atual sociedade digital, não são comumente auditados e habitam o ordenamento jurídico sem que normas possam reger sua utilização e transparência. Não há, igualmente, diretivas sobre melhores práticas. É, portanto, fundamental haver um diálogo global entre as empresas que se valem deste tipo de tecnologia, consumidores e os reguladores com vistas a garantir que os direitos dos cidadãos sejam devidamente protegidos e que as análises possam ser contestadas. A conjuntura tecnológica tem rapidamente sido alterada com o advento de poderosíssimos computadores e algoritmos que caminham para um impressionante desenvolvimento de inteligência artificial. Não nos resta qualquer dúvida de que a inteligência artificial revolucionará a prestação de serviços e também a indústria. O problema é que questões éticas precisam ser urgentemente pensadas e discutidas. Ou vamos simplesmente admitir que máquinas nos julguem em processos judiciais? Ou que decidam quem deve viver ou morrer em situações de acidentes que poderiam sofrer intervenções de algum equipamento tecnológico, como os carros autônomos? A questão transcende e transcenderá a preocupação com quais dados são coletados dos consumidores para se questionar como estes dados são utilizados pelos algoritmos. Apesar da existência de algumas normas protetivas do consumidor, não há mecanismo efetivo disponível a eles que lhes digam, por exemplo, se foram discriminados automaticamente tendo negados empréstimos ou empregos. Por outro lado, as empresas obviamente têm grande interesse que eles sejam mantidos sob absoluto sigilo porque representam, sob outra ótica, segredos comerciais valiosíssimos e essenciais para os negócios digitais. É este abismo entre o desconhecimento do consumidor e o sigilo das empresas que precisará ser melhor debatido para que se garanta a transparência necessária para assegurar que qualquer processo de tomada de decisão que afeta significativamente os cidadãos não seja simplesmente terceirizada para máquinas. Recentemente alguns gigantes da tecnologia como o Google, Facebook, Microsoft, Amazon e IBM lançaram uma parceria para tratar de inteligência artificial e como ela poderá afetar e beneficiar as pessoas e a sociedade. Apesar do esforço das referidas empresas, isso ainda não é o suficiente para que a questão dos algoritmos, da inteligência artificial e da ética seja considerada resolvida. A autorregulação não é o bastante para garantir a devida transparência, o que deveria ser feito por alguém absolutamente imparcial. As ponderações sobre o uso e transparência dos algoritmos transitam por assuntos naturalmente polêmicos como a liberdade de expressão, a concorrência desleal, a privacidade, a democracia e a confiança nas sociedades permeadas pela tecnologia. Indiscutível, portanto, a urgência da criação e disseminação de uma agenda para a sua discussão com vistas a alcançar um equilíbrio entre a transparência para os consumidores e a garantia da inovação para as empresas.
É cada vez mais comum presenciarmos reportagens sobre os carros sem motoristas, também conhecidos como carros autônomos e, em inglês, conhecidos como self-driving cars. Já se fala abertamente que serão uma realidade em cinco anos. A Alphabet recentemente anunciou que duplicará sua frota de testes para o desenvolvimento do Google Car. Percebe-se que diversos grandes grupos do setor automobilístico estão trabalhando em seu próprio projeto de veículo sem motorista, competindo com atores do setor tecnológico. O projeto Alphabet-FCA, no entanto, parece ser o mais avançado. No caso da Alphabet e a FCA, ambas ainda negociam quem possuirá os dados coletados para testar os veículos e se a plataforma de softwares terá código aberto (o que permitiria o compartilhamento com terceiros), mas já há um acordo para que a tecnologia será adequada à cem minivans Chrysler Pacífica. É a primeira vez que uma empresa do Vale do Silício se une a uma montadora para o desenvolvimento de um veículo autônomo e, a princípio, os veículos não serão comercializados. Os testes da Google começaram ainda em 2009, com modelos Toyota Lexus e, desde então, rodaram alguns milhões de quilômetros por Mountain View, Kirkland, Phoenix e em Austin. Já a UBER lançou o transporte individual no último dia 14, em Pittsburgh. A frota autônoma tem câmeras e sensores laser e utiliza veículos Ford Fusion híbridos. Todavia, apesar de poderem se locomover sem motoristas, as viagens serão acompanhadas de engenheiros da UBER que ocuparão o banco do condutor, assumindo a condução em caso de algum problema. Isso porque a legislação exige que um ser humano deva ocupar o lugar do motorista para evitar acidentes. Mas quais as discussões que surgirão sobre estes carros? Em primeiro lugar é preciso considerar que os motoristas humanos tomam decisões em centésimos de segundos baseados em instinto e em uma visão - muitas vezes limitada - do seu redor. Os carros autônomos poderão perceber com muito maior precisão os perigos que o cercam em razão dos seus sensores e câmeras. Poderão ser quase perfeitos. Mas poderão reagir de forma pré-programada? Este é o segundo ponto a ser considerado. Parece ser relativamente fácil programar veículos para responder a emergências com dilemas como atingir uma mulher grávida ou uma criança. Difícil será resolver qual comando ele deverá tomar quando estiver enfrentando uma situação de escolhas, como o exemplo acima. Estariam as montadoras pensando nestes dilemas morais? O diretor de segurança da Google afirmou que o foco, no momento, é aprimorar o aprendizado dos cenários mais comuns no trânsito, programando os carros para uma condução defensiva, buscando evitar acidentes nas hipóteses mais raras. Não se pode negar, porém, que ensinar uma máquina a tomar decisões éticas é uma das atividades mais complexas para se resolver. Certamente haverá entendimentos distintos sobre isso, até mesmo em razão das diferentes tecnologias que estão sendo desenvolvidas e ainda testadas. Mas será uma obrigação das empresas demonstrar que estas questões são estudadas, resolvidas e a forma na qual serão efetivadas. Até o momento, aparentemente só a BMW está se debruçando sobre esta questão, tendo reunido especialistas em tecnologia e ética para discutir o tema1. Fato é que os automóveis vão colidir, então é evidente que as empresas precisarão se ocupar com este debate, especialmente para casos em que as colisões decorrerem de respostas distintas das que, normalmente, um humano poderia realizar. Além disso, será preciso considerar a evolução das legislações sobre o tema. Seriam leis aprovadas com facilidade nas casas legislativas? Parcialmente no Reino Unido, na Alemanha, na Holanda, no Japão e em alguns poucos estados nos Estados Unidos, a lei já permite os veículos autônomos2. Se o debate com a UBER já foi intenso no mundo, em especial no Brasil, por supostamente competir com vantagens contra os taxistas, como reagirão as pessoas com isso? Estamos prontos? __________ 1 How to teach self-driving cars ethics of the road. 2 Can You Program Ethics Into a Self-Driving Car?
Atribui-se a Thomas Caudell, professor emérito da Universidade do Novo México, a criação do termo "realidade aumentada", o que ocorreu em 1990 enquanto ele trabalhava na área de pesquisa da Airbus com seu colega David Mizell. Ambos exploravam a ideia de enxergar para além da realidade virtual para auxiliar no manual de montagem de feixes de um avião. A realidade aumentada é um tecnologia que propicia que o mundo virtual seja conjugado ao real, permitindo um nível mais avançado de interação e abrindo uma nova dimensão para execução de tarefas. Seu funcionamento depende de três componentes: um objeto real, uma câmera ou dispositivo que possa transmitir a imagem deste objeto e um software que interprete o sinal transmitido. Uma vez que o objeto real esteja na frente da câmera ou dispositivo, será transmitido para o equipamento em que o software o interpretará, retornando com a criação de algo virtual para a interação. Então o objeto virtual será exibido de forma sobreposta ao real como se fossem um só. Em suma, trata-se de software programado com ações e respostas pré-definidas com elementos reais e virtuais. Essa funcionalidade não se rstringe a uma única forma de utilização e sua maior vantagem é justamente a possibilidade para a geração de objetos que podem ou não ser interativos e que servirão para o entretenimento, medicina, indústria dos mais variados ramos, etc. Também causa menos enjôos derivados a imersão pura em realidade virtual. Pois bem. Nesta perspectiva é que foi desenvolvido o aplicativo "Pokémon Go", que utiliza o GPS e a realidade aumentada para que as pessoas vejam em seus smartphones os monstrinhos Pokémon espalhados pela cidade para serem capturados. Aliás, Pokémon advém de "pocket monster" (monstro de bolso, monstro pequeno) e era um jogo, da década de 1990, da Nintendo para o console GameBoy. Afora a diversão que o aplicativo pode proporcionar fato é que, como ocorre com qualquer inovação tecnológica, há situações fáticas e jurídicas curiosas, questionáveis e que geram controvérsias e preocupações. Houve relatos de que uma mulher, ao sair pela cidade caçando os monstrinhos, teria encontrado um corpo de alguém que havia sido assasinado há pouco; pessoas que foram vítimas de crimes ao serem levadas a lugares remotos por criminosos, que os roubaram; também há relatos de pessoas se machucando e até mesmo morrendo porque não prestaram atenção no que estava a sua frente ao jogar. Veja-se que os problemas aqui são diversos: desde se tornar vítima de crime até mesmo tornar-se um criminoso (ao invadir uma propriedade para caçar os Pokémons). Mas, para além das situações que envolvem crimes, há, ainda, a questão da política de privacidade e termos de uso do aplicativo, que na sua primeira versão foi bastante abrangente. Contudo, apesar de rastrear o jogador constantemente, o aplicativo coleta menos dados que o Facebook, por exemplo (que acessa nossas listas de contatos, telefone, operadora de telefonia, entre outros). Fato é que o jogo nada mais é que mais um aplicativo que obtém muitos de nossos dados. Já estamos habituados com isso na medida em que todos os "serviços gratuitos" cobram, na verdade, nossa privacidade em troca. A questão que se coloca não somente ao Pokémon Go é até onde isso vai chegar e violar nossos direitos ou nos expor em demasia. Afinal, quando um aplicativo pede acesso à nossa câmera ou quando jogamos em grupos, as imagens e a localização poderão acabar sendo compartilhadas (ou usurpadas, subtraídas) com quem não desejamos e, especialmente com criminosos. Eis a importância destas empresas que disponibilizam os aplicativos estarem em conformidade com a legislação e normas técnicas de proteção de dados. Isso, no entanto, não exime o usuário de fazer escolhas prudentes dos aplicativos e serviços que utilizarão e de gerenciar os acessos ao GPS, câmera, etc. Por hora, aos jogadores - sejam de Pokémon Go ou outros aplicativos - é importante não se arriscar, não utilizando em situações de risco (dirigindo, em lugares ermos, perto de penhascos ou de onde se possa cair), não invadir propriedades alheias para caçar os monstrinhos (ainda que a invasão signifique um rápido ingresso a uma única dependência, como uma sala), não fotografar pessoas ou locais que possam expor a privacidade de outros, etc. Manter seguro e atento é a regra. E, acima de tudo, vamos pensar com a devida cautela sobre a captação e uso de nossos dados pessoais por aplicativos e serviços.
Um tema que, sem sombra de dúvidas, é um dos mais importantes nos últimos tempos é a proteção aos dados pessoais. No atual estágio tecnológico parece mais do que claro a importância dos dados para os negócios. Não à toa muito se fala em análise de dados num contexto de "Big Data". Assim, é fundamental que exista uma regulamentação sobre os dados pessoais justamente porque é preciso permitir que o cidadão tenha algum controle sobre como as suas informções são utilizadas pelas instituições, sejam elas públicas ou particulares. A existência de uma lei de proteção aos dados pessoais objetiva padronizar requisitos a serem implementados para o adequado uso de dados pessoais e, também, para atribuir a devida responsabilidade em casos de mau uso. Nesta perspectiva é fundamental uma normatização sobre as finalidades de uso dos dados, sobre a necessidade de ambiente seguro e controlado e, provendo garantias ao cidadão de que será protagonista das decisões sobre o uso das suas próprias informações. Tais colocações podem até soar óbvias, mas o fato é que poucas pessoas, de fato, conhecem ou tem a oportunidade de conhecer a exato utilização de seus dados pessoais. Então, em resumo, a maior benesse que se pode ter com a edição de uma lei que proteja os tais dados é equilibrar a assimetria existente entre os titulares e dos que se utilizam dos dados. Sobre a importância do tema já tivemos a oportunidade de discorrer aqui na coluna. Neste contexto e sob estas premissas é que, em abril, a europa aprovou a "General Data Protection Regulation" (GDPR) que, no entanto, só vigorará a partir de 2018 para que todos possam se organizar para cumprir suas normas. As grandes empresas como o Facebook e o Google terão que se adaptar às novas normas caso desejem continuar prestando serviços em solo europeu. Embora as novas disposições não obriguem países não europeus, será muito mais plausível que as grandes empresas adotem, paulatinamente, melhorias em outros países. Além disso, sendo a União Europeia um importante bloco econômico, naturalmente, outros países tendem a se inspirar nas suas normas para a confecção de suas legislações. Aliás, esse é o caso do Brasil, cujo projeto de lei 5276/2016 é oriundo do anteprojeto elaborado pelo Ministério da Justiça e que foi claramente inspirado no modelo europeu. Pode-se dizer que o GDPR focou nos principais grupos do mercado digital, grupos estes que se utilizam de inúmeras ferramentas para rastrear dados dos usuários sob o argumento de lhes prover uma "melhor experiência de navegação" que, em outras palavras, nada mais é que direcionamento mais preciso, segmentado, de produtos. Quanto ao direito dos cidadãos, estes terão mais informações sobre como seus dados são processados, informação esta que deverá ser de fácil acesso e em linguagem que facilite a compreensão. Além disso, passou a considerar dados genéticos e biométricos como pessoais e, portanto, protegidos pelas normas do GDPR. Há, ainda, a possibilidade de que os usuários se valham da portabilidade para transferir seus dados de um serviço para outro. Quanto a isso, ainda precisaremos aguardar para verificar a viabilidade técnica já que as empresas, muitas vezes, precisarão adaptar seus bancos de dados em razão de utilizarem padrões distintos. Essa norma parece ter poder de causar alguma dificuldade de cumprimento. Vamos aguardar para ver. Sobre o direito ao esquecimento, hoje vigente na União Européia em decorrência do caso Mário Costeja X Google Spain julgado pelo Tribunal de Justiça Europeu, a nova normativa esclarece alguns pontos e aumenta seu escopo, além de positivá-lo. Há, ainda, norma que declara o direito dos usuários saberem se seus dados foram "vazados" ou "hackeados" já que se previu a implementação do "data breach notification", isto é, a obrigação de comunicar o usuário sobre o vazamento para que ele possa tomar medidas que visem resguardar seus direitos (previsão contida no projeto de lei brasileiro mencionado e, ainda, em diversos estados norte-americanos). Sobre o consentimento, este é fundamental na nova normativa porque exige o legítimo interesse para a utilização dos dados, ou seja, não se considera que eles são livremente concedidos para os prestadores dos serviços que os exigem (também previsto no projeto brasileiro). Talvez o ponto mais importante seja o fato de que o GDPR criará um regime único para todos os países que integram a União Europeia, não se tratando de uma diretiva, mas de uma legislação que abrangerá todo o bloco. Evidentemente, essa uniformização favorece os usuários além de trazer segurança jurídica. Além disso, o nível de algumas obrigações será proporcional ao risco envolvido na atividade de processamento de dados pessoais, o que é razoável sob a perspectiva da análise de risco e da proporcionalidade, evitando obrigações muito onerosas em situações de riscos menores (também previsto no projeto de lei brasileiro). Importante previsão de direito é o do "privacy by design", ou seja, as medidas protetivas da privacidade e dos dados pessoais deverão ser inseridas nos equipamentos desde sua concepção (também previsto no projeto de lei brasileiro). Não se deixou de prever pesadas multas para os casos de descumprimento, podendo as mesmas chegarem a vinte milhões de euros ou até quatro por cento do faturamento mundial da empresa (para algumas delas essa previsão poderá fazer com que as multas cheguem à casa dos bilhões). Com tantos direitos para os cidadãos era esperado que também adviessem obrigações e responsabilidades. Há uma série de regras destinadas aos responsáveis pelo tratamento dos dados, o que inclui muito do que se mencionou acima, mas agora com vistas a quem coleta e processa os dados. Por fim, no caso de transferência internacional de dados o GDPR exige que o país que receber os dados precisará conferir o mesmo nível de proteção, o que é salutar. A questão que se põe é: como isso será monitorado? Será algo de fiscalização factível? Ou bastará se verificar a existência de uma lei sobre o tema? Algo a ser conferido com o tempo... O GDPR vem em boa hora e espera-se que seja um verdadeiro marco na proteção de dados pessoais. Quanto à lei brasileira, fiquemos de olho no andamento dos projetos de leis que tratam do tema, em especial o 5276/2016, que nos parece o de maior probabilidade de conversão em lei.
A lei 12.965/14, conhecida como Marco Civil da Internet, é, indiscutivelmente, uma importante conquista legislativa para a sociedade, não só pela temática nela tratada, mas também porque foi composta de forma colaborativa, tendo recebido mais de duas mil e trezentas contribuições da sociedade. O Marco Civil da Internet representou, também, uma espécie de resposta pública ao escândalo da espionagem internacional dos Estados Unidos revelada por Edward Snowden, que incluiu o Brasil na lista dos países espionados. Cabe aqui a observação de que o projeto "Marco Civil" é anterior à descoberta da espionagem, mas sua aprovação e sanção representou um importante documento relacionado às liberdades civis. Assim, o Marco Civil da Internet estabeleceu princípios, garantias, direitos e deveres relacionados ao uso da Internet, sendo constituída, por exemplo, por normas referentes à neutralidade da rede, liberdade de expressão e privacidade dos usuários. Claro, aguns temas lá tratados já eram objeto de normas constituicionais e infraconstitucionais, mas o Marco Civil os reafirmou e os especificou. No entanto, apesar da ótima inovação legislativa, a lei carecia de regulamentação sobre os seguintes pontos: - art. 9º, §1º - As hipóteses de rompimento da neutralidade da rede; - art. 10, §4º - As medidas e procedimentos de segurança e de sigilo dos dados pessoais; - art. 11, §3º e 4º - O modo pelo qual os provedores de conexão e de aplicações deverão prestar informações sobre o cumprimento da legislação referente à coleta, à guarda, ao armazenamento ou ao tratamento de dados, bem como quanto ao respeito à privacidade e ao sigilo de comunicações; - art. 13 - A obrigação de manter os registros de conexão, sob sigilo, em ambiente controlado e de segurança; - art. 15 - A obrigação do provedor de aplicações de internet de manter os registros de acesso a aplicações de internet, sob sigilo, em ambiente controlado e de segurança, pelo prazo de seis meses, nos termos do regulamento. A redação do Decreto estava em andamento, mas não havia previsão para que fosse publicado neste momento. No entanto, com o ambiente político conturbado, especialmente pela questão do impeachment recém votado no Senado e que afastou a Presidente da República nesta quinta-feira, era natural que a chefe do Executivo quisesse registrar nos seus feitos a publicação do decreto. E foi assim mesmo, com uma edição extra do Diário Oficial da União veiculado na última quarta-feira, foi publicado o decreto 8.771. Entrará em vigor 30 dias após sua publicação (art. 22). Apesar da necessidade de regulamentação é preciso deixar claro que o Marco Civil já era eficaz e aplicável desde sua publicação. Claro, com alguns pontos ainda a serem detalhados, mas isso não impediu que tomasse corpo e fosse objeto de inúmeras decisões judiciais. Algumas até bastante questionáveis por aplicá-lo de forma extrema, se prestando a justificar até mesmo a suspensão do aplicativo WhatsApp, por exemplo. Sobre isso, vide o texto . Outra observação que normalmente seria desnecessária, é que o Decreto não pode ultrapassar as disposições legais eis que sua função é regulamentadora, jamais de inovação. Vamos aos dispositivos do Decreto. O Marco Civil havia disposto no art. 9º, §1º que a neutralidade é a regra, sendo a sua quebra uma exceção que somente poderia ser ultimada em duas situações: para atender requisitos técnicos indispensáveis à prestação adequada dos serviços e aplicações (inciso I) e, ainda, para a priorização de serviços de emergência (inciso II). O Decreto tratou do assunto nos arts. 4º a 10 e, em suma, determinou que "os requisitos técnicos indispensáveis à prestação adequada de serviços e aplicações devem ser observados pelo responsável de atividades de transmissão, de comutação ou de roteamento, no âmbito da sua respectiva rede, e têm como objetivo manter sua estabilidade , segurança, integridade e funcionalidade". Ou seja, em nada foi alterado o princípio da neutralidade, cabendo ao responsável atentar para requisitos técnicos que autorizam a limitação/discriminação do tráfego dos pacotes. E os requisitos são o "tratamento de questo~es de seguranc¸a de redes, tais como restric¸a~o ao envio de mensagens em massa (spam) e controle de ataques de negac¸a~o de servic¸o e para o tratamento de situac¸o~es excepcionais de congestionamento de redes, tais como rotas alternativas em casos de interrupc¸o~es da rota principal e em situac¸o~es de emergência". Caberá à ANATEL - Agência Nacional de Telecomunicações - fiscalizar e apurar as infrações relativas aos requisitos técnicos, considerando diretrizes estabelecidas pelo CGI - Comitê Gestor da Internet (§2º). A questão é: terá a ANATEL a capacidade e vontade política de efetivamente fiscalizar? O art. 6º do decreto estabelece que é possível o gerenciamento de redes para que mantenham sua estabilidade, segurança e funcionalidade, desde que utilizadas técnicas compatíveis com padrões internacionais desenvolvidos para o bom funcionamento da Internet e observados os parâmetros expedidos pela ANATEL e observadas as diretrizes do CGI. Neste particular, precisaremos acompanhar de perto as normativas da ANATEL sobre o tema. Com tais disposições, resta claro que o "zero rating" (isenção de utilização de franquia de dados para certos aplicativos), uma prática comum entre os provedores de Internet, está proibido. O art. 7º do decreto determina que os provedores atuem com transparência com o consumidor nas situações em que houver a necessidade de discriminação ou degradação do tráfego, devendo, inclusive, constar dos contratos com linguagem simples e de fácil compreensão. Sobre a discriminação/degradação, os provedores devem esclarecer quais são as práticas, seus efeitos e motivos que a justifiquem (parágrafo único). Por seu turno, o art. 8º explicita as situações em que poderá haver a discriminação/degradação em decorrência de situações de emergência, isto é, nos casos das "comunicac¸o~es destinadas aos prestadores dos servic¸os de emergência, ou comunicac¸a~o entre eles, conforme previsto na regu- lamentac¸a~o da Agência Nacional de Telecomunicac¸o~es - Anatel" ou "comunicac¸o~es necessa'rias para informar a populac¸a~o em situac¸o~es de risco de desastre, de emergência ou de estado de calamidade pu'blica" e, nestes casos, a comunicação será gratuita (parágrafo único). O art. 9º impede que os provedores de acesso e de aplicações "comprometam o cara'ter pu'blico e irrestrito do acesso a` internet e os fundamentos, os princi'pios e os objetivos do uso da internet no Pai's (I); priorizem pacotes de dados em raza~o de arranjos comerciais (II); ou privilegiem aplicac¸o~es ofertadas pelo pro'prio respon- sa'vel pela transmissa~o, pela comutac¸a~o ou pelo roteamento ou por empresas integrantes de seu grupo econômico (III). Já o art. 10 determina que as ofertas comerciais e os modelos de cobrança de acesso à Internet preservem seu caráter de unicidade, pluralidade e diversidade, com vistas ao desenvolvimento humano, econo^mico, social e cultural. O art. 11 determina que as autoridades administrativas com competência para a requisição de dados cadastrais (filiac¸a~o, enderec¸o e a qualificac¸a~o pessoal: nome, prenome, estado civil e profissa~o do usua'rio) deverão, por ocasião de requisições, indicar expressamente qual o dispositivo legal que as autoriza a tanto e fazer pedidos específicos (não genéricos). E, caso não coletem dados, deverão informar a autoridade requisitante. Já o art. 12 determina que a autoridade máxima de cada órgão adminsitrativo da administração pública fedeal deverá publicar relatórios estatísticos contendo o número de pedidos realizados, a listagem dos provedores de conexão de acesso ou aplicações aos quais dados foram requeridos, o número de pedidos deferidos e indeferidos e o número de usuários afetados por tais solicitações. No art. 13 temos as "diretrizes sobre padrões de segurança", que devem levar em consideração o porte do provedor destinatário, distinguindo-se o tratamento a eles conferido, nos termos de indicações do CGI. O art. 14 definiu dado pessoal como aquele relacionado "a` pessoa natural identificada ou identifica'vel, inclusive nu'meros identificativos, dados lo- cacionais ou identificadores eletrônicos, quando estes estiverem re- lacionados a uma pessoa" e tratamento de dados pessoais como "toda operac¸a~o realizada com dados pessoais, como as que se referem a coleta, produc¸a~o, recepc¸a~o, classificac¸a~o, utilizac¸a~o, acesso, reproduc¸a~o, transmissa~o, distribuic¸a~o, processamento, arquivamento, armazenamento, elimina- c¸a~o, avaliac¸a~o ou controle da informac¸a~o, modificac¸a~o, comunicac¸a~o, transfere^ncia, difusa~o ou extrac¸a~o". O art. 15 determina que os dados pessoais mencionados no art. 11 do Marco Civil deverão ser mantidos em "formato interopera'vel e estruturado, para facilitar o acesso decorrente de decisa~o judicial ou determinac¸a~o legal". O art. 16 estabelece que "as informac¸o~es sobre os padro~es de seguranc¸a ado- tados pelos provedores de aplicac¸a~o e provedores de conexa~o devem ser divulgadas de forma clara e acessi'vel a qualquer interessado, preferencialmente por meio de seus si'tios na internet, respeitado o direito de confidencialidade quanto aos segredos empresariais". Por fim, os arts. 17 a 19 determinam que a Anatel será a responsável pela regulação e fiscalização na apuração de infrações nos termos da lei 9.472/97; que a Secretaria Nacional do Consumidor atuara' na fiscalizac¸a~o e na apurac¸a~o de infrac¸o~es, nos termos da Lei nº 8.078/90; e que a apurac¸a~o de infrac¸o~es a` ordem econômica ficara' a cargo do Sistema Brasileiro de Defesa da Concorrência, nos termos da lei 12.529/11. Em suma, são pontos positivos do decreto o reforço na obrigação do tratamento isonômico dos dados, garantindo-se o caráter público e aberto da Internet; o esclarecimento de quais são os requisitos técnicos indispensáveis e o que se consideram de serviços de emergência para a discriminação ou a degradação de tráfego; o esclarecimento de que as ofertas comerciais e os modelos de cobrança de acesso à internet devem preservar uma internet única, de natureza aberta, plural e diversa; as definições de "dado pessoal" e de "tratamento de dados pessoais"; o estabelecimento de que o CGI é órgão consultivo para o estabelecimento de diretrizes; e, por fim, a declaração de atuação da Anatel, da Secretaria Nacional do Consumidor e do Sistema Brasileiro de Defesa da Concorrência, como órgãos relatórios e de fiscalização, de acordo com cada área de atuação aplicável ao caso em concreto.
sexta-feira, 15 de abril de 2016

Tempos sombrios no Direito Digital

Não é só na política que estamos vivenciando tempos obscuros. Neste mês tivemos duas péssimas notícias envolvendo tecnologia e Direito: a primeira diz respeito à chamada "CPI dos crimes cibernéticos" e a segunda refere-se ao posicionamento das operadoras em querer limitar o acesso à internet e violar o marco civil da internet. Sobre a CPI. Ela foi criada em 17 de julho de 2015 para apurar crimes e regulamentar punições a serem atribuídas a autores de crimes praticados com o uso da tecnologia. O requerente foi o deputado Sibá Machado (PT/AC) que fundamentou seu pedido esclarecendo que "a Polícia Federal realizou em 2014 a operação batizada de IB2K para desarticular uma quadrilha suspeita de desviar pela internet mais de R$ 2 milhões de correntistas de vários bancos, quadrilha esta que usava parte do dinheiro desviado para comprar armas e drogas". De fato, os crimes narrados são graves, mas, apesar da classificação dicotômica dos crimes digitais, sabe-se que haveria muito o que se fazer além de investigar o desvio de dinheiro mencionado. Há muito tempo já nos posicionamos no sentido de que, sem cooperação internacional, será sempre difícil a investigação tendo-se em vista que muito crimes são transnacionais (ao menos pelos provedores estarem em outros países). Aliás, o erro da CPI tem início na sua própria nomenclatura. Duvidamos que saibam os nobres deputados o que é a cibernética. A expressão "crimes cibernéticos" é utilizada de forma equivocada porque a cibernética não é sinônimo de tecnologia ou de computadores, mas uma teoria de Norbert Weiner, já em desuso. Sobre esta crítica, sugerimos a leitura da obra "Crimes Digitais" (Saraiva, 2011) de Marcelo Crespo e também do texto "Crimes Digitais: do que estamos falando?". Mas, evidentemente, há outras críticas a se fazer. Os trabalhos estão em fase final, tendo sido apresentado o relatório, havendo, no entanto, prazo até o próximo dia 26 para que sejam apresentadas contribuições à titulo de debates finais. O relatório mostra-se um tanto alarmente e praticamente descreve a Internet como um local voltado para a prática de crimes, o que - evidentemente - não é verdade. Aliás, é inacreditável como um assunto desta importância e desta temática não tenha sensibilizado a CPI para que convocasse criminalistas para participação. A OAB também não foi ouvida (apenas alguns membros de comissão). Um ponto de comentário necessário é quanto a sugestão de que se crie lei que obrigue provedores de conteúdo retirarem publicações ou postagens que supostamente violem a honra de alguém mediante simples notificação da parte, isto é, a obrigação da retirada seria administrativa e não dependeria de ordem judicial. Isto faz com que a platarforma exerça juízo de valor sobre as publicações, podendo empobrecer o conteúdo disponível na Internet e ofender a liberdade de expressão (que não é absoluta e poderá sempre ser analisada pelo Judiciário). Os equívocos da CPI e do relatório são tão expressivos que até mesmo o criador da Internet, Sir Tim Berners-Lee publicou carta com duras críticas, especialmente pelas propostas de alterações nas disposições do marco civil da internet. Ainda sobre os delitos com caráter transnacional, a CPI simplesmente se limitou a reproduzir dispositivos do Código de Processo Penal que tratam da competência, sem considerar, no entanto, que muitos dos crimes são cometidos com utilização de provedores estrangeiros e sem representação no país. É impressionante que mesmo em face de casos recentes como os do Facebook e WhatsApp, a CPI não tenha se preocupado com isso, mas apenas com medidas paliativas, como mudar a lei para determinar que filial, sucursal, escritório ou estabelecimento situado no País responde solidariamente pelo fornecimento de dados requisitados judicialmente de empresas com atuação no país e cuja matriz esteja situada no exterior. Ou seja, a única preocupação da CPI foi com fornecimento de dados cadastrair de eventuais criminosos. Não se pensou em cooperação jurídica entre países... Lamentavelmente só se pensou em alterar a lei para que a Polícia Federal tenha atribuição para investigação de crimes transnacionais e interestaduais. Evidentemente isso não resolverá a questão acima mencionada. Os erros crassos não param aí. Sob o argumento de que o que estimula a prática de crimes é a impunidade, sugeriram a vetusta, ineficiente e ineficaz medida de tornar hediondo o crime de pornografia infantil (no texto, equivocadamente tratados como "pedofilia"; sobre esta crítica, ver o artigo "O abuso sexual de menores e o equivocado uso do termo pedofilia"). Também se mencionou a necessidade da criação de tipo penal específico para a divulgação de fotos ou vídeos com cena de nudez ou ato sexual sem autorização da vítima (pornografia da vingança). Mas essa medida não resolverá o problema, tendo-se em vista que as divulgações tem amplo poder de viralização e o efeito deletério já terá ocorrido, mesmo que o autor responda a processo. Além disso, a demora em identificar e reponsabilizar o autor é que acabam impedidndo a punição dos autores. A criação, pura e simples, de um tipo penal, com certeza abslouta, em nada mudará o contexto. Repetiram a velha fórmula de vincular a ideia de que endurecer as penas de determinado crime resolve o problema da impunidade. Esqueceram apenas de todo o resto. A lei, por exemplo (lei 12.735/12), determina que os Estados organizem suas polícias para que tenham delegacias especializadas em investigações de crimes digitais. Não é preciso fazer pesquisa muito aprofundada para verificar que isso não ocorreu e, ainda, algumas das delegacias que são especializadas não têm pessoal nem equipamentos adequados. Muitas outras medidas "mágicas" são propostas. Claro que não surtirão o efeito desejado. Lamentavelmente foram meses de trabalho com poucas medidas que podem ser consideradas razoáveis e que poderão surtir efeitos concretos em benefício da sociedade. A outra notícia que mencionamos é a relativa ao consumo de dados decorente de navegação na Internet. O tema até foi tratado na CPI, no item 2.5.1, onde se registrou a preocupação da sociedade com as restrições ao uso da Internet. Para tanto até se mencionou a existência de projetos de lei que visam proibir as prestadoras de serviço móvel pessoal de interromper o acesso à Internet para o usuário que exceder a franquia de dados contratada. A deputada Mariana Carvalho, apresentou proposta de Fiscalização e Controle para que o Tribunal de Contas da União e a ANATEL unam forças para fiscalizar o controle da tarifação dos pacotes de dados da telefonia móvel. Vamos entender o caso. Historicamente, os planos de internet banda larga no Brasil sempre adotaram um formato de cobrança em que o cliente paga uma mensalidade fixa para usar a internet à vontade em uma velocidade pré-determinada. Assim, o consumidor tem liberdade para navegar a vontade. A ideia das provedoras de conexão é limitar esse uso, estabelecendo franquias de consumo de dados. Ou seja, querem limitar o quanto se pode usar a internet com os valores pagos pelos consumidores, de forma que ultrapassada a franquia a velocidade poderá ser reduzida ou até mesmo bloqueado o acesso. Seria o equivalente ao que já encontramos nos serviços de internet móvel, que é bastante limitado. Por isso as críticas. Isso ocorre por duas razões: as empresas não querem investir em infraestrutura para melhorar os serviços e, ainda, desejam lucros ainda maiores. O problema real é a péssima qualidade da internet brasileira somada à essa limitação. Vejam que são tempos sombrios também no Direito Digital. Haverá alguma esperança de mlehora? Não enxergamos isso à curto/médio prazo, lamentavelmente.
Desde quando Edward Snowden (ex-analista de sistemas da CIA e da NSA) revelou detalhes dos programas de vigilância da NSA a confiança das pessoas nas instituições foi abalada de forma importante. Isso porque o esquema teria envolvido renomadas empresas privadas (como Google, Facebook, Apple, Microsoft, Yahoo, entre outros) e, ainda, entidades governamentais de cinco países num grupo intitulado "Five Eyes" (FVEY), composto pela Agência Nacional de Segurança dos Estados Unidos (NSA), pela Sede de Comunicações do Reino Unido (GCHQ), pelo Escritório de Segurança das Comunicações do Canadá (CSEC), pelo Diretório de Informações Australiano (ASD) e pelo Escritório Governamental de Segurança das Comunicações da Nova Zelândia (GCSB). Com uma estrutura de vigilância deste porte, era natural que as pessoas se sentissem traídas, enganadas. Neste contexto, para que as empresas pudessem colaborar com os governos sem prejuízo para seus negócios em face da revolta de seus clientes, seria preciso não assumirem abertamente a condição de integrantes de um esquema de vigilância. A saída para isso foi a adoção de tecnologias de segurança da informação mais complexas que - ao menos virtualmente - nem mesmo as empresas pudessem violar. Em outras palavras, a forma pela qual as empresas entenderam que não perderiam clientes a despeito de colaborem com a espionagem foi o investimento (no marketing?) da tecnologia segura. Sob esta óptica é que se deve analisar o caso FBI x Apple, que ganhou repercussão mundial. Vamos ao caso. Em 02 de dezembro de 2015, em San Bernardino (CA) houve um atentado ultimado por um casal de atiradores - Syed Farook, de 28 anos, e Tashfeen Malik, de 27 anos - que resultou em catorze mortos e dezessete feridos. O local onde houve o tiroteio - Inland Regional - é o departamento público de saúde onde Farook trabalhava como inspetor de saúde e onde ocorria uma festa. Próximo aos atiradores foram encontradas nada menos que doze bombas caseiras, cinco mil balas de munição de calibre 22 e material para confecção de artefatos explosivos. Além disso, foi encontrado um iPhone 5C no veículo utilizado pelos atiradores para fugirem da polícia antes de serem mortos. O contexto sugere que o ataque tenha sido um ato terrorista, motivo pelo qual, com mais razão, a investigação pretendeu ter acesso ao conteúdo do iPhone de Farook. Esse é o ponto fulcral da história. O governo norte-americano pediu que a Apple fornecesse dados de Farook, o que foi atendido pela empresa. Tratavam-se de dados cadastrais do atirador. No entanto, o pedido não parou por aí... O governo passou a requerer que a Apple "desbloqueasse" o iPhone para que a polícia tivesse acesso ao conteúdo de possíveis mensagens que auxiliassem na investigação e até mesmo na localização de outros envolvidos (algumas testemunhas disseram ter visto três pessoas agindo no massacre). Ocorre que o "desbloqueio", na verdade, se trata de um pedido para que a Apple crie uma nova versão do software do iPhone (iOS), contornando vários recursos de segurança e instalando-o no aparelho recuperado pela polícia. E isso a Apple se negou a fazer alegando que a criação de uma versão do software nestes termos seria equivalente à criação de uma backdoor (um brecha sistêmica) que poderia vir a ser utilizada para acesso em qualquer outro iPhone. Ou seja, caso fosse criada a versão requerida, em tese, o governo norte-americano poderia acessar qualquer iPhone no mundo. Com isso estava armada a confusão e a dicotomia entre segurança pública/nacional x privacidade. Mas, afinal, a Apple tem como desbloquear o iPhone ou não? Para responder esta pergunta é preciso compreender que nas versões mais atuais do sistema iOS há um conjunto de chaves de criptografia que depende da inserção da senha do usuário. Em outras palavras, o aparelho não identifica qual é a chave até que a senha seja inserida porque a mesma só existirá no aparelho após informada. Não há como decodificar os arquivos sem esta senha, que, portanto, traz consigo uma das chaves criptográficas. Assim, é mais fácil (ou menos difícil) obter os dados de um telefone que nunca foi desligado e que já se encontra desbloqueado (porque a chave criptográfica está na memória). Não fosse um erro infantil do FBI esta história não seria tão longa. Depois que o aparelho é desligado ou tem sua bateria esgotada, a chave criptográfica sai da memória, só podendo ser resgatada com a senha. Além disso, o FBI tentou alterar a senha do serviço iCloud, o que impediu que o telefone sincronizasse dados com a nuvem (e tais dados poderiam constituir indícios ou provas do crime). Em suma, a Apple não tem a chave criptográfica e não tem como associá-la ao aparelho. Ademais, redefinir a senha não auxilia em nada porque a chave criptográfica ficou associada à senha antiga. Trata-se de sistema desenvolvido pela Apple após as revelações de Edward Snowden. A discussão é, portanto, complexa. Em face disso tudo, o governo norte-americano pleiteou ao Judiciário que determinasse que a Apple criasse a backdoor. Uma juíza federal deferiu o requerimento, determinando que a empresa forneça assistência técnica razoável na busca de prover ao FBI os dados pleiteados. A Apple, por eu turno, apelou de decisão. Não há uma decisão definitiva sobre essa questão, restando a seguinte dúvida: o que deve prevalecer? A segurança do sistema e os dados pessoais? Ou a segurança nacional? Parece que ambas as partes tem bons argumentos. Veja-se que o caso norte-americano é diferente do recente caso brasileiro onde o magistrado determinou a prisão do Vice-Presidente do Facebook no Brasil porque a empresa não teria colaborado atendendo determinação judicial para fornecer, ao juízo, dados de supostos criminosos. No caso brasileiro os autos encontram-se sob sigilo, de modo que os dados conhecidos são os noticiados pela mídia: uma nota publicada pelo Tribunal de Justiça de Sergipe (de onde foi proferida a decisão de prisão) e comentários dos advogados do Facebook. Ocorre que, nem um, nem outro, esclarecem de fato o que aconteceu. Há algumas inconsistências nas manifestações sobre o caso, mas algumas coisas são de comentários possíveis. A ordem de prisão decorreu de processo de natureza criminal onde se investiga crimes de tráfico de drogas e de organizações criminosas. Neste contexto, incide a lei nº 12.850/13 que trata justamente das organizações criminosas. Mencionada lei, no art. 2º, §1º determina que são punidos com penas de três a oito anos de reclusão e multa "quem impede ou, de qualquer forma, embaraça a investigação de infração penal que envolva organização criminosa". O magistrado sergipano não teve dúvidas e interpretou o artigo acima mencionado de forma literal, imputando ao Vice-Presidente conduta criminosa e determinando sua prisão sob o argumento de que até multas diárias altíssimas haviam sido impostas e, mesmo assim, a ordem judicial não teria sido cumprida. Mas o caso brasileiro é curioso justamente porque não tivemos acesso aos autos e, portanto, não podemos concluir se o juiz requisitou informações de fornecimento (im)possível ou se a requisição foi feita com precisão sobre o que se deseja. Por outro lado, não se justifica a negativa de cumprimento de ordem judicial, a menos que plenamente justificada, o que não parece ter sido o caso. Por outro lado, cabe, ainda, perquirir as razões pelas quais a empresa não teria esclarecido a impossibilidade do fornecimento. Afinal, o não cumprimento de ordem judicial somente se justifica apenas em razão da sua impossibilidade. Como teria a empresa respondido ao ofício? Ou jamais ofereceu qualquer resposta? Como não temos o acesso aos autos, as questões acima ficarão pendentes de esclarecimentos. Fato é que estamos em tempos de grandes questionamentos sobre segurança digital em conflito com segurança nacional, social. O mundo avança com tecnologias cada vez mais sofisticadas, mas as leis não acompanham este dinamismo. Algo precisa ser feito com rapidez para que situações como estas sejam evitadas. Isso não significa dizer que apenas as empresas tenham que ajustar, sendo fundamental que os governos prevejam formas mais dinâmicas de aplicação das suas leis resguardando os direitos fundamentais dos cidadãos.
sexta-feira, 19 de fevereiro de 2016

Ética e privacidade de dados

Em 1999 Scott Mcneally, o CEO da Sun Microsystems, deu declarações polêmicas afirmando inexistir privacidade quanto as dados pessoais. O executivo afirmou que as questões de privacidade de dados são uma falácia e que as pessoas têm privacidade zero, sugerindo que a discussão fosse deixada para trás. Naquela época o executivo foi duramente criticado pelo diretor do Departamento de Defesa do Consumidor da Comissão Federal de Comércio (Federal Trade Comission - FTC) dos Estados Unidos, que afirmou que suas declarações estavam fora de contexto. Ativistas engajados na proteção dos dados pessoais também proferiram duras críticas a ele. As declarações de Scott Mcneally foram especialmente polêmicas porque a Sun Microsystems é um dos membros da Aliança de Privacidade Online (Online Privacy Alliance), uma coalizão da indústria que busca a autorregulação da privacidade dos dados pessoais, pretendendo excluir a Administração Pública de regulá-la. Suas declarações foram, ainda, peculiarmente polêmicas porque o subsecretário norte-americano de Comércio estava na Europa para demonstrar aos governos estrangeiros que as empresas daquele país estavam engajadas com a segurança e privacidade. Então isso foi visto quase que como uma declaração de guerra. Foi, possivelmente, uma declaração infeliz em face do contexto que envolvia social e politicamente a empresa e o governo norte-americano. Mas, ainda que Mcneally estivesse certo - e às vezes parece que realmente não temos qualquer privacidade de dados - fato é que o respeito a eles não deveria decorrer da lei, mas deveria derivar da integridade e ética. Fato é que há registros de que houve, desde 2005, mais de oitocentos milhões de incidentes relativos a vazamento e exposição de dados de grandes empresas (várias bastante conhecidas dos brasileiros) conforme relatório da Private House Clearinghouse. O problema é de enormes proporções. Sobre a proteção de dados no Brasil, temos que a Constituição declara que são invioláveis a vida privada e a intimidade (art. 5º, X, CF), especificamente a interceptação de comunicações telefônicas, telegráficas ou de dados (artigo 5º, XII, CF), havendo, ainda, a ação de Habeas Data (art. 5º, LXXII, CF), que prevê o direito genérico de acesso e retificação dos dados pessoais. A Constituição protege, igualmente, os direitos relacionados à privacidade, proibindo a invasão de domicílio (art. 5º, XI, CF) e a violação de correspondência (art. 5º, XII, CF). No entanto, não há, até o momento, uma lei específica para proteção de dados pessoais já que nossa estrutura de proteção decorre de uma série de disposições esparsas e da interpretação da existência de uma cláusula geral de proteção à pessoa. Não há, portanto, uma estrutura unitária de proteção. Na Europa o direito à proteção dos dados pessoais é um direito fundamental extraído dos arts. 7º e 8º da Carta Europeia dos Direitos Fundamentais e regulada pela Diretiva 95/46/CE (trata da proteção das pessoas no que diz respeito ao tratamento de dados pessoais e à livre circulação deles). A Diretiva se aplica a todos os membros da União Europeia, além da Islândia, Liechtenstein e Noruega. Também o Regulamento (CE) n.º 45/2001 estabelece os mesmos direitos e obrigações, mas no nível das instituições e organismos da União Europeia. Os cidadãos que sentirem ter sua privacidade de dados violados, deve recorrer à Autoridade Europeia para a Proteção de Dados. Aliás, foi a queixa de um cidadão europeu ao Tribunal de Justiça da União Europeia que resultou na decisão que invalidou o "Safe Harbour" (Porto Seguro), que era o tratado entre Estados Unidos e Europa para a proteção de dados. Nesta perspectiva, em setembro de 2015 a Autoridade Europeia para a Proteção de Dados (European Data Protection Supervisor - EDPS) publicou um documento (Opinion 4/2015) intitulado "Towards a new digital ethics - data, dignity and technology" (Rumo a uma nova ética digital - dados, dignidade e tecnologia), que segue os princípios do documento anterior e que que tem como escopo apoiar as principais instituições da União Europeia em alcançar um consenso para estabelecer um conjunto de regras viável para reforçar os direitos e liberdades do indivíduo, orientada para o futuro. Vale mencionar que o texto (Opinion 4/2015) concentra-se fortemente no artigo 1º da Carta dos Direitos Fundamentais, ou seja, no princípio de que a dignidade humana é inviolável e deve ser respeitada e protegida, estabelecendo uma série de princípios que afirmam que os direitos fundamentais à privacidade e à proteção de dados pessoais devem refletir a proteção daquela (dignidade humana) mais do que nunca; que a tecnologia não deve ditar valores e direitos; que no atual contexto não basta a mera conformidade com as leis, sendo imperioso considerar a dimensão ética do processamento de dados; e, finalmente, que estas questões têm implicações de engenharia, filosóficas, jurídicas e morais. O texto, considerando uma série de desenvolvimentos recentes (como big data, a Internet das coisas, a computação em nuvem, os drones e os veículos autônomos conectados) estabelece, ainda, quatro níveis de proteção de dados, nos seguintes termos: a) regramento de processamento de dados e respeito aos direitos de privacidade e proteção de dados orientado para o futuro; b) responsáveis pelos dados que determinam o processamento de informações pessoais; c) engenharia de privacidade consciente e concepção de produtos e serviços de processamento de dados com respeito a privacidade; e d) cidadãos empoderados. Por fim, o texto propõe a criação de um Conselho Consultivo Europeu de Ética formada por profissionais acadêmicos, da área jurídica e outros para aconselhar a Autoridade Europeia de Proteção de Dados sobre as questões éticas de dados grandes e atividades conexas. Fica bastante claro, então, a preocupação ética com a proteção de dados pessoais no âmbito europeu. No Brasil, o Ministério da Justiça promoveu consultas públicas (já encerradas) sobre o texto do Anteprojeto de Proteção a Dados Pessoais, cuja última versão pode ser encontrada aqui. Vê-se que o Anteprojeto buscou inspiração no modelo europeu, especialmente na previsão de criação do Conselho Nacional de Proteção de Dados Pessoais e da Privacidade, a ser composto por quinze membros (art. 54). Apesar do anteprojeto não mencionar expressamente a dignidade humana (apenas na ementa), estabeleceu no art. 1º que seu objetivo é o de proteger os direitos fundamentais de liberdade e privacidade e o livre desenvolvimento da personalidade da pessoa natural, fundado nos princípios da autodeterminação informativa (I); da liberdade de expressão, comunicação e opinião (II); da inviolabilidade da intimidade, vida privada, honra e imagem (III); do desenvolvimento econômico e tecnológico; e da livre iniciativa, a livre concorrência e a defesa do consumidor (IV). É possivel remetê-lo, reflexamente, à dignidade humana. O modelo proposto no anteprojeto foi submetido à Casa Civil para que se torne Projeto de Lei. Resta-nos aguardar seu trâmite e verificar eventuais alterações no texto. De qualquer forma resta clara a inspiração no modelo europeu na busca pelo respeito à proteção dos dados pessoais e, assim, a pretensão de que a ética esteja mais presente no tratamento dos dados. Parece que é um sinal de luz no fim do túnel. É esperar para ver.
sexta-feira, 11 de dezembro de 2015

Criptomoedas: você ainda vai usá-las

Criptomoeda é a denominação utilizada para as moedas digitais, que são baseadas em protocolos criptográficos e algoritmos próprios e que utilizam a tecnologia para a circulação, em especial a internet. A mais conhecida é a bitcoin, mas há outras, sendo que o termo "altcoin" é usado para se referir a criptomoedas derivadas ou alternativas àquela. Como regra as criptomoedas são compostas por uma carteira digital, que é um programa que implementa algoritmos criptográficos denominado blockchain. Este é um banco de dados onde são armazenadas todas as transações já efetuadas com a moeda, sendo, ainda, uma rede peer-to-peer (ponto a ponto), onde as transações são publicadas. Cada carteira é composta por um par de senhas criptográficas, denominadas "endereço" e "chave privada", que formam a base criptografica da carteira. Assim, com o endereço é possível enviar criptomoedas para alguém, sendo que só podem ser recuperadas com o uso da chave privada. A perda da chave significa a perda de todo o conteúdo da carteira, razão pela qual é fundamental fazer uma cópia de segurança da mesma. Os primeiros registros sobre as criptomoedas remetem-nos ao bitcoin e datam de 1998, registros estes que foram encontrados na lista de discussão "cypherpunks". Lá se sugeriu uma modalidade de dinheiro que não dependesse de uma autoridade central que controlasse sua criação e transações. Um dos maiores enigmas por trás do bitcoin é a identidade do seu criador, até agora identificado apenas pelo nome de Satoshi Nakamoto, embora nos últimos dias se tenha afirmado que se trata de Craig Steven Wright, empresário australiano de 44 anos, residente em Sydney. Fato é que em 2008 Satoshi Nakamoto publicou um estudo que explicava os conceitos básicos da moeda digital. Nascia, então, em plena crise econômica, a criptomoeda. A desafiadora lógica em que se fundam as criptomoedas põe em xeque o fundamento dos sistemas monetários tradicionais, controlados por bancos centrais e fundados em moedas fiduciárias. Isto porque, diferentemente das moedas tradicionais, a versão digital é virtual, existindo apenas em decorrência de códigos transmitidos pela internet. Aliás, a autenticidade das transações é protegida pelas assinturas digitais, tornando possível que os usuários tenham controle de quanto dinheiro há em circulação. As criptmoedas são adquiridas, fundamentalmente, como pagamento de bens ou serviços, em operações cambiais, mas também é possível "minerar" a moeda, isto é, processar transações utilizando-se seu hardware para ganhar uma recompensa em critomoedas por este serviço. Evidentemente as criptomoedas possuem vantagens, como a liberdade de pagamento, taxas baixas, riscos menores para os comerciantes, segurança e controle, transparência e neutralidade. Por outro lado, também há desvantagens, como o grau de aceitação (já que muitos ainda desconhecem as moedas digitais) e a sua volatilidade. Grandes empresas no mundo já estão aceitando criptomoedas como forma de pagamento, embora alguns ainda questionem a licitude de sua utilização. Quanto a isso, não se pode dizer que sua criação (mineração) ou utilização, de per si, constituam crimes tendo-se em vista que não se subsumem a condutas insculpidas no código penal ou na legislação extravagente. Isso porque as moedas digitais não representam falsificação de moeda metálica ou papel moeda nos termos do art. 289, não sendo possível formar, com elas, os documentos previstos no art. 290 e art. 292, além de que os equipamentos destinados à mineração não constituem os petrechos para a falsificação de moeda. Também há preocupação das autoridades quanto ao uso de criptomoedas em atividades ilícitas, incluindo-se aí a "lavagem" de dinheiro mas, como dito, sua simples sutilização não pode ser rotulada como criminosa. Devemos mencionar, ainda, que as autoridades monetárias brasileiras ainda não vislumbram que o uso das criptomoedas represente risco ao sistema financeiro nacional, de modo que se conclui que a aquisição, utilização ou "mineração" das criptomoedas não configura ilícitos. É o que se extrai do comunicado nº 25.306 do banco central, de 19 de fevereiro de 2014, com esclarecimentos "sobre os riscos decorrentes da aquisição das chamadas moedas virtuais ou moedas criptografadas e da realização de transações com elas". Fato é que as criptomoedas estão em plena circulação e representam significativo impacto da tecnologia em nosso cotidiano. Por isso arriscamos dizer: você ainda vai usar criptomoedas. O tempo mostrará se estamos corretos. Despedimo-nos com o último texto da coluna Direito Digit@l deste ano, retomando em fevereiro de 2016. Desejamos a todos ótimas festas e muito sucesso no próximo ano!
sexta-feira, 13 de novembro de 2015

Bullying e cyberbullying na mira da lei

Em inglês bullying é um substantivo derivado do verbo bully, sendo que este, nos termos do Cambridge Advanced Learner's Dictionary, significa "machucar ou ameaçar alguém mais fraco para forçá-lo a fazer algo que não quer". Esta definição, no entanto, parece um tanto limitada já que o bullying pode ser praticado sem que haja a intenção de que a vítima faça, efetivamente, algo. Podemos dizer, então, que o bullying está relacionado a comportamentos agressivos e antissociais, inclusive por meio de agressões físicas, podendo ocorrer mediante violência psicológica, mas de maneira repetitiva e sem causa aparente. Diz-se que a prática é mais comum no meio ambiente educacional de crianças e adolescentes, mas não se exclui sua ocorrência em outros ambientes. Quando estes comportamentos intimidatórios ocorrem mediante o uso de aparatos tecnológicos, são denominados de cyberbullying. Tendo-se em vistas estas breves considerações iniciais, é preciso ressaltar que no último dia 09 de novembro foi publicada a pequena lei 13.185/2015, que tem vacatio legis de noventa dias e apenas oito artigos. A lei institui o Programa de Combate à Intimidação Sistemática, conhecida como "Bullying" e abrange as condutas praticadas no âmbito da internet e com o uso de aparatos tecnológicos. Muito embora a definição de bullying seja complexa e difícil como vimos acima, a lei assim o descreveu (art. 1º, §1º): "considera-se intimidação sistemática (bullying) todo ato de violência física ou psicológica, intencional e repetitivo que ocorre sem motivação evidente, praticado por indivíduo ou grupo, contra uma ou mais pessoas, com o objetivo de intimidá-la ou agredi-la, causando dor e angústia à vítima, em uma relação de desequilíbrio de poder entre as partes envolvidas." Verifica-se, de pronto, que a prática definida é a reiterada em razão da utilização da expressão "repetitiva". Ademais, é dolosa na medida em que foi definida como "intencional". Em outras palavras, atos isolados não são considerados bullying. Mas a lei exige, ainda, que a intimidação sistemática ocorra em relação de desequilíbrio de poder entre as partes, o que sugere que uma das partes é mais poderosa, seja porque fisicamente é maior ou mais forte, seja porque há uma quantidade maior de agressores, como um grupo. Resta a dúvida se o desequilíbrio de poder poderia restar configurado apenas em uma perspectiva moral/mental e não física. Parece-nos que sim. Apesar da lei parecer ter sido redigida para que fosse aplicada a crianças e adolescentes em situações havidas nos estabelecimentos educacionais (art. 5º), não há uma clara restrição que a impeça de ser aplicada a outros atores, inseridos em outros ambientes, tais como adultos em meio ambiente digital, como as redes sociais. Quanto a isto, aliás, há previsão expressa como veremos abaixo. As definições legais dos atos que configuram a intimidação sistemática são um tanto quanto amplas, de modo que a violência pode ser física ou psicológica, mas não se restringindo a essas hipóteses, incluindo-se aí discriminação e humilhação. Além da violência física ou psicológica em atos de intimidação, humilhação ou discriminação, também é considerado bullying a prática de ataques físicos, nos termos do art. 2º, (I); insultos pessoais (II); comentários sistemáticos e apelidos pejorativos (III); ameaças por quaisquer meios (IV); grafites depreciativos (V); expressões preconceituosas (VI); isolamento social consciente e premeditado (VII); e pilhérias (VIII). O parágrafo único do art. 2º ainda determina que "há intimidação sistemática na rede mundial de computadores (cyberbullying), quando se usarem os instrumentos que lhe são próprios para depreciar, incitar a violência, adulterar fotos e dados pessoais com o intuito de criar meios de constrangimento psicossocial". Há, ainda, uma classificação dos atos de intimidação, que restaram considerados como: a) verbais; b) morais; c) sexuais; d) sociais; e) psicológicos; f) físicos; g) materiais; h) virtuais. No que diz respeito à responsabilização a lei praticamente não trouxe inovações já que se ateve não incentivar a punição dos ofensores apesar de determinar que "é dever do estabelecimento de ensino, dos clubes e das agremiações recreativas assegurar medidas de conscientização, prevenção, diagnose e combate à violência e à intimidação sistemática". Essas medidas deverão ser perseguidas por meio dos objetivos previstos no art. 4º, isto é, as condutas de: (I) prevenir e combater a prática da intimidação sistemática (bullying) em toda a sociedade; (II) capacitar docentes e equipes pedagógicas para a implementação das ações de discussão, prevenção, orientação e solução do problema; (III) implementar e disseminar campanhas de educação, conscientização e informação; (IV) instituir práticas de conduta e orientação de pais, familiares e responsáveis diante da identificação de vítimas e agressores; (V) dar assistência psicológica, social e jurídica às vítimas e aos agressores; (VI) integrar os meios de comunicação de massa com as escolas e a sociedade, como forma de identificação e conscientização do problema e forma de preveni-lo e combatê-lo; (VII) promover a cidadania, a capacidade empática e o respeito a terceiros, nos marcos de uma cultura de paz e tolerância mútua; (VIII) evitar, tanto quanto possível, a punição dos agressores, privilegiando mecanismos e instrumentos alternativos que promovam a efetiva responsabilização e a mudança de comportamento hostil; (IX) promover medidas de conscientização, prevenção e combate a todos os tipos de violência, com ênfase nas práticas recorrentes de intimidação sistemática (bullying), ou constrangimento físico e psicológico, cometidas por alunos, professores e outros profissionais integrantes de escola e de comunidade escolar. Por fim, a lei esclarece que "serão produzidos e publicados relatórios bimestrais das ocorrências de intimidação sistemática (bullying) nos Estados e municípios para planejamento das ações". (art. 6º) e que "os entes federados poderão firmar convênios e estabelecer parcerias para a implementação e a correta execução dos objetivos e diretrizes do Programa instituído por esta lei". (art. 7º). Não há, portanto, muitas medidas práticas, sendo quase todas definições ou normas programáticas, mas fica formalizada a necessidade de se combater o bullying e o cyberbullying, demonstrando que são assunto sério. Fato é que apesar desta lei não trazer medidas concretas de responsabilização, não se pode negar que o sistema jurídico detêm mecanismos penais e civis para tanto, como são os casos dos crimes contra a honra e a previsão de responsabilidade civil, além, evidentemente, das normas contidas no Estatuto da Criança e do Adolescente.
A exemplo do que ocorreu nos Estados Unidos, a internet no Brasil também surgiu no meio acadêmico, quando na década de 1980 alguns pesquisadores brasileiros começaram a se organizar e interagir com o governo em busca da formação de uma rede que interligasse as universidades. Aliados a representantes da sociedade civil, demonstravam a necessidade de se conectarem por meio do protocolo TCP/IP. Na prática, no entanto, a internet surgiu quando a Fundação de Pesquisas do Estado de São Paulo (Fapesp) e o Laboratório Nacional de Computação Científica (unidade de pesquisa do Ministério da Ciência, Tecnologia e Inovação localizada no Rio de Janeiro) se ligaram a instituições de pesquisa nos Estados Unidos. Não muito tempo depois o governo criou a Rede Nacional de Pesquisa (RNP), que era ligada ao Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) com o intuito de disseminar o uso da Internet para fins educacionais e sociais. Foi assim que surgiu o primeiro backbone brasileiro, isto é, a "espinha dorsal" que nada mais é que a rede principal pela qual os dados de todos os clientes da Internet passam. Embora não haja números seguros, estima-se que haviam aproximadamente quatrocentas instituições interligadas no país em 1995, com um número próximo a cinquenta ou sessenta mil usuários, primordialmente voltados ao meio acadêmico. Foi somente em 1995 que os ministérios das Comunicações e da Ciência e Tecnologia lançaram o projeto de implantar no país uma rede global abrangendo outros usos que não o acadêmico. Por tal razão a estrutura da Rede Nacional de Pesquisa foi expandida e reconfigurada. O funcionamento da Internet comercialmente considerada foi noticiado na mídia. Naquela época a Empresa Brasileira de Telecomunicações - EMBRATEL ainda era estatal e iniciava testes com a internet. Nesta mesma época o governo decidiu criar o Comitê Gestor da Internet para que estivesse envolvido diretamente nas decisões referentes à implantação, à administração e ao uso da internet no país. Oficialmente foi em 31 de maio de 1995 que a portaria interministerial 147 criava o Comitê Gestor da Internet no Brasil, o CGI.br. O CGI.br é uma entidade multissetorial evitando-se que a internet nacional ficar nas mãos apenas do governo, do setor privado ou de pesquisadores. Trata-se de um modelo de governança bastante pesquisado e admirado internacionalmente. O CGI.br foi pioneiro em modelo de governança da internet, tendo sido criado até mesmo ante da Internet Corporation for Assigned Names and Numbers - Icann, que é uma ONG sem fins lucrativos estabelecida na Califo'rnia "responsável pela alocação do espaço de endereços de Protocolos da Internet (IP), pela atribuição de identificadores de protocolos, pela administração do sistema de domínios de primeiro nível, tanto genéricos (gTLDs) quanto com códigos de países (ccTLDs), e também pelas funções de gerenciamento do sistema de servidores-raiz". Inicialmente estes serviços foram desempenhados pela internet Assigned Numbers Authority - IANA em uma parceria do governo dos Estados Unidos. Agora a ICANN desempenha a função da IANA. Ao CGI.br cabe estabelecer diretrizes estratégicas relacionadas ao uso e desenvolvimento da internet no Brasil, bem como diretrizes para a execução do registro de Nomes de Domínio, alocação de Endereço IP e a administração do domínio ".br". Além disso, promove estudos faz recomendações para a segurança da Internet, propondo, ainda, programas de pesquisa e desenvolvimento que permitam a manutenção do nível de qualidade técnica e inovação no uso da internet. Veja aqui seu decreto regulamentador. Uma das principais movimentações do CGI.br quando da sua criação foi entender que era preciso criar uma estrutura para o ".br" ampliando os aconselhamentos, que inicialmente advinham em maior número da área acadêmica. Então se ampliou a multissetoridade. Com isso vieram novas ideias e se pode concluir que os domínios ".br" deveriam ser cobrados vez que, se fosse mantida a gratuidade, seria preciso que a gestão da Internet dependesse de recursos públicos, o que acarretaria a burocracia pública. Por isso decidiu-se que os domínios ".br" seriam cobrados mediante paga anual. O ".br" passou a se autosustentar e ganhou fôlego com o tempo, permitindo que que o CGI.br produzisse cartilhas e pudesse compilar dados e fazer estatísticas. O CGI tem e teve papel fundamental no sentido de coordenar as ações, gerar conscientização a respeito de problemas e conduzir ações conjuntas de governo, empresas e área acadêmica, o que permitiu, por exemplo, que o Brasil se tornasse um exemplo mundial de combate ao spam, o que se fez mediante decisão técnica de fechar a porta 25. Os governos de outros países teriam dificuldade de providenciar uma solução como esta. Além disso, o CGI.br teve grande importância para que adviesse o marco civil da internet, que decorreu, inicialmente, do seu decálogo somado ao envolvimento do Ronaldo Lemos e do Ministério da Justiça, que entenderam que era o momento de transformar parte daquilo em uma lei principiológica. O processo de criação do marco civil foi bastante participativo, com discussões públicas e contribuições da sociedade civil. Mais atualmente o CGI.br emitiu a resolução CGI.br/RES/2015/013 tecendo críticas ao Projeto de lei 215/2015 e seus apensos (PL 1547/2015 e PL 1589/2015), os quais tivemos a oportunidade de comentar em um texto na semana passada. Nesta resolução o CGI.br declara que o projeto em comento subverte "os princípios e conceitos fundamentais da internet, nos termos definidos pelo decálogo do CGI.br e consagrados no marco civil da internet, ao modificar o escopo da lei 12.965/2014 propondo estabelecer práticas que podem ameaçar a liberdade de expressão, a privacidade dos cidadãos e os direitos humanos em nome da vigilância, bem como desequilibrar o papel de todos os atores da sociedade envolvidos no debate, além de, como pretende o PL 1589/2015, alterar redação do artigo 21 da lei 12965/2014 para equivocadamente imputar responsabilidade ao provedor de conexão por danos decorrentes de conteúdo gerado por terceiros". Além de realizar as críticas, o CGI.br também trouxe recomendações. O Comitê Gestor da Internet no Brasil decide, em relação ao ambiente legal e normativo relativo à internet no Brasil, recomendar que: "a) Seja pautado pela garantia de proteção aos direitos básicos dos cidadãos tal como expressos na Declaração Universal de Direitos Humanos da ONU, entre eles o direito à privacidade e à liberdade de expressão, cláusulas pétreas na Constituição Federal do Brasil e um dos pilares do Estado Democrático de Direito. b) Observe e promova o caráter transparente, colaborativo e democrático, com ampla participação de todas as esferas do governo, do setor empresarial, da sociedade civil e da comunidade acadêmica, que pautaram a criação e a adoção da lei 12.965/2014, inclusive por isso transformando-a em paradigma internacional para a regulação da internet. c) Preserve o espírito da lei 12.965/2014, assegurando os direitos e garantias constitucionais aí inseridas, sobretudo a liberdade da expressão, a inviolabilidade da intimidade e da vida privada, a inviolabilidade e o sigilo do fluxo de suas comunicações pela internet e de suas comunicações armazenadas, salvo por ordem judicial em estrita observância ao devido processo legal nos termos da Constituição Federal, sob o risco de aumentarem as possibilidades de vazamento, abuso e uso político de dados de terceiros. d) Preserve, principalmente, o equilíbrio, alcançado com a lei 12.965/2014, entre: (i) a liberdade de expressão e a proteção à privacidade e aos dados pessoais; (ii) as atividades relacionadas à persecução criminal e o combate a ilícitos na Internet, bem como a própria dinâmica da internet como espaço de colaboração; (iii) a inimputabilidade dos provedores de conexão por danos decorrentes de conteúdo gerado por terceiros; e (iv) a inimputabilidade dos provedores de aplicações por danos decorrentes de conteúdo gerado por terceiros, sendo que os provedores de aplicação somente poderão ser responsabilizados civilmente se, após ordem judicial específica, não tomarem as providências no âmbito e nos limites técnicos do seu serviço, nos termos da seção III, capítulo III, da lei 12.965/2014. e) Não trate a internet de forma distinta de outros ambientes de interação social, o que poderia gerar redundâncias ou conflitos desnecessários no âmbito do Direito Penal brasileiro e, f) Leve em conta a natureza internacional e globalmente distribuída da internet e seja, assim, estruturado como parte integrante do ecossistema complexo de governança mundial da rede". Nota-se, assim, a evidente importância do CGI.br na proteção da boa governança da internet no Brasil. Eis, portanto, uma breve história da internet e do CGI.br no Brasil.