COLUNAS

  1. Home >
  2. Colunas

Humanidades e Novas Tecnologias

Temática da IA em uma abordagem multidisciplinar, envolvendo várias áreas das humanidades, com foco em Direito, Filosofia e Sociologia.

Paola Cantarini e Willis Santiago Guerra
Este texto é parte de minha participação como moderadora no evento realizado nos dias 17 e 18/10/24 em Fortaleza, VI SIAJUS, "Efeitos da assimetria informacional na sociedade e nas relações privadas", uma iniciativa da UNI7, AID-IA e Instituto Ethikai, e é parte de minha pesquisa de pós-doutorado na USP/RP, com bolsa FAPESP, onde apresento parte das conclusões de minha pesquisa. Apesar de um discurso crescente sobre as implicações éticas da IA, como se pode ver no trabalho de Heleen Janssen, Michelle Seng Ah Lee, Jatinder Singh, e nas iniciativas de organismos importantes como a Comissão Europeia e a UNESCO, continua a haver uma necessidade crítica de frameworks na área de "compliance", por exemplo, que integrem holisticamente os direitos fundamentais e as considerações ambientais. Por isso gostaria de agradecer a contribuição do professor Kevin, pois ele aponta com propriedade acerca da questão do hype da IA, a qual poderia nos desviar dos problemas que já estão presentes, e esta também é uma preocupação constante apontada por diversos pesquisadores, a exemplo do Instituto Alan Turing, do qual também atuo em um dos grupos de pesquisa. O Hype em torno da temática da IA poderá aumentar os riscos como nos casos citados do uso do chatgpt, utilizado, por exemplo por um advogado para elaborar uma petição judicial sem revisar ou checar os dados, criando jurisprudências inexistentes, o  que se tem denominado como "alucinações". Daí a importância de uma visão crítica como uma 3a via possível, em oposição a uma visão utópica ou distópica acerca da IA, ambas excessivas e cegas para o outro lado. Por isso destacamos a necessidade de uma abordagem crítica, interdisciplinar e holística, já que se consideramos na origem da IA com a cibernética como sendo uma disciplina holística, tal perspectiva seria a mais apropriada para a análise de cenários complexos. Na pós-modernidade os problemas são inéditos e não há fórmulas e respostas prontas e acabadas. É um "work in progress". E precisamos ampliar os olhares e colaborações para além da academia, democratizando a discussão e tornando a mesma mais inclusiva, inclusive ampliando o diálogo entre norte e sul, já que a maioria das produções científicas e iniciativas estão centradas ainda no norte global, falando-se em falta de diversidade epistêmica, essencial para se considerar a justiça algorítmica. Além disso, embora documentos recentes, como "Climate Change & AI: Recommendations for Government Issued" da Global Partnership on AI, tenham começado a reconhecer as dimensões ambientais da IA, os métodos práticos para atenuar esses impactos continuam a ser pouco explorados. É essencial procurar preencher esta lacuna, inovando em áreas onde a investigação anterior está limitada, oferecendo uma abordagem inovadora para garantir que o desenvolvimento da IA é consistente com a dignidade humana, a equidade social e o equilíbrio ecológico, e direitos fundamentais. Por isso postulamos por ampliar o olhar, indo além do "privacy by design and default" para os direitos fundamentais desde a conceção e "by design", de modo a considerar o potencial impacto da IA em todos os direitos fundamentais, considerando inclusive o impacto ambiental (Direitos humanos nas estratégias nacionais de IA Fonte: Bradley et al., 2020; "Getting the future right", Agência da União Europeia). Se olharmos as iniciativas constantes da visão estratégica da Alemanha para a IA, bem como na proposta dos EUA, os projetos de lei no Brasil e no AI ACT da EU, por exemplo, embora salientem em uma direção que beneficia o bem comum, colocando as pessoas em primeiro lugar e discutindo uma abordagem centrada no ser humano (human centric AI), esta abordagem é ainda insuficiente e precisa de ser alargada para uma perspectiva de "IA centrada na vida", "life centered AI". Embora a perspectiva "alemã" acerca da ética da IA sublinhe que as questões éticas e jurídicas da IA andam de mãos dadas, é necessário adotar medidas concretas para transformar as agendas e os princípios éticos em medidas eficazes, evitando práticas designadas por "lavagem ética" (Luciano Floridi), e da mesma forma a lavagem no "compliance". Por isso, é importante antecipar os riscos potenciais, analisando-os agora, em vez de nos concentrarmos num futuro distópico de riscos existenciais, que nos poderia distrair do problema atual. Embora a perspectiva da "IA centrada no ser humano" seja importante, significando o controle humano da tecnologia e o respeito pelos valores humanos, essa perspectiva é insuficiente, pois não considera na maior parte o impacto ambiental e não está alinhada com uma abordagem sustentável a longo prazo (sustentabilidade ambiental, social e econômica), uma vez que não aborda a noção de multidimensionalidade dos DF, nos aspectos individual, coletivo e social. No que diz respeito à abordagem da União Europeia e da Alemanha, apesar de suscitarem preocupações com o ambiente, não há qualquer referência à forma como tal perspectiva seria realizada na prática, nem há maiores considerações acerca da necessária elaboração prévia de uma análise de impacto da IA.
INTRODUCTION This article aims to bring critical reflections, with the theoretical framework based on the works and the surveillance course taught by Professor David Lyon in 02/2024, held at USP Ribeirão Preto in CEADIN, coordinated by myself together with Professor Nuno Coelho. David Lyon is the principal investigator of the Big Data Surveillance Project, emeritus professor of sociology and law at Queen's University, former director of the Surveillance Studies Centre, and one of the foremost specialists on the topic. The objective is to present reflections on some of his main works, in dialogue with other authors who study the subject, involving stages prior to the digital surveillance society, especially regarding Foucault's thoughts on his studies of the society of normalization, discipline, and regulation, and its evolution in the works of Deleuze and Byung-Chul Han, with the perspective of the control society and the digital panopticon, analyzing concrete paradigmatic cases to combine theoretical analysis with practice, in the sense of "phronesis," meaning practical knowledge for the Greeks. Surveillance is a key dimension of the modern world and is currently closely related to big data (Big Data Surveillance Project, Surveillance Studies Centre, Canada), such as AI applications like facial recognition and predictive policing, in terms of surveillance now characterized as massive surveillance, under the slogan "collect everything," through the analysis and access of a vast volume of personal data. Besides a general vulnerability due to informational ubiquity and asymmetry in such a relationship, there is also an increasing use of AI applications enabling real-time prediction and automation of results and modulation of human behaviors, intentions, and emotions (neuromarketing, captology, data brokers, affective computing), bringing new specific vulnerabilities, raising various issues that go far beyond the protection of individual fundamental rights, such as privacy and data protection, involving modern democratic principles and the limits of such surveillance in a Democratic State of Law, as the lack of transparency practically eliminates the possibility of control, accountability, and responsibility in cases of abuses or errors. These topics must be critically considered in light of new colonialisms (data, carbon, biocolonialism), as countries with a historical past of discrimination against parts of the population are more fragile, as stated in a recent study by the Security Observatories Network. I AM SEEN, THEREFORE I EXIST - MASS LIQUID SURVEILLANCE The main characteristic of current security intelligence is the extensive collaboration with technology companies, which store, process, and use our digital footprints, relying on big data, expanding the previous focus on collaboration with telecommunications companies, such as AT&T, which collaborated with the USA, the subject of a lawsuit filed by the Electronic Frontier Foundation (EFF). The lawsuit, however, was dismissed based on the approval by Congress of the controversial Foreign Intelligence Surveillance Act (FISA) of 1978, granting retroactive immunity to AT&T and allowing the Attorney General to request dismissal of the case from 2008 onwards, if the government secretly certifies to the court that the surveillance did not occur, was legal, or was authorized by the president, whether legal or illegal. Based on retroactive immunity for cases involving criminal liability, the possibility of criminalization based on the law prohibiting warrantless wiretaps was nullified, with the law being replaced by the presidential order, whether legal or illegal, undermining the foundations of the separation of powers and the Rule of Law. This immunity becomes the rule, being increasingly used by governments to enable their mass surveillance activities. Retroactive immunity reveals the illegal origin of mass surveillance, operating in an anti-law zone, blurring the lines between legal and illegal surveillance, as such practices exist in a kind of "gray area." One example of the growth of surveillance technologies and the hegemonization of this business model based on big data is the growth in the offer of informational services and software to public education institutions "for free" by the largest data technology companies in the world - known by the acronym GAFAM (Google, Apple, Facebook, Amazon, Microsoft), with the counterpart being full access to the personal data of thousands of users, affecting what can be understood as state sovereignty, as Big Techs are mostly in the USA and increasingly in China, in an obscure relationship, without data being provided to verify the details of such operation, as no data is officially disclosed by the companies or institutions. There is an asymmetry of power and knowledge, given the evident disparity between what companies operating under the surveillance capitalism system know about us and what we know about what they do with our personal data, and a deepening of north-south asymmetries. As some research points out, the inequalities and potential affront to human and fundamental rights in the field of AI are more problematic in Global South countries, having a greater impact in places where there is a systematic denial of rights to communities with a history of oppression (NOBLE, Safiya Umoja, 2018). The agreements between companies and Brazilian universities, especially regarding Google Suite for Education and Microsoft Office 365 for Schools & Students, reveal how such relationships are opaque, real black boxes, lacking the fundamental requirement for speaking of trustworthy AI, which is transparency, especially for those whose personal data is being used, as pointed out by the Electronic Frontier Foundation report (Spying on Students: School-Issued Devices and Student Privacy). In this sense, David Lyon, in the course held by CEADIN - Advanced Center for Studies in Innovation and Law at the University of São Paulo, Law School, Ribeirão Preto campus, points out that originally, in the 1990s, surveillance was defined as systematic and routine attention to personal details with the intention of influencing, managing, protecting, or directing individuals, involving targeted, systematic, and routine observation for various purposes, including influencing social media, labor relations, and organizational behavior. Although generally associated with entities like the police, security agencies, border controls, and similar, surveillance can also influence life choices, purchasing decisions, or work, with its concept later expanded to include both the operation and experience of surveillance, involving the collection, analysis, and use of personal data to shape choices or manage groups and populations. In the modern or postmodern era, 21st-century surveillance is characterized by its ubiquitous nature, involving a "surveillance culture," a new dimension of surveillance now relying on our voluntary participation as a fundamental factor, with personal data being its main ingredient. Smartphones, for example, have become the predominant surveillance devices due to their widespread adoption, with their data analysis capacity used by large companies, public and private entities, and government agencies to monitor individuals, often without any indication of being suspects. Among David Lyon's various works, "Liquid Surveillance" stands out, co-authored with Zygmunt Bauman (LYON, BAUMAN, 2014), resulting from successive exchanges of messages, dialogues, and joint activities, such as participation in the 2008 biannual conference of the Surveillance Studies Network. The authors point to the new phase of liquid, mobile, and flexible surveillance, infiltrating and spreading across various areas of our lives, becoming an increasingly present aspect, assuming ever-changing characteristics, differentiating from the old panopticon form studied by Foucault and Deleuze. According to Foucault, in studying disciplinary, regulatory, and normalization societies, the panopticon is one of the main instruments of disciplinary power, a surveillance mechanism that allows seeing without being seen, producing the effect of a constant state of visibility. The architecture is designed so that light passes through. Everything must be illuminated; everything must be visible. In the transparency society, nothing should be left out. For Deleuze, in his "Postscript on Control Societies," control societies are characterized by informatics and computers, as a mutation of capitalism. In control societies, the essential is no longer a signature or a number, but a code: the code is a password. Individuals have become "dividuals," divisible, and masses have become samples, data, markets, or "banks." The characteristic of the digital panopticon, according to Byung-Chul Han when speaking of the "transparency society," is to allow the globalized reach of digital winds, transforming the world into a single panopticon: "there is no outside of the panopticon; it becomes total, with no wall separating the inside from the outside." Network giants like Google and Facebook present themselves as spaces of freedom, but they can also be instruments of adopting panoptic forms, such as the revelations made by Edward Snowden in 2013 about the PRISM project, whose program allowed the United States National Security Agency (NSA) to obtain practically anything it wanted from internet companies. A fundamental feature of the digital panopticon is the total protocolization of life, replacing trust with control, following an efficiency logic. The possibility of a total protocolization of life entirely replaces trust with control. Instead of Big Brother, there is big data. We live the illusion of freedom, based on self-exposure and self-exploitation. Here, everyone observes and surveils everyone else. The surveillance market in the democratic state has a dangerous proximity to the digital surveillance state. Instead of biopower, there is psychopower, as it can intervene in psychological processes. It is more efficient than biopower as it surveils, controls, and influences the human being not from the outside, but from within. Era of digital psychopolitics. Large volumes of data are thus a decisive factor of change. From the ubiquitous barcode allowing the identification of products by type or factory, we have evolved to radio frequency identification (RFID) chips, comprising individual identifiers for each product, and to quick response codes (QR, Quick Response Code), sets of symbols placed on products and scanned by smartphones to access certain websites. These codes reveal different uses and applications of monitoring, for example, for customer convenience, such as reducing queues in supermarkets. Therefore, Big Data can be defined as data resulting from its ubiquity. Its amount and speed are the main characteristics, but what matters most are the new applications they enable, such as predictive policing and neuromarketing, as pointed out in the Big Data Surveillance Project, with Lyon highlighting that data results are mainly characterized by the combination of databases from various sources, often merged into a single source. Therefore, big data is both complex and complicated, characterized by the immensity of data, capturing details of our lives in vast amounts, almost impossible to compute. This phenomenon of surveillance capitalism, a new "non-violent" economic and social order, was denounced in the 2018 work "The Age of Surveillance Capitalism," by Shoshana Zuboff. Shoshana reveals an economic system based on the commodification of personal data with the primary purpose of making a profit, involving an emergent logic of accumulation with unprecedented power, through means of extracting and commodifying personal data to predict and modify human behavior, using big data analytics. Therefore, there are several consequences, revealing significant problems for democratic societies, pointing to the influence of new information technologies on our understanding and reality of freedom, power, democracy, and control, both in individual and social terms. As a response, we must be aware and critically reflect on the digital surveillance society. Digital surveillance is one of the fundamental dimensions of our contemporary society, involving new forms of vulnerabilities and new models of organization, as well as fundamentally modifying democracy itself. These relationships must be critically analyzed so that we are not limited to digital sociotechnical black boxes. Regarding the new mass surveillance system, Snowden, in his book "Permanent Record," states that we have moved from targeted surveillance of individuals to mass surveillance of entire populations, with national identity cards being a central factor. These combine high-precision technology with embedded biometrics and RFID chips, justified by arguments for better accuracy, efficiency, and speed, as well as immigration control, anti-terrorism measures, and e-government. However, despite these alleged benefits, there are numerous potential dangers, including unforeseen financial costs, increased security threats, and an unacceptable imposition on citizens, making independent and continuous risk assessment and regular review of management practices essential (LYON, David, BENNETT, Colin J. 2008). There is talk of a true 'Card Cartel' involving the state, companies, and technical standards, generating significant controversies in countries such as Australia, the United Kingdom, Japan, and France. I am seen, therefore I exist. This phrase reflects the desire to be seen on social networks, leading to the voluntary and even enthusiastic sharing of personal data, which is used by the market to personalize ads with high potential for manipulating choices (through seduction, not coercion), thus commoditizing our lives and personas. At the same time, there is consumer surveillance, in a positive sense, directed at the consumer market, and in a negative sense, concerning those who do not conform to expectations, resulting in "rational discrimination" and creating a negative spiral where the poor become poorer, and wealth concentration increases (LYON, David, 2005). Algorithms are part of the essential infrastructure of security surveillance, using algorithm-based alerts to detect suspicious activities and control the movements of suspects. Related to surveillance in the big data era, issues of inferences and profiling stand out, through the enormous amount of personal data, which is amplified by the questionable role of data brokers who sell personal data in unethical and illegal activities, as there is no necessary real consent (informed, fragmented, and with new consent required for each new purpose and change of the company benefiting from such data). These data are used in analysis via deep learning through quantitative optimization to enhance behavioral and emotional manipulation, meaning personalized ads are made to maximize the probability of a purchase or time spent on a social network, being a fundamental fact in creating previously nonexistent desires. As Morozov points out (MOROZOV, Evgeny, 2018, p. 33 et seq.), in 2012, Facebook entered into an agreement with Datalogix, allowing them to associate what we buy at the market with the ads displayed on Facebook. Similarly, Google has an application that allows the analysis of nearby stores and restaurants to recommend offers. In turn, several interesting cases are cited by Kai-Fu Lee in his book "2041: How Artificial Intelligence Will Transform Your World" (LEE, Kai-Fu, 2022), and although it is a book with fictional stories, it brings information, examples, and scenarios that already occur in reality. For example, there are AI-based fintech companies like Lemonade in the United States and Waterdrop in China, aimed at selling insurance through apps or obtaining loans with instant approval. In the chapter "Quantum Genocide," Kai-Fu Lee states that technology is inherently neutral, following what Jose van Dijck calls "dataism," which corresponds to the belief in the "objectivity of quantification," and what is termed "solutionism," imagining that the solution to all social problems lies in data and analysis of results, not in causes. He argues that "disruptive technologies can become our Promethean fire or Pandora's box, depending on how they are used." He cites the example of the Ganhesha insurance with the objective function of the algorithm being to reduce the insurance cost as much as possible. Consequently, with each behavior of the insured, the insurance cost increases or decreases, besides being linked to several applications, sharing user data, encompassing e-commerce, recommendations and coupons, investments, ShareChat (a popular Indian social network), and the fictional FateLeaf, a divination app. One of the possible alternatives mentioned by the author to balance such an objective function aimed at maximizing corporate profit would be to teach AI to have complex objective functions, such as lowering insurance costs and maintaining justice. However, he believes that such a requirement would only be possible through regulation, as it would run into commercial interests, preventing voluntary action. He also mentions the important role of corporate responsibility, such as ESG - Environmental, Social, and Corporate Governance. In the book "Big Data Surveillance and Security Intelligence - the Canadian Case" by David Lyon and David Murakami Wood (LYON, David, MURUKAMI, D. 2020), the change in surveillance practices with the use of "big data" and new data analysis methods to assess potential risks to national security is emphasized. The "Five Eyes" partnership involving Australia, Canada, New Zealand, the United Kingdom, and the United States stands out, with the interconnection between "security intelligence" and "surveillance," now including internet monitoring and, especially, social networks, linked to personal data analysis. The notion of security expands to encompass a series of new domains, allowing the use of torture and interrogation as extraordinary means, as happened with the Canadian Maher Arar after the September 11, 2001 event, considered a suspect. The connection of national security activities with big data and surveillance, now in terms of "mass surveillance," is corroborated by the revelations of American security agents like William Binney, Thomas Drake, Mark Klein, and Edward Snowden, including the use of metadata from the study of more than 500 documents disclosed by Snowden that show how metadata can be used to build detailed profiles of the lives of those under surveillance (LYON, David, MURUKAMI, D. 2020). On the other hand, there are several initiatives to legalize state mass surveillance activities, such as in Canada, with bill proposals in 2009 (Bill C-46, "Investigative Powers for the 21st Century Act" and Bill C-47, "Technical Assistance for Law Enforcement in the 21st Century Act"), with emphasis on Bill C-51 of 2019, giving intelligence authorities more powers domestically and internationally and immunity from liability for the use of these powers, resulting in Bill C-59 (National Security Act, 2017), following a trend or global wave of legalization, such as the "Big Brother Laws" in France (anti-terrorism measures enacted after 2015) and Japan's surveillance laws - the Secrecy Law, the 2016 Wiretapping Law, expanding the categories of crimes subject to wiretap investigations by the police, legitimizing wiretap means in criminal investigations, and authorizing, in sum, the police to potentially eavesdrop on everyone's conversations. However, despite the mentioned legal foundation, there is a lack of transparency measures, involving, for example, demonstrating that security measures have been adopted regarding the personal data used, so as not to violate the Canadian Charter of Rights and Freedoms, as well as international human rights treaties, and proving that the so-called "four-part constitutional test" has been respected, demonstrating that the secrecy or other adopted security measures are minimal, proportional, necessary, and effective. There is a lack of information about what content is intercepted, what types of metadata are stored, where the data is stored and for how long, data disposal methods, which organizational entities have access to the data and for what purposes, whether the data is anonymized, or if "minimization" and security procedures have been adopted (R v Oakes, [1986] 1 SCR 103; "Necessary and Proportionate: International Principles on the Application of Human Rights to Communications Surveillance", 2014). The proportionality of such measures is questioned in light of their potential infringement on privacy and freedom of expression, as the measures of exception are indeed becoming the norm, which was previously foreseen by Nietzsche, Walter Benjamin, and more recently explored by Giorgio Agamben, and to some extent by Shoshana Zuboff with the theme of surveillance capitalism, speaking of a "state of exception by Google," in line with what Morozov also asserts when pointing to algorithmic governance, as evidenced by the numerous social experiments carried out by Facebook, as a true real-life laboratory, in addition to the defense of "information sovereignty" by Russia, China, and Iran. In this context, the Council of Europe Convention on Cybercrime, from 2001, stands out, in favor of surveillance legislation during the War on Terror, signed by forty-three countries, including non-member states like Canada, Japan, South Africa, and the United States; this convention requires participating nations to enact legislation that facilitates the investigation and prosecution of crimes committed over the internet, also providing for broad legal access to traffic data by law enforcement authorities. These AI tools used for surveillance based on big data have the potential for 'bias' in the sense of a feedback loop of prejudices and biased data, encompassing content shaped by structural prejudices and reproduced via algorithms (LYON, David, MURAKAMI, David, 2020). Facial recognition technology, in particular, may therefore be duplicating or amplifying the institutional and structural racism that exists in society, resulting in coded inequity that fosters unjust infrastructures, as it perpetuates injustices and other forms of discrimination due to various instances of 'bias,' which are not systematically addressed through an appropriate algorithmic governance framework. For example, studies by Big Brother Watch indicate that 98% of matches obtained by cameras that alert UK police incorrectly identified innocent people as fugitives). Other issues relate to the absence of mechanisms for holding citizens accountable for their rights and the lack of preventive and mitigative measures for damage and information security. Additionally, there is a lack of assessments on the proportionality of the negative impacts versus the positive externalities, which are generally associated with greater effectiveness, although this is questionable as pointed out by a 2021 LAPIN report. The report states that there is a lack of transparency due to the absence of systematized, consolidated, or publicized statistical data on the processing of data by facial recognition technologies by Public Administration. Therefore, there is no evidence of greater efficiency in public sector activities; in other words, according to the disclosed data, 'the narrative of the technology's efficiency does not seem to be statistically confirmed' ('Report on the use of facial recognition technologies and surveillance cameras by Public Administration in Brazil'). As there would be other ways to achieve the same intended purpose, and there are doubts about the technology's efficiency due to the errors and other issues raised, it seems that questioning the proportionality of the measure is valid, given the potential harm to the fundamental rights of millions of people who, without being suspects, are subjected to mass surveillance by the State and have their personal data collected, as seen in the paradigmatic example of Salvador's 2020 carnival, where 80 cameras with facial recognition were used, leading to the arrest of 42 fugitives but capturing the biometric data of 11.7 million people, including adults and children. In order to reduce the mythology surrounding the neutrality and objectivity of algorithms and their predictions, it is important to emphasize that data is only a sample and never speaks for itself. Correlations can be random and may generate incorrect information as there is a lack of contextual and domain-specific knowledge. Therefore, it is essential that technical teams, usually from the exact sciences, be expanded to include qualified personnel with expertise in law, philosophy (ethics), and sociology, providing an interdisciplinary and holistic analysis. The application of such technology, given its potential for errors and infringements on fundamental rights, and being classified as high-risk by various international documents, should be preceded by the prior development of an algorithmic impact assessment. This is to ensure that measures are taken to mitigate the negative impact, bringing about a better balance between the benefits to be achieved by the measure and the damage to fundamental rights. Finally, it is essential that this document be prepared independently by a multidisciplinary team, in order to ensure the legitimacy and impartiality of the document.
In today's surveillance and data society, it is urgent to analyze the critical issues and negative externalities associated with AI, alongside its positive impacts, through an interdisciplinary, critical, holistic, and multifaceted approach as recommended by the European Commission. This approach aims to mitigate negative effects through "legal frameworks on fundamental rights" applied in the compliance and design phases within a multi-layered governance system. Such a system involves practical measures to protect potentially affected rights from AI applications, fostering responsible and sustainable innovation. Preemptive measures can help businesses avoid or significantly reduce reputational damage and legal repercussions, enhancing their competitive edge. One of the most notable examples of market-adopted frameworks is the CIPL's "Building Accountable AI Programs - Examples and Best Practices for Implementing the Core Elements of Accountability." Here, accountability is central to a framework used in AI compliance, balancing business sustainability with individual protection. However, the focus must also include collective and social damages, emphasizing democratic values and environmental concerns. An essential aspect of this process is external supervision by a multidisciplinary team, ensuring the independence and legitimacy of the adopted or audited instruments. This holistic responsibility can be demonstrated through effective governance structures and adequate supervisory teams, fostering awareness and support throughout the organization. Digital trust is closely linked to sustainable, long-term business growth, meeting the increasing expectations of customers, investors, regulators, and the media, and thus becoming a competitive differentiator. This text aims to address the right questions, rather than providing ready-made answers, going beyond dualistic thinking and unquestionable dogmas. It embraces the provisional nature of scientific thought being developed on this topic, grounded in practical case analysis and committed research, as AI, the most disruptive technology, evolves. AI's ubiquity is evident in various sectors, often unbeknownst to many people regarding its usage and potential human rights infringements. This includes the use of behavioral control and manipulation techniques, particularly related to "captology" for economic and political purposes, linked to current issues like fake news, hate speech, and filter bubbles, as Eli Pariser discusses in "The Filter Bubble", highlighting the post-truth era. Behavioral manipulation and persuasion have long been tools in advertising and marketing. However, with social media and AI, these activities have exponentially increased, transforming how news is produced, disseminated, and interpreted. Previously, news sources were limited and relatively reliable, but now, new publication forms, content sharing, and viral dissemination capabilities have emerged. This clickbait logic in social media values online content by its traffic volume, not its truthfulness. Sensationalist stories and images are crafted to capture user attention, directing them to propagandistic sites with consumerist goals. The problem with fake news is a lack of critical thinking and an active stance on checking information sources among many people. According to Hervey (2017), bad news is the only news because it is addictive, while good news remains invisible as it is not sellable. A lesser-explored development is "neuromarketing",, using brain data analysis to decode emotional reactions to persuasive advertisements. Companies in this sector (e.g., salesbrain.com.br) often omit compliance or data protection measures. This technique can involve facial analysis to decode universal micro-expressions, mainly below the conscious level (Morin, Christophe; Renvoise, Patrick. "The Persuasion Code: How Neuromarketing Can Help You Persuade Anyone, Anytime, Anywhere", DVS Editora, Kindle Edition). Measuring our emotions means controlling them, thus influencing our behavior, as numerous studies emphasize that decisions are often driven by impulses and emotions, reflected in the Latin origin of "emotion" from "movere", meaning to move. Primal brain activity, responsible for emotional responses, is monitored through voice analysis, skin conductance response, heart rate variability, respiratory sinus arrhythmia, eye movement tracking, facial expression decoding, and frontal lobe dominance, recording blood flow changes. Neural data are highly sensitive, relating to the fundamental right of mental integrity, protecting against manipulation. This is already a reality at the state level, as seen with PEC 298 of 2023 in Rio Grande do Sul, amending the Constitution to protect mental identity against brain-affecting research without consent. However, this provision is limited, not addressing data protection and damage mitigation measures when data is used commercially. Also notable are EC 29/23, recognizing mental integrity and algorithmic transparency as fundamental rights, and PL 522/22, amending the LGPD to define and regulate this right. Comparatively, Chile has explicitly recognized neuro-rights as fundamental rights in Article 19 of its Constitution, highlighted by the recent Constitutional Court decision in "Guido Girardi vs. Emotiv Inc." (Case No. 105.065-2023, rel. min. Ángela Vivanco, ruled on 9/8/23).1 Additionally, the OECD Recommendation on Responsible Innovation in Neurotechnology, the Inter-American Declaration of Principles on Neurosciences, Neurotechnologies, and Human Rights by the OAS, and the UNESCO Report on the topic are significant references. Finally, PL 2.338/23 stipulates the need for AIA - Algorithmic Risk Assessment in high-risk applications, though it lacks detailed procedural specifications, minimum requirements, and standardization to contribute to legal security. Article 14 prohibits the implementation and use of AI systems with excessive risk, including subliminal techniques and those exploiting vulnerabilities of specific groups or profiling individuals based on behavioral analysis or personality traits, except as provided in article 15. Thus, just as data protection culture is consolidating, it is essential for AI to ensure sustainable, responsible, and trustworthy applications (AI accountable), avoiding what Byung-Chul Han describes as the "total protocol of life" and digital panopticon, where trust is replaced by control, a hallmark of the transparency society. The total protocol possibility replaces trust entirely with control. Instead of Big Brother, we have Big Data, living the illusion of freedom (self-exposure and self-exploitation). Here, everyone observes and monitors everyone. Surveillance markets in democratic states dangerously approach digital surveillance states. Psychopower replaces biopower, intervening in psychological processes, more efficient because it controls from within. In this phase of capitalism, hypertrophy of the "surveillance capitalism" model alters traditional concepts like democracy, citizenship, and sovereignty, now linked to digitalization. The generalization of the control society and the new digital panopticon, anticipated by philosopher G. Deleuze in "Post-scriptum on Control Societies" from "Conversations", follows Foucault's initial developments in discipline, regulation, and normalization. New control forms, both soft and hard, emerge with social media from the 21st century's first decade, seen in the DHS's use of social media for "harder" surveillance, creating the "Socmint" (Social Media Intelligence) department within security agencies. Thus, it is urgent to analyze ethical, political, and legal aspects of persuasive technology use, as such practices exponentially increase, diversify, and become "invisible", blending with everyday life for anyone with internet access and a computer or smartphone. With the Internet of Things and services incorporating AI into daily objects and environments, precise intervention potential grows, enhancing persuasive power. Persuasive technology use spans more areas, including advertising, marketing, sales, labor relations, and general political and economic use. New persuasive forms, especially with AI, big data, and machine learning, have greater intrusive and damage potential. Persuasion techniques are more effective when interactive, adapting influence tactics to evolving situations based on real-time feedback. This personalizes persuasion compared to traditional media's behavioral manipulation tactics, which can't produce personalized results. Computers large data analysis capacity enables persuasion techniques like suggestions, simplified understanding, and other influence tactics. A clear manipulation example is "dataism", where social media users trust these platforms, believing their data is secure and not used for other purposes without informed consent. Users are often unaware of what happens behind the scenes, their real position, and that these "free" services make them the product, not just users, paying with their data and behavioral profiles, becoming lab subjects for countless behavioral experiments without their knowledge or transparency. "Captology", coined by B.J. Fogg in the 1990s, led to the "Persuasive Tech Lab" at Stanford University, researching this field. Sometimes confused with a Scientology offshoot, captology relates to a long-standing aspect: human behavior manipulation, evident in marketing, advertising, media, and politics. Now, technology, computers, and AI amplify this potential, enhancing manipulation dissemination speed and target vulnerability. Captology studies computers and technologies as persuasive tools, manipulating behavior, habits, emotions, and feelings using psychology principles in technology and design. This can create new products aimed at behavioral change, often non-transparent and even surreptitious, exemplified by the Cambridge Analytica scandal. Cambridge Analytica used behavioral and psychological research from Facebook data to profile individuals, personalizing ads, messages, and publicity for behavior manipulation, aiming to elect political clients. Facebook estimated up to 87 million users' data and behavioral analysis were improperly shared with Cambridge Analytica during U.S., Philippines, Indonesia, and U.K. elections. Conclusion  Computers, AI, and technologies for behavioral manipulation are far more potent than human-only methods, due to intrusion, speed, and interactivity, increasing target vulnerability. In an era dominated by AI and pervasive surveillance, it is crucial to establish robust legal and ethical frameworks that ensure AI accountability and adequately and systematically protect potentially affected fundamental rights, preemptively through compliance and design. The integration of interdisciplinary expertise and independent oversight can foster a culture of responsible AI use, safeguarding against the harmful effects of behavioral manipulation. By doing so, companies can not only avoid reputational damage and legal repercussions but also contribute to a more ethical and sustainable technological future. This proactive stance is essential to prevent a dystopian reality where trust is replaced by control, as warned by thinkers like Byung-Chul Han. Ultimately, promoting transparency and accountability in AI will be the cornerstone of a democratic society in the digital age, enabling us to uphold a Democratic State of Law from conception and achieve algorithmic justice. __________ 1 Disponível aqui.
There is considerable discourse surrounding the impacts of AI, with current research indicating its potential to challenge all fundamental rights. However, the issue of climate and environmental justice, and what legislation and compliance can do to mitigate risks in this area, are significantly lagging behind. There is a predominant focus on extolling the benefits of the 6th wave of technological innovation and the new industrial revolution, often treating foundational models as if we were to repeat what happened in previous waves of innovation according to Schumpeter's concept of "creative destruction," all the while disregarding the exponential speed at which we live and the global impacts of AI. While some research already suggests a paradigm shift, moving from a "human-centered AI" ethos to one that is "life-centered," in order to consider not only the impacts on individual rights but also collective and social ones, and to rethink the concept of "smart cities" and "innovation," questioning for whom and for what, associating ethics (meta-innovation) and responsibility for innovation (Luciano Floridi and Wolfgang Hoffmann-Riem), practical efforts are still timid, and concrete measures to turn abstract principles into concrete practices are lacking. On the other hand, considering the principle of prevention, once environmental damage occurs, it is almost irrecoverable, meaning it's difficult to return to the "status quo ante". In the area of data protection, such notion is equated by Omri Bem Shahar, addressing data pollution, as well as highlighting the preventive function, for example, by Eligio Resta and in the proposals of the EU's AI-ACT and the bills in Brazil, regarding compliance measures, such as the algorithmic impact assessment, but still with various flaws, starting with its non-mandatory nature, in addition to the lack of standardization and establishment of fundamental requirements. Hence, what may happen in practice is what is called ethical washing or makeup practices, without objective and concrete changes, such as the case of the Myanmar's genocide, with Facebook being held responsible by human rights judicial system, even though it developed a Human Rights Impact Assessment, but after the fact, that is to say, without fulfilling its essential function, which is to prevent harm before it occurs. An approach must be adopted, then, for the study and practical alternatives to the issues raised that are inclusive, interdisciplinary, and holistic, moving away from the "mantra" "be fast and break things." As it is known, there is a relationship between the concepts of epistemic, environmental, data, algorithmic, and social justice, however, the impacts and benefits of AI are not distributed equitably between the Global South and North, and that's why Roberto Mangabeira Unger points out the need in countries of the Global South to decolonize thought and think universally from the local perspective (i.e., observing the social-cultural context), which involves concepts of multiculturalism as emancipatory and progressive, intercultural as proposed by Boaventura de Sousa Santos, focusing on diversity and recognition of cultural difference underlying the idea of interculturality, multiplying participation and cooperation spaces - politics as cultural politics. Thinking critically about the role of law, which is necessarily linked to the realization of Justice, highlights risk prevention management and new forms of sociability, and reinforces the role of law in maintaining the Rule of Law instead of understanding it as a "commoditization of Law" (Richard Susskind, Daniel Susskind), avoiding what is called systemic corruption or corruption of law - legal illegality (K. Marx, Montesquieu, Marcelo Neves, Niklas Luhmann), avoiding that we only have what Derrida points out as "force of law," remaining after the erasure of the word law, only force, when absolute politicization would occur, and total degradation of law to a sort of disguise of politics, a mere instrument of power, forgetting that the idea of law, the "spirit of laws," however, is justice. Thinking about this relationship between the different forms of justice, we point to some developments in the area of concepts and scope of rights as it happened with privacy, supported by the concept of collectivization, recognizing its substantial and procedural dimension and the right to an informational procedure, abandoning the individualistic, anthropocentric, thomistic, and proprietary perspective (Stefano Rodotá, Luciano Floridi, Helen Nissenbaum, Alessandro Mantellero, Danilo Doneda), such as the "group privacy theory" of Luciano Floridi/University of Oxford - after the Cambridge Analytica case and the theory of privacy related to "contextual integrity" of Helen Nissenbaum, in addition to the "right to reasonable inferences" as a new right of data protection, as postulated by Sandra Watcher and Brent Wittelstadt, and the "right to procedural regularity" (Joshua Kroll). Hence, talking about sustainability by design and the Rule of Law since its conception and fundamental rights by design, addressing the central issue of environmental impact, emphasizing the UN's Sustainable Development Goals (SDGs) related to the environment, social justice, and sustainability, and in connection with the G20's agenda and priorities, focusing especially on sustainability, inclusion, and social justice, specifically with the values and objectives of the sheriff trails, "environmental and climate sustainability". Therefore, there is a relationship that cannot be disregarded between climate sustainability, inclusion, social justice, and environmental justice, a justice-oriented approach to ensure that the AI ecosystem and its benefits are distributed more equitably. The talk about data colonialism arises, and in the environmental area, the concept of "carbon colonialism" emerges, meaning that rich countries in the Global North are outsourcing the impacts of their resource extraction to the poorer countries of the Global South, in addition to the theme of the invisibility of workers from the south ("ghost workers"), like those who remove toxic plastics from landfills - a key role in ending plastic waste. It is pointed out that waste flows to the Global South, while capital flows to the Global North (Laurie Parsons, Carbon Colonialism: How Rich Countries Export Climate Breakdown). Although the topic is urgent and of utmost importance, there is still a lack of legislative proposals focused on the life-centered AI perspective and environmental impacts, for example, the two main bills aimed at regulating AI in Brazil (PL 2120/2338/23), the first without any mention of the environment and the second, although it mentions, does not establish anything more concrete. Similarly, the GDPR and the EU's AI ACT, in their initial version, are silent, and although the latest version of the AIACT from June 2023 brings some improvements, they still depend on voluntarism and abstraction. Therefore, we must consider the correlation between AI, equity, data colonialism, and climate justice, especially because the damages of climate change are distributed unevenly, requiring equitable participation in strategies to combat climate change. Furthermore, we have to think about how compliance and the tool of algorithmic impact assessment could help prevent such damages, thinking about the development of a more protective "framework" than the currently existing ones, such as Nist and ISO standards, and since such theme and elaboration will involve the analysis of fundamental rights norms in collision, there will be a need for professionals in the area of fundamental rights theory, such as the legitimate interest assessment document in the GDPR of the European Union and in the LGPD of Brazil brings a necessary consideration to be made; it is also urgent to rethink the entire epistemological structure of elaborating such theory by Robert Alexy, as it is not adapted to the context we currently live in the "onlife" environment (Luciano Floridi), based on his discussions with Mart Susi ("Proportionality and Internet", 2020) and evolving since they did not address the impact of Artificial Intelligence or the environmental issue.
Visa-se analisar o impacto da IA com relação à substituição do trabalho humano e questões de automação e digitalização e desafios éticos relacionados a tais temáticas bem como a questão do surgimento de uma nova classe de pessoas consideradas por alguns como inempregáveis (HARARI, 2016)1, sem emprego diante da crescente e acelerada automação e substituição por IA, ao lado dos trabalhadores fantasmas do Sul Global, tornados invisíveis e sem qualquer garantia social, embora essenciais ao trabalho do "Big data", e pensar em alternativas de governança para uma proteção sistêmica de direitos fundamentais possivelmente afetados com a IA, aliando-se a inovação à ética e à responsabilização. Um dos pontos levantados é que tipo e nível de regulamentação da IA seriam necessários em países como o Brasil, considerado dentro do conceito de Sul Global (Epistemologias do Sul), com maiores vulnerabilidades, a exemplo da dependência da tecnologia e quanto à oferta de dados pessoais (superavit comportamental), e de onde surge a maior oferta de mão de obra barata e informal, sem garantia de qualquer direito trabalhista ou social (zeladores de dados), chamados de trabalhadores fantasmas, sendo o caso do Brasil exemplar quanto à vulnerabilidade de tais grupos. Tais temáticas são essenciais e necessitam ser abordadas adequadamente, em uma perspectiva de estudo crítico e inter/transdisciplinar da IA, diante da dissolução das fronteias entre exatas e humanidades, bem como, para se pensar no desenvolvimento das bases epistemológicas e fundacionais para a IA voltada ao Sul Global.  Clique aqui e confira a coluna na íntegra. __________ *Este texto faz parte de pesquisas desenvolvidas por Paola Cantarini em sede de pós-doutorado na USP (2023/2024) com financiamento-bolsa FAPESP. 1 HARARI, Yuval Noah. Homo Deus: uma breve histo´ria do amanha~. Sa~o Paulo: Companhia das Letras, 2016.
This proposal aims to address the following issues in an interdisciplinary and holistic approach, focused on the perspective of an inclusive, decolonial, sustainable, and democratic AI: how to reduce the environmental impact of AI, and what are the main challenges in Brazil as a Global South country regarding the protection of fundamental rights of vulnerable populations (indigenous and Afro-descendants); how to promote social justice and social inclusion by combining "design justice," "algorithmic justice," "epistemic justice," "data justice," and "environmental justice"; how an alternative AI governance model can contribute to achieving these objectives while aligning with innovation and technological development, integrating innovation with ethics ("metainnovation") and responsibility; and how the concept of "life-centered AI" and the presented framework for the protection of fundamental rights and environmental impact can contribute to adequate environmental protection by moving away from an anthropocentric approach toward a more holistic and sustainable understanding. Motivation, foundation, framework Problem to be addressed and research evidence: how to reduce the environmental impact of AI, as every AI application affects the climate, and the main challenges in Brazil as a Global South country regarding the protection of fundamental rights of vulnerable populations, with a focus on indigenous and afro-descendant communities; how to promote social justice and social inclusion through alternative AI governance models, using the theoretical framework of the Maiori data governance in New Zealand, the Toronto Declaration, which advocates for the inclusion of potentially affected groups in decision-making on design and review, and the Global Indigenous Data Alliance's "CARE Principles of Indigenous Data Governance". How can such a governance model and the proposal of the new principles of "fundamental rights by design" contribute to aligning economic and technological development and innovation with the adequate protection of fundamental rights, integrating innovation with ethics and responsibility, including the enforcement of fundamental rights by courts in the AI era? How will the concept of "life-centered AI," rather than just "human-centered AI," contribute to environmental protection by shifting from an anthropocentric to a holistic and sustainable perspective? Research evidence: Algorithmic Impact Assessment (AIA) and a fundamental rights-based approach are recommended in various international documents, including the Directive from the Treasury Board of Canada (https://www.tbs-sct.gc.ca/pol/docWeng.aspx?id=32590); European Commission ("legal frameworks on fundamental rights"), Council of Europe (''Unboxing AI: 10 steps to protect Human Rights''), European Parliament ("Governing data and artificial intelligence for all - Models for sustainable and just data governance"); Federal Trade Commission (FTC), National Telecommunications and Information Administration (NTIA), Future of Privacy Forum, European Union Agency for Fundamental Rights (FRA), Dutch Data Protection Authority; Brazil's National Data Protection Authority (ANPD); Amnesty International and Access Now ("Toronto Declaration"); EU High-Level Expert Group on AI (AI HLEG - "Ethical Guidelines"); Australian Human Rights Commission (2018 Project); UNESCO ("Recommendation on the Ethics of Artificial Intelligence". Additionally, studies highlight the vulnerability of the afro-descendant population regarding facial recognition and predictive policing, and the greater potential for harm to fundamental rights in contexts with a documented historical past of discrimination and by communities systematically denied various rights throughout their history ("A Fuster and others, 'Predictably Unequal? The Effects of Machine Learning on Credit Markets,' 2021. 77 (1) J Finance 4; Safiya Umoja Noble, 'Algorithms of Oppression: How Search Engines Reinforce Racism,' NYU Press, 2018), as well as the environmental impact and decolonial perspective and vulnerability aspects of the indigenous population: Climate Change 2021: The Physical Science Basis, Intergovernmental Panel on Climate Change, Working Group I (2021); Decolonial AI: Decolonial Theory as Sociotechnical Foresight in Artificial Intelligence, Mohamed et al. (2020); Ars Technica (https://arstechnica.com/tech-policy/2020/06/police-arrested-wrong-man-based-on-facial-recognition-fail-aclu-says/); National Institute of Standards and Technology (NIST); Access Now, Amnesty International, and others; Co-designing Maori data governance.                  Despite extensive international publication, such themes are omitted in Brazil, with a sub-representation of both the Global South and the fundamental rights theme. There is only one LAPIN study on a "framework" dedicated to fundamental rights but incomplete. The aim of this proposal is to bring epistemological foundations to develop AI in a way that does not hinder innovation, combining economic and technological development with adequate protection of fundamental rights. This involves addressing its multiple dimensions, focusing not only on the individual aspect but also on collective and social aspects, addressing environmental impact, and aligning innovation with ethics and responsibility ("metainnovation" and "responsibility for innovation"). It goes beyond analyzing impacts and proposing a theorization as a foundation. Instead, it presents a concrete proposal on how to address these issues, contributing to transforming ethical principles into effective practices. This approach is innovative, policy-oriented, and implementation-focused, providing a specific "framework" for the necessary environmental impact assessment in the field of AI. The proposed "framework" takes into account existing models like ISO (ISSO IEC 23894/2023, ISSO/IEC 42001), and NIST but aims to go beyond, considering fundamental rights in AI, also based on the proposal of the EU Agency for Fundamental Rights (FRA). It expands the initial proposal of fundamental rights principles by "design." This approach is essential for achieving the Rule of Law from conception and "algorithmic justice," which depend on adequate protection of individual, collective, and social fundamental rights. It addresses a gap in the field of AI, where numerous ethical principles catalogs lack effectiveness due to the absence of enforcement, potentially leading to "ethical washing." Legislative proposals in Brazil, such as PL 2120/2338/23, lack specificity regarding environmental impact. Similar omissions are found in GDPR and the EU's AI ACT, even in their latest versions. This proposal considers direct and indirect environmental impacts of AI, providing concrete measures to address these issues. It relates AI, equity, data colonialism, and climate justice, recognizing their interconnectedness. Considering climate change and digital transformation as the main trends of the century, alignment with social and democratic values is crucial. The proposed "framework" covers all potentially affected fundamental rights, incorporating the principles of "fundamental rights by design," akin to "privacy by design" concepts. Preparation of Environmental Impact Assessments (EIAs) becomes a requirement, acting as an additional burden of argumentation in favor of affected fundamental rights. The multidimensional nature of fundamental rights, covering individual, collective, and social dimensions, obligates the adoption of damage mitigation measures. The "life-centered AI" or "planet-centered AI" concept is broader than "human-centered AI," considering both direct and indirect environmental impacts. This is essential for obtaining a green AI certification, similar to ISO 14.001, SBC, BREEAM, WELL, CTE certifications. Existing initiatives often focus on "human-centered AI," emphasizing human control and respect for human values, which, while important, are insufficient. The "life-centered AI" approach considers the multidimensionality of fundamental rights, making it obligatory to adopt damage mitigation measures. In conclusion, this proposal aims to provide a comprehensive framework and principles for the development of AI in Brazil, ensuring alignment with democratic values, inclusivity, and decolonization. Framework and parameters When observing such a framework for Environmental Artificial Intelligence (EAI), it would be possible to obtain the "green seal" - "sustainability by design." At the same time, we would be aligning innovation and economic and social development with sustainability, looking not only at the short term but also the medium and long term, and addressing two of the main problems mentioned in the 2023 Global Risks Report, namely, failures in mitigating climate change and large-scale environmental damage. Innovation aligns with responsibility and ethics, and sustainability with international competition, being a market differentiator and bringing public engagement while maintaining high levels of trust and transparency. This is also highlighted by the European Union's Green Deal aiming to recover the long-term competitiveness of economic sectors sustainably, referring to competitive sustainability. The framework would be required, unlike a voluntary form, as is generally the case with AI impact assessments and some literal, but not systemic and functional predictions and interpretations of the institute, such as the Data Protection Report. This document, while for the GDPR, it is mandatory in case of high risk due to poor legislative technique in the LGPD in this aspect, raises doubts and legal uncertainty since part of the doctrine argues that it is not a mandatory document as a rule, as the law states that it may be requested by the ANPD. Moreover, unlike the GDPR, which only provides for cases of high risk and a fixed list of risk levels, its preparation in the case of environmental impact would always be necessary, and the mitigation measures, in this case, depend on a proportional approach to the level of risk, considering the likelihood of its occurrence, scope, and severity of the risk. It is worth remembering that in the environmental context, and likewise, it has been understood in the context of data protection, when damage occurs, it is hardly resolved with only post hoc repair measures, just think of an oil spill in the ocean, making it impossible to return to the status quo ante. Therefore, prevention is better than cure, and the EIA is the instrument par excellence for such prevention. Also, when observing the WP29 2016 GUIDE: definition of processing operations subject to DPIA, the elaboration of the DPIA - Privacy Impact Assessment Report is considered mandatory when there is an assessment or classification - definition of profiles and provision of aspects related to professional performance, economic situation, health, personal preferences or interests, reliability, or behavior, location/movement; here it would cover the hypothesis of predictive policing, as well as combining with the other mention of mandatory nature when it always refers to the processing of data of vulnerable data subjects. Mutatis mutandis, in the case of indigenous people and Afro-descendants being vulnerable, the EIA would always be required in the scope of AI applications. The Algorithmic Accountability Act (USA), the bill in the Federal Senate requires, in the case of an automatic decision system considered high risk, given the novelty of the technology used, its nature, scope, context, and purpose of the automated decision that poses a significant risk to privacy, security, or results in unfair and prejudiced decisions, the obligation to prepare a data protection impact report and a more generic impact report in cases where there is no data processing, but when AI is used to automate decision-making processes. It states that the impact of algorithms on their accuracy, fairness, discrimination, privacy, and security should be measured. In the same way that it is justified in the case of the specific application of AI that was considered, namely, the production of automatic decisions, it is justified in other AI applications when there is also a risk of bias and harm, not only to the considered one of many fundamental rights (privacy) but also when there is the potential for infringement of all other fundamental rights, as there is no hierarchy between such rights, and they are all on an equal footing as constitutional principles. Framework for AIA - fundamental rights and environmental impact Prepare the EIA for environmental impact in advance - through an independent, multidisciplinary, and multiethnic team, with the participation of representatives of vulnerable groups, and publish the document on its website, containing the following steps: a. LEGITIMACY, LEGALITY, AND REASONABILITY OF AI APPLICATION: demonstrate compliance with existing environmental standards and LGPD, providing information about data processing, legal bases, and supporting compliance documents in this area. b. ACCOUNTABILITY AND DAMAGE FORECAST: assess the level, probability, severity, and scope of direct and indirect environmental impacts. c. FAIR USE - PROPORTIONALITY ANALYSIS: Demonstrate why AI is being used, pointing out its benefits and harms to fundamental environmental rights and others; show if the same purpose could be achieved with less environmentally intrusive means; describe the nature, scope, context, and purposes of AI application; analyze the use of AI for public, collective, and social purposes or for recreational purposes, for example, in the case of the METAVerse (these would not pass the proportionality test and would not be allowed when there is environmental impact unless the mitigation measures presented fully address such damages); priority will be given to authorizing AI applications focusing on environmental sustainability or for the improvement of health, for example. d. TRANSPARENT USE: prove through capable documentation the measurement and calculation of waste usage and environmental impact, such as energy consumption, CO2 emissions, water consumption, and disclose such documentation on the company's website; develop predictions about the use of energy, water, and other environmental impacts, and bring optimization strategies and possible use of renewable energy sources. e. SUSTAINABLE USE: Perform a balancing procedure between conflicting fundamental rights. f. Identify gaps and future improvements. Mitigation measures g. Adopt the following measures of mitigation or compensation for damages, proportionally, depending on the level of damage (probability, severity, and extent of damage): g.1. Adopt mitigation measures for the damages foreseen in the case of the specific AI application. g.2. Facilitate the creation of open data standards on environmental aspects related to AI and create an open platform to enable easy access and sharing of data. g.3. Contribute to financing the development of an international catalog of data relevant to the environment and open-source models and software. g.4. Support accessible cloud storage systems for academic researchers, civil society, and small and medium enterprises, and startups. g.5. Support AI applications for the environment/health (since health is also affected by environmental damage most of the time). g.6. Finance interdisciplinary research on innovation and environmental protection. g.7. Finance literacy programs and "reskilling" of AI, digital transformation, environmental impacts, and fundamental rights.  g.8. Implement restrictions on AI training and consumption limits, depending on the social utility of the AI model on one hand, and its more utilitarian and exclusively economically oriented vision on the other. g.9. Ensure that cloud computing, if used, is included in carbon reporting and pricing policies. Action plan - "fundamental rights by design" principles - "equity seal": This development was theoretically grounded in the FUNDAMENTAL PRINCIPLES OF PRIVACY BY DESIGN formulated by Ann Cavoukian in the field of data protection, now expanded and focused on the scope of AI applications. Furthermore, they were inspired by existing principles developed by a group of experts from various fields (human rights, technology, law, and ethics) by the European Union Agency for Fundamental Rights (FRA) and the European Data Protection Authority (EDPB), in collaboration with the Council of Europe and the European Union Intellectual Property Office (EUIPO). However, it also broadens the perspective, as it is incomplete, addressing only privacy, nondiscrimination, freedom of expression and information, and with weaknesses, as it does not mention collective and social impacts and damages, and it speaks only of transparency and responsibility, which is not sufficient. According to this development, the Principles of "Fundamental Rights by Design" would be: Respect for human dignity: Technology must be designed to respect the inherent value and worth of every human being and to avoid any form of discrimination or dehumanization. Non-discrimination: Technology should not be designed to discriminate against any particular group of people based on their race, gender, religion, sexual orientation, or other characteristics. Right to privacy: Technology must respect the right to privacy and ensure that personal data is protected against unauthorized access, use, or disclosure. Freedom of expression and information: Technology should not be designed to restrict or censor freedom of expression or the free flow of information. Transparency and responsibility: Technology must be designed to ensure transparency and accountability in its operation, so that users can understand how it works and can hold those responsible for any harmful effects accountable. Participation and empowerment: The design and implementation of technology should involve the participation of all relevant stakeholders and empower users to make informed decisions about its use. New "fundamental rights by design" principles - Paola Cantarini 1. Be proactive, not reactive - preventive, not corrective: Prior and mandatory preparation of the Environmental Artificial Intelligence (EAI) and adoption of measures in the design focused on protecting all potentially affected fundamental rights and the environmental impact, as every AI application causes environmental impact. 2. Fundamental rights as the default setting: The default configuration of a particular system and Algorithmic Impact Assessment (AIA) must be observed and developed in a mandatory and prior manner, preserving all potentially affected fundamental rights. Automatic protection of fundamental rights as a standard, automatically, from design and "compliance" documents, without requiring active intervention from third parties. 3. Fundamental rights embedded into design: Potentially affected fundamental rights must be incorporated into the architecture of systems and business models and should be outlined in the AIA development framework. 4. Full functionality - positive-sum, not zero-sum: All involved interests must be accommodated, avoiding false dichotomies, i.e., providing protection for fundamental rights without losing complete functionality. Align innovation with ethics and responsibility; promote innovation and adequate protection of rights. 5. Security and responsibility by design - end-to-end security - full lifecycle protection: Protection of fundamental rights throughout the lifecycle of AI application - prove the adoption of security measures and damage mitigation through reliable documentation. Provide protection for all potentially affected fundamental rights in advance, in design, and in compliance documents, extending such protection throughout the AI application's lifecycle. 6. Visibility and transparency - keep it open: Act with confidence and transparency for explainable AI. Develop compliance documents (AIA) and reports that prove the adoption of the mentioned measures, and make them available for reading and analysis on the company's website in an easily accessible location. 7. Respect for fundamental rights and human and democratic values - keep it life-centric: A requirement to respect fundamental rights, republican and democratic values, the Democratic Rule of Law, human values, human control of technology, and ethical and environmental considerations. 8. Be "beneficence, not maleficence," respect human dignity and algorithmic justice, environmental justice, and epistemic justice, and all fundamental rights. Act with responsibility, care, transparency, and ethics. 9. Contestability and due informational process: Ensure human review of automated decisions and other AI applications with the potential to infringe fundamental rights and the environment. Have an effective communication channel and a responsible party, such as the Data Protection Officer (DPO), responsible for compliance and communication with the public. 10. Independent review and oversight: Have an independent, autonomous, and legitimate "Oversight" with an interdisciplinary, multiethnic team, diversity, and collaboration with representatives of vulnerable groups. __________ *Este texto faz parte de pesquisas desenvolvidas em sede de pós-doutorado na USP com financiamento-bolsa FAPESP.
Adotando uma perspectiva zetética, em que o questionamento constante e o pensamento livre e criativo são mais importantes do que respostas prontas e acabadas, no sentido de definitividade e fechadas em "dogmas" ou "cânones" inquestionáveis, diante das constantes mudanças da própria tecnologia, questiona-se: quais são as oportunidades e desafios presentes nas atuais legislações voltadas à inovação no país? No que o direito comparado poderia nos ajudar? Como transformar conhecimento científico e tecnológico em soluções que aumentem a qualidade de vida e o bem-estar da população como um todo, reduzindo desigualdades e injustiças e diminuindo o que se chama de novo "apartheid" social (Paula Sibilia)? É possível falar em regular aspectos da inovação ou regular tecnologias disruptivas como a inteligência artificial sem necessariamente afastar o Brasil da competitividade internacional e obstar a inovação, mas, ao contrário, aproximando o Brasil do ecossistema global de inovação? Fala-se em uma nova Revolução Industrial (Relatório de 2017 - Recomendação à Comissão Europeia sobre disposições de Direito Civil sobre robótica), a partir da nova fase da inteligência artificial (IA), com os "modelos de fundação" - "Foundation models" -, que estão acelerando o seu progresso, com habilidades antes não previstas, e na 6ª onda da inovação tecnológica, a partir das transformações profundas na sociedade e na economia com as inovações tecnológicas desde o início do século XXI. Agora, as tecnologias digitais e a IA são somadas às tecnologias da informação e comunicação surgidas na segunda metade do século XX. Direito, ciência, tecnologia e inovação podem ser vistos e pensados como sistemas sociais interligados e dependentes, ou seja, fazendo parte do ecossistema de inovação, o que é corroborado pelo fato de ter o Direito reconhecido a importância da temática da inovação, em especial com a Emenda Constitucional 85/2015, que altera e adiciona dispositivos na Constituição Federal para atualizar o tratamento das atividades de ciência, tecnologia e inovação, falando-se em "Constituição Tecnocientífica", com destaque para o dever do Estado de promover e direcionar o desenvolvimento de um verdadeiro "direito fundamental específico", "o direito à ciência, tecnologia e inovação, material e historicamente determinado" (Lucas de Faria Rodrigues, "A Concretização da Constituição Tecnocientífica: o regime jurídico fundamental da ciência, tecnologia e inovação", Editora Fundação Fenix, 2021). Assim como ocorre com o conceito de IA, não é unânime também o conceito de inovação possui algumas particularidades, pois poderá variar de significado em diversos contextos, conforme os autores e o enfoque do referencial teórico adotado, havendo, pois, diversas perspectivas. O conceito de inovação, portanto, não é homogêneo, daí muitos pesquisadores acabarem limitando seu entendimento no sentido de inovação ser tecnológica, ou misturando com outros conceitos como o de invenção, o que por si só traz a necessária justificativa para a criação de estudos envolvendo tal questão. Um dos pontos chave e de maior dificuldade no Brasil para poder se falar em desenvolvimento tecnológico é como transformar a pesquisa científica e o conhecimento gerado em ações concretas de inovação que ensejem maior qualidade de vida da população e torne o país mais competitivo internacionalmente, e assim sair da posição de ter um sistema nacional de inovação periférico, apesar de possuir legislação específica há diversos anos, embora tardiamente, se compararmos com países líderes em inovação. Portanto, apesar de conquistas recentes no sentido de elaboração de leis com o escopo de beneficiar/incentivar a ciência, tecnologia e inovação (CT&I), o Brasil permanece sendo o 13º colocado em termos de produção científica (2,7% do total mundial), ocupando a 70ª posição no ranking internacional de inovação. Além da Emenda Constitucional 85/2015, que torna a temática da inovação missão do Estado brasileiro em todos os níveis federativos, podem ser citadas como legislações afetas à temática da inovação, em um grande arcabouço legislativo que demanda por si só uma análise integrada e sistêmica: a lei 13.243/2016, dispondo de estímulos ao desenvolvimento científico, à pesquisa, à capacitação científica e tecnológica e à inovação; a Lei 12.863/13, que trata das fundações de apoio; a lei 13.123/2015, acerca do acesso a biodiversidade; a Medida Provisória 718/16, sobre importações pelas fundações de apoio; a lei Federal 10.973/2004 (Lei de Inovação Tecnológica - LIT), que dispõe sobre incentivos à inovação e à pesquisa científica e tecnológica no ambiente produtivo e dá outras providências; o Decreto Federal de Inovação - decreto 9.283/2018, que regulamenta a lei 10.973/2004; a Lei 13.243/2016, estabelecendo medidas de incentivo à inovação e à pesquisa científica e tecnológica no ambiente produtivo, com vistas à capacitação tecnológica, ao alcance da autonomia tecnológica e ao desenvolvimento do sistema produtivo nacional e regional; a Lei 14.180/2021, que institui a Política de Inovação Educação Conectada; a lei 11.196/05, denominada Lei do Bem, sendo a principal lei de incentivo fiscal para empresas que investem em tecnologia; legislações estaduais acerca da inovação: São Paulo, Amazonas, Ceará, Mato Grosso, Minas Gerais, Rio Grande do Sul, Santa Catarina, dentre outros; o Decreto Estadual 62.817/2017, denominado de Decreto Paulista de Inovação, que regulamenta a Lei Federal 10.973/2004 e a LC estadual 1049/2008, também denominada de Lei Paulista de Inovação, dispondo sobre medidas de incentivo à inovação tecnológica, à pesquisa científica e tecnológica; a Lei 13.243/2016, denominada o novo Marco Legal de Inovação, trazendo atualizações à Lei 10.973/2004 e alterações legislativas em outras leis (Lei das Fundações de Apoio, Lei do Estrangeiro, Lei de Importações de Bens para Pesquisa, Lei de Isenções de Importações, Lei das Contratações da Temporárias); o Decreto Paulista para Soluções Inovadoras - Decreto Estadual 61.492/2015, que institui procedimento para apresentação, análise e teste de soluções inovadoras que contribuam com questões de relevância pública, encaminhadas pela iniciativa privada mediante provocação do Poder Público do Estado de São Paulo. E, no entanto, a doutrina especializada aponta para diversos problemas afetos à realidade do Brasil como país periférico no tocante à inovação, tais como, dificuldade de articulação do conhecimento científico teórico com a prática concreta por meio de parcerias, produção científica nacional em inovações tecnológicas (o Brasil ainda representa 1,8% da produção científica mundial em inovações tecnológicas), além de outros entraves à inovação do país relacionando-se com a educação de baixa qualidade, o baixo desempenho em patentes devido a barreiras legais, institucionais, financeiras e culturais, entre outros desafios que igualmente fazem parte da indu'stria do software livre ou das startups, tais como a falta de um ecossistema adequado para dar suporte ao desenvolvimento de projetos e empresas, além do complexo arcabouço regulatório trazendo insegurança jurídica e dificuldades de interpretação sistemática e não apenas gramatical. Por conseguinte, o país ainda se enquadra como sistema nacional de inovação periférico, caracterizado por sistemas de inovação ainda imaturos, com inovações de natureza incremental e não propriamente radical, com maior atraso em comparação com outros países e com menor alcance espacial, devido à enorme concentração de renda, a se refletir também no alcance de serviços e bens digitais, por exemplo, para apenas pequena parcela da população. Segundo as palavras de Alessandro Teixeira e Mario Sérgio Salerno, a iniciativa nacional de inovação passa por sérios problemas, uma vez que as empresas brasileiras competem com os fabricantes de produtos padronizados, que buscam liderança em custos, e também competem com as empresas que lançam produtos inovadores, abrem nichos e criam necessidades1. Para Ronaldo Lemos, "para inovar, um pai´s precisa ter regras civis claras, que permitam seguranc¸a e previsibilidade nas iniciativas feitas na rede (como investimentos, empresas, arquivos, bancos de dados, servic¸os etc.)", apontando ainda que o MCI (Marco Civil da Internet) foi "uma conquista imensa para o Brasil e um dos pilares essenciais para se promover a inovac¸a~o", destacando ser um projeto não de governo ou partido, mas da sociedade, além do seu objetivo de facilitar a inovac¸a~o e o empreendedorismo no pai´s, ambos cada vez mais interligados ao "online". De fato, não faz mais sentido diferenciar "online" e "offline" como bem pontua Luciano Floridi, com o termo criado por ele, qual seja, "onlife". Ronaldo Lemos aponta ainda que "um dos principais obsta´culos e´ superar essa cultura anti-inovac¸a~o que infelizmente e´ majorita´ria"2. Os debates mundial e regional acerca das possibilidades de crescimento econômico, competitividade internacional e sustentável, voltando-se a uma perspectiva de médio e de longo prazo, relacionam-se diretamente com a busca sistema'tica da inovac¸a~o, o que demanda investimentos em pesquisa, desenvolvimento e inovação, e por sua vez, relaciona-se com competividade, crescimento, melhora de salários e redução de custos, e com políticas públicas voltadas à dinamização econômica. É o que aponta Álvaro Amarante, diretor da Agência PUC de Inovação, da Pontifícia Universidade Católica (PUC) do Paraná ("Lei da Inovação continua tendo impacto restrito no Brasil"3. Outrossim, segundo pesquisas realizadas pelo Ipea (Instituto de Pesquisa Econômica Aplicada), tal cenário seria reflexo das características estruturais da economia brasileira, com destaque para a baixa relação entre empresas e universidades e centros de pesquisa, a especialização produtiva da economia brasileira centrar-se em segmentos de baixa intensidade tecnológica, além do fato de a economia estar voltada praticamente para commodities, demandando uma transformação cultural para se agregar valor aos produtos, serviços e tecnologias , além da insuficiente quantidade de benefícios fiscais concedidos pelo poder público para a criação de centros de pesquisa e desenvolvimento (ver notícia: "Incentivos fiscais são insuficientes", https://valor.globo.com/empresas/noticia/2014/09/22/incentivos-fiscais-sao-insuficientes.ghtml). Um dos principais pontos de fragilidade do Brasil é, pois, a dificuldade na aproximação da academia, de empresas e do poder público, o que contribuiria para que o país seja não apenas consumidor de tecnologia, mas produtor e desenvolvedor de soluções e serviços globais. Além disso, tornar o conhecimento produzido de forma científica mais próximo e acessível para a população em geral promoveria a democratização desse conhecimento. É ainda essencial uma análise crítica e holística acerca do tema inovação e das novas tecnologias, mais do que multidisciplinar, transdisciplinar, mas indisciplinar, promovendo a combinação e mesmo mistura de diversos campos do conhecimento, trazendo um maior potencial de criatividade e inovação, portanto. Neste sentido a falta de publicações científicas do Brasil em comparação com o nível internacional, poderia ser combatida ou minorada com um maior incentivo em bolsas e em produção de conhecimento científico, em especial no campo das humanidades, uma melhor valorização dos professores, e uma educação de melhor qualidade em geral, pois é pouca a produção em português e de países do Sul Global (no sentido das Epistemologias do Sul - Boaventura de Souza Santos e Anibal Quijano), embora o país tenha se desenvolvido em tal aspecto nos últimos trinta anos, mas ainda nossa produção científica representa somente 1,8% da produção científica mundial em inovações tecnológicas. Há, pois, um desequilíbrio e déficit de produção científica na área das humanidades em especial, além da dificuldade em reverter as produções científicas em práticas e soluções concretas. Para isso entendemos que a análise do direito comparado é imprescindível quando se trata de pensamento científico, e ainda mais tendo em vista a cultura de inovação em outros países ser muito mais desenvolvida, diante do atraso do Brasil em tal seara, assim como está ocorrendo já com a construção da cultura de proteção de dados, a partir da LGPD e da regulação da internet com o MCI, também atrasada em relação a outros países. A iniciativa da COLUNA MIGALHAS é voltada para a promoção do debate inclusivo e democrático, com a disponibilização de conteúdo de qualidade acadêmica e rigor científico, em português. No entanto, busca atingir um público mais amplo do que o da academia, utilizando uma linguagem mais democrática. Trata-se de um protótipo de uma verdadeira plataforma colaborativa para o debate e reflexão críticos, com uma participação democrática aberta. O objetivo é contribuir para o que se considera uma democracia ampliada e cidadania ativa. É essencial uma maior conscientização geral sobre tais temáticas também para a formação e desenvolvimento do ecossistema de inovação no país e sua integração com o ecossistema de inovação global. Assim, mais do que a construção de uma "smart city", teríamos a construção de uma "smart polis". Busca-se, ainda, uma perspectiva inclusiva, democrática e decolonial ("co-approach"), abrindo-se a críticas, comentários e sugestões, e sobretudo, focando-se na independência do pensar (autóctone), sem levar em consideração grupos de poder ou aspectos ideológicos, em uma co-construção que se pretende aberta e colaborativa, permitindo a discussão democrática acerca das temáticas tratadas. Assim, enquanto se fala em velocidade para a regulação acompanhar os desenvolvimentos em velocidade alucinante das novas tecnologias, pode-se pensar tal questão sob outro ângulo, qual seja, que a regulação não tem esse viés específico, mas sim trazer direção à inovação acompanhada das novas tecnologias (Luciano Floridi4), daí melhor se falar em "metainovação", quando se tem a inovação aliada ao necessário discurso ético, à legislação, doutrina e jurisprudência atuais e em vigor acerca da inovação, sem focar no "ou", mas buscando o "e", ou seja, contribuir para a abordagem "pró-inovação" e "pró-direitos ao mesmo tempo, ao invés de se falar em um "trade-off" entre tais abordagens. Acerca da inexistência de tal "trade-off", e de um jogo de soma zero, ressalta Ann Cavoukian em recente entrevista realizada no âmbito do projeto UAI do IEA da Universidade de São Paulo5 justamente a importância de fugirmos de tal lógica reducionista e limitadora, daí a necessidade de juntarmos a inovação com a e´tica digital, responsabilidade digital e responsabilidade pela inovação, ou "innovation forcing" (Hoffmann-Riem, Wolfgang. Teoria Geral do Direito Digital, pp. 13-14; p. 150 e ss), e pensar em alternativas mais holísticas e sustenta´veis a longo prazo, de forma a contribuir para que o Brasil possa ser na~o apenas consumidor de tecnologia, mas, tambe´m, produtor e desenvolvedor de soluc¸o~es e servic¸os globais, incentivando a promoção e criação de novas incubadoras, tecnoparques, e do ecossistema brasileiro de inovação, bem como aumentando a competitividade do país, de modo a identificar os benefi´cios e as oportunidades, potencializar as oportunidades positivas da inovac¸a~o digital, e por outro lado evitar ou mitigar seus riscos e deficie^ncias, apontando para seus principais desafios, ou seja, sem com isso ser um sistema frágil quanto à devida proteção de potenciais riscos à direitos fundamentais. Acerca da inexistência desse "trade-off" e de um jogo de soma zero, Ann Cavoukian destaca em uma entrevista recente realizada no âmbito do projeto UAI do IEA da Universidade de São Paulo6 justamente a importância de fugirmos dessa lógica reducionista e limitadora. Daí a necessidade de integrarmos a inovação com a ética digital, responsabilidade digital e responsabilidade pela inovação, ou "innovation forcing" (Hoffmann-Riem, Wolfgang. Teoria Geral do Direito Digital, pp. 13-14; p. 150 e ss), e pensarmos em alternativas mais holísticas e sustentáveis a longo prazo. Isso contribuiria para que o Brasil possa ser não apenas consumidor de tecnologia, mas também produtor e desenvolvedor de soluções e serviços globais, incentivando a promoção e criação de novas incubadoras, tecnoparques e do ecossistema brasileiro de inovação. Além disso, tal perspectiva aumentaria a competitividade do país, identificando benefícios e oportunidades, de forma a potencializar as oportunidades positivas da inovação digital, e ao mesmo tempo evitar ou mitigar seus riscos e deficiências. __________ 1 A Lei de Inovação Tecnológica no cenário brasileiro (https://repositorio.ipea.gov.br/bitstream/11058/8125/1/Pol%C3%ADticas%20de%20apoio%20à%20inovação%20tecnológica%20no%20Brasil.pdf) 2 https://napratica.org.br/ha-uma-cultura-de-inovacao-entre-nos-que-fica-reprimida/ 3 https://www.jusbrasil.com.br/artigos/a-lei-da-inovacao-e-seus-reflexos-no-cenario-juridico-atual-brasileiro/244053189 4 https://www.youtube.com/watch?v=BzmEcRViMeU 5 https://understandingai.iea.usp.br/entrevista/entrevista-com-a-ann-cavoukian-por-paola-cantarini 6 https://understandingai.iea.usp.br/entrevista/entrevista-com-a-ann-cavoukian-por-paola-cantarini
In recent weeks, due to the fast advancement and large-scale use by various parts of the population of AI tools based on natural language processing, such as CHAT GPT, notwithstanding further concerns with other AI applications, especially high-risk ones, that are launched in the market even without knowledge about all the possible impacts and externalities, especially those potentially negative, some manifestations have been released by researchers, entrepreneurs and countries like Italy, and in general the EU, either requesting or already applying a suspension or moratorium, and in some cases a ban. Among other problematic points highlighted there is the possible affront to the rules protecting personal data, such as the European GDPR and in Brazil the LGPD, for example, namely, the principles of transparency, good faith, data minimization, and user rights, such as the right to have prior and qualified information. As is to be read in the institutional page of the company OPEN AI, to be understood as an effort to achieve a "compliance", there are a few recently published documents ("Documents and policies"), bringing a weak level of information (qualitative and quantitative), but far from being qualified as real compliance instruments. So, for example, the Data Protection Impact Report (DPIA) or the AIIA - Algorithmic Impact Assessment, as recommended by several international documents and international bodies of highest repute, in order to verify potential risks to fundamental/human rights, in order to verify the level of risk according to international standards, "frameworks" and documents, to adopt risk mitigation measures. Yet two of the documents cited are recent, published after the product was on the market (03.01.2023, and 03.23.2023), and others do not contain the date of the version they were written, and are not complete in the proper sense of a compliance, starting with the fact that it was the company itself that created and measured which activities it considered to be of higher risk than others, and only to bring meager recommendations. Furthermore, the approach is not pro-active (sub-principle of "privacy by design"), since the burden is not for the company to be more protective and to respect the requirements for a trustworthy AI, but rather it places the responsibility on the user when mentioning that if he adopts those simple recommendations the application would be safe and responsible. Given the under-representation of Global-South countries in the arena of discussions involving the AI theme, and therefore the lack of epistemic diversity there, as well as the under-representation in the discussions of specific documents dealing with the theme and in oversight bodies of "compliance" documents, of vulnerable groups, despite some isolated proposals towards a decolonial AI, as well as towards an inclusive and democratic AI, linked to the respect for the socio-cultural characteristics of each country, there are still few specific initiatives in this direction, and so far without expressiveness in Brazil. The present petition intends to be a manifesto calling for greater social, political and public engagement in general, either through economic incentives for good practices, compliance, teams of researchers with expertise in the subject and qualified with transdisciplinary, in addition to investments in public universities in order to have the possibility of independently following the discussions and compete with the "Big techs", since only they have the financial means, the infrastructure, and the huge database which is necessary for such development, to overcome the issue of informational asymmetry in the area. It is urgent then a change in Brazil's position in terms of public policies and incentives, even fiscal, donations by private individuals, for the adoption of good practices, in startups and small companies that work with high[1]risk applications to take compliance measures, without hindering innovation, the formation and hiring of specialized teams and public investment both in public and in private Universities of recognized quality in the areas involved, especially focusing on the humanities, in face of the derisory number of research scholarships and incentives for high level researches in such areas. We think that it is a perspective more than that of "human-centered AI", but of "life-centered AI", sensible to the concern with the aspects of inclusion, diversity, and respect for fundamental and human rights, at all levels, individual, collective, and social, being necessary the search for a proportionality between guaranteeing technological development and also guaranteeing the protection of such rights, thus reducing negative externalities, and considering above all the socio-cultural context of the country and of the user involved. Considering the fundamental epistemic characteristic of AI, as originating from a trans-classical, holistic discipline, Cybernetics, it is essential to strengthen research also in the fields of humanities, that is to say, of critical, innovative and independent thinking, since the theme requires trans/interdisciplinarity so that it could be well understood and adequately regulated. In this sense, we call upon all countries of the Global South and whoever else understands the decisive importance of such an agenda in any part of the world to unite around it and other related ones, in a long-term perspective, which would contribute to the benefit of all society and to the strengthening of the Democratic Rule of Law, locally and worldwide. In this sense, it could be mentioned the favoring of taxes or fees benefiting not automation, for example, as occurs in the USA, but investments in the production of critical, trans/interdisciplinary knowledge, with priority investments in public universities, in new skills needed in face of even greater automation with AI, since a drop in the levels of such investment is occurring (following the example of the USA, with a reduction of 50% of investments in the last ten years), in order to have less social inequality, rescuing some principles of the welfare state, and thereby reducing the socially disseminated violence. We need, therefore, with urgency, to call for the union of representatives of the global south, also in order to be not only dependent on technology, but producers of technology, and of knowledge in general, that comes in our favor, and the present manifesto meets this perspective, demanding the participation of representatives of the global south in international discussions, and in collective representative bodies of such themes, in order to promote respect for the cultural aspect, thus making it possible for everyone's voice to be heard, so that we can then broaden the concept of equity and algorithmic justice, as well as social justice as a whole, avoiding even affronts to what is called the principle of the prohibition of social regression. In this context of absurd level of complexity, vertiginous speeds of change, it seems urgent to us the creation of a legal framework regulating production, uses and applications of AI systems, without prejudice to the incentives for good practices and compliance, because in our understanding the best option would be the urgent heteroregulation, even if, perhaps not complete or deficient, but preferable to none; the "loopholes" will occur anyway. In this sense, the creation of a National Authority also seems crucial to us. Another fundamental point to be observed is the proposal of a general power of caution under certain conditions that would make possible the immediate suspension of excessive risk or even high risk technologies, since the announced pause of only six months will not solve this problematic issue. The problem of control (Deleuze) has reached the entire noosphere, the infosphere, thus, the solutions will always be partial and precarious, and it does not seem possible to reach a universalizing pretension on this issue (even because the concept of universal, which according to Badiou emerges with St. Paul, is limited to Christian religions, and to the West, which adopts it the most, so to speak), and would not have the power to observe the socio-cultural context of each country, unless in a very generic way or in the form of a compromise solution. Facing such issues, the manifesto is also in the sense of the urgent need to enact federal legislation about AI for our country, even because there are already some state legislations being applied. In particular, it becomes urgent regarding high-risk AI, for example the application of "facial recognition" in elementary and high schools, as well as in front of other vulnerable groups, with several weaknesses, without observance of a list of principles and assured rights, and without minimum "compliance" measures, in particular the Data Protection Impact Assessment (DPAI) and the Algorithmic Impact Assessment (AIIA), focusing on fundamental rights. The present manifesto also goes in this direction of a call to the Brazilian Legislative Power to make the issue urgent and face it! Finally, in the wake of the initiative taken by Chile, and just as there was the express recognition via constitutional amendment of data protection as a fundamental right in our Constitution of 1988, it is urgent that this also expressly provides for new fundamental rights, called "neurorights", which are: 1. The right to mental privacy 2. The right to personal identity 3. The right to free will 4. The right to equal access to mental enhancement 5. The right to protection against prejudice It is also proposed that, before such insertion of new fundamental rights, a "caput", to the respective article, be made positive via constitutional amendment, stating as an essential value of the Democratic State of Law and in respect to the republican values, that the scientific and technological development related, in special to disruptive technologies such as AI, must obligatorily be at the service of people (life-centered AI) and, furthermore, it should observe, besides such values, the respect for the fundamental rights of all, including the protection of the new neurorights to brain activity and the information derived from it, requiring prior evaluation and authorization in a manner similar to the medical/pharmacological regulations, as well as the prohibition of the purchase or sale of such data resulting from such analysis. P.S.: I would like to thank Willis S. Guerra Filho, Belmiro Patto and Cristina Amazonas, from the Ethikai Institute Study Group - ethics as a service, for their careful reading and valuable comments on this manifesto.
Nas últimas semanas, diante do rápido avanço e utilização em larga escala por diversas parcelas da população de ferramentas de IA baseadas em processamento de linguagem natural, a exemplo do CHATGPT, não obstante outras preocupações com demais aplicações de IA, em especial de alto nível de risco, que são lançadas no mercado mesmo sem conhecimento acerca de todos os possíveis impactos e externalidades, em especial aquelas potencialmente negativas, foram divulgadas algumas manifestações por parte de pesquisadores, empresários e de países como Itália, e de modo geral a EU, solicitando ou aplicando desde logo uma suspensão ou moratória, e em alguns casos banimento (CHATGPT). Entre outros pontos problemáticos destacados encontra-se a possível afronta a normas protetivas de dados pessoais, a exemplo do GDPR europeu e no Brasil da LGPD, podendo ser citados, a exemplo, os princípios de transparência, boa-fé, minimização de dados e direitos do usuário, como o de ter informações prévias e de qualidade. Como pode ser observado da página institucional da empresa OPEN AI, como parte do que se poderia entender de "compliance", há alguns poucos documentos recentemente publicados ("Documents and policies"), trazendo um nível fraco de informações (qualitativa e quantitativa), mas longe de poderem ser qualificados como instrumentos de "compliance", a exemplo do Relatório de Impacto de Proteção de Dados (DPIA), ou o AIIA - Avaliação do Impacto algorítmico, tal como recomendado por diversos documentos internacionais e organismos internacionais de mais alto renome, com o intuito de se verificar potenciais riscos a direitos fundamentais/humanos, verificar o nível de risco segundo padrões, "frameworks" e documentos internacionais e adotar medidas de mitigação de riscos. Ainda dois dos documentos citados são recentes, publicados após o produto estar no mercado (01.03.23, e 23.03.2023), e outros não constam a data da versão de elaboração, e não são completos no sentido "de compliance", a começar por ter sido a própria empresa que criou e mediu quais atividades entendia ser de mais alto risco que outras, para trazer parcas recomendações. Ainda a postura não é pro-ativa (subprincípio do "privacy by design"), pois com isso não recai o ônus na empresa ser mais protetiva e respeitar os requisitos para uma IA de confiança, mas joga a responsabilidade para o usuário ao mencionar que se ele adotar as singelas recomendações seria a aplicação segura e responsável. Diante do cenário da sub-representação de países do Sul-Global no conjunto das discussões envolvendo a temática da IA, e pois da falta de diversidade epistêmica, como também pela sub-representação, nas discussões em órgãos específicos que cuidam da temática e de órgãos de supervisão de documentos de "compliance",  de parcelas de grupos vulneráveis, apesar de algumas propostas isoladas no sentido de uma IA decolonial, bem como de uma IA inclusiva e democrática, atrelada ao respeito das características sócio-culturais de cada país, há ainda poucas iniciativas pontuais em tal sentido, e  até o momento sem expressividade no Brasil. A presente petição pretende ser um manifesto apelando ao maior engajamento social, político e público no geral, seja por meio de incentivos econômicos a boas práticas, de "compliance", em equipes de pesquisadores com expertise no tema e transdisciplinar, além de investimentos nas Universidades Públicas para terem possibilidade de acompanharem de forma independente as discussões e concorrerem com as "Big techs", já que somente estas possuem os meios financeiros, a infraestrutura, e o enorme banco de dados necessários para tal desenvolvimento, a fim de contornar a questão da assimetria informacional na área. É urgente o posicionamento do País em termos de políticas públicas e incentivos, até mesmo fiscais, doações por parte de particulares, para a adoção de boas práticas, em startups e pequenas empresas que atuem com aplicações de alto risco para tomarem medidas de "compliance", sem obstar a inovação, a formação e contratação de equipes especializadas e investimento público nas Universidades Públicas e privadas de reconhecida qualidade nas áreas pertinentes, em especial com foco nas humanidades, diante do número irrisório de bolsas de pesquisa e incentivos para pesquisas de ponta em tal área. Entendemos que é uma perspectiva mais que a da "human-centered AI", mas de "life centered AI", contemplando a preocupação com os aspectos da inclusão, da diversidade, e do respeito dos direitos fundamentais e humanos, em todos os níveis, individual, coletivo e social, sendo necessária a busca de uma proporcionalidade entre se garantir o desenvolvimento tecnológico e também garantir a proteção de tais direitos, assim reduzindo as externalidades negativas, e considerando sobretudo o contexto sócio-cultural do país e do usuário em questão. Diante da característica epistêmica fundamental da IA, como oriunda de uma disciplina transclássica, holística, a Cibernética, é essencial o fortalecimento da pesquisa também nos campos das humanidades, do pensamento crítico, inovador e independente, pois a temática exige a trans/interdisciplinaridade para ser bem compreendida e adequadamente regulamentada. Neste sentido, conclamamos, todos os países do Sul Global e quem mais compreenda a importância decisiva de tal agenda em qualquer parte do mundo a se unirem em busca em torno dela e demais que sejam afins, numa perspectiva de longo prazo, a qual contribuiria para o benefício de toda a sociedade e fortalecimento do Estado Democrático de Direito, local e mundialmente. Neste sentido, poderia ser mencionado o favorecimento de taxas ou impostos beneficiando não a automação, por exemplo, como ocorre nos EUA, mas investimentos na produção do conhecimento crítico, trans/interdisciplinar, com investimentos prioritários nas universidades públicas, em novas habilidades necessárias diante da maior automação ainda com a IA, já que está ocorrendo uma queda nos níveis de tal investimento (a exemplo dos EUA, com redução de 50% dos investimentos nos últimos dez anos), a fim de termos uma menor inequidade social, resgatando alguns princípios do Estado de Bem estar social, e com isso reduzir a violência disseminada socialmente. Necessitamos, portanto, com urgência, conclamar a união de representantes do sul global, também para não sermos apenas dependentes da tecnologia, mas produtores da tecnologia, e do conhecimento em geral, que venha em nosso favor, e o presente manifesto vai ao encontro de tal perspectiva, a exigir a participação de representantes do Sul global nas discussões internacionais, e em órgãos coletivos representativos de tais temáticas, a fim de termos o respeito ao aspecto cultural, assim possibilitando que a voz de todos seja ouvida, para então ampliarmos o conceito de equidade e justiça algorítmica, como a justiça social como um todo, evitando-se afrontas ainda ao que se denomina princípio de proibição do retrocesso social. Neste contexto de nível de complexidade absurdo, velocidades de mudanças vertiginosas, nos parece urgente a criação de arcabouço jurídico regulamentando produção, usos e aplicações de sistemas de IA, sem prejuízo de incentivos a boas práticas e de "compliance", pois no nosso entender a melhor opção seria a heteroregulação urgente, ainda que, porventura não completa ou deficitária, mas preferível a nenhuma; as "brechas" se darão de todo modo. Neste sentido, a criação de uma Autoridade Nacional também nos parece crucial. Outro ponto fundamental a ser observado é a proposta de poder geral de cautela (Belmiro Patto) mediante certas condições que possibilitasse a suspensão imediata de tecnologias de risco excessivo ou mesmo de alto risco, pois a pausa anunciada por apenas seis meses não irá solucionar tal problemática questão. O problema do controle (Deleuze) atingiu toda a noosfera, a infosfera, assim, as saídas serão sempre parciais e precárias, não parecendo ser possível se alcançar uma pretensão universalizante dessa questão (mesmo porque o conceito de universal, que segundo Badiou surge com São Paulo, é limitado às religiões cristãs, e ao Ocidente, que mais a adota por assim dizer), e não teria o condão de observar o contexto sócio-cultural de cada país, a não ser de maneira muito genérica ou na forma mais de uma solução de compromisso. Diante de tais questões, o manifesto também é no sentido da urgente necessidade de se promulgar a legislação federal acerca da IA para nosso país, mesmo porque já há algumas legislações estaduais sendo aplicadas. Em especial, torna-se urgente quanto à IA de alto risco, a exemplo da aplicação de "reconhecimento facial" em escolas de ensino fundamental e médio, bem como diante de outros grupos vulneráveis, com diversas fragilidades, sem observância de uma lista de princípios e direitos assegurados, e sem medidas de "compliance" mínimas, em especial o Relatório de Impacto de Proteção de Dados (DPAI) e a Avaliação de Impacto Algorítmico (AIIA), com foco em direitos fundamentais. O presente manifesto também vai neste sentido de uma convocação ao Poder Legislativo brasileiro para que torne a questão urgente e a enfrente! Por derradeiro, na esteira da iniciativa tomada por Chile, e assim como houve o reconhecimento expresso via emenda constitucional da proteção de dados como direito fundamental na CF88, é urgente que esta também preveja de forma expressa novos direitos fundamentais, denominados como "neurorights" (neurodireitos), sendo estes: 1. O direito à privacidade mental 2. O direito à identidade pessoal 3. O direito ao livre-arbítrio 4. O direito à igualdade de acesso ao aumento mental 5. O direito à proteção contra preconceitos Propõe-se ainda que sejam positivados via emenda constitucional, antes de tal inserção de novos direitos fundamentais, um "caput", ao artigo respectivo, constando como valor essencial do Estado Democrático de Direito e em respeito aos valores republicanos, que o desenvolvimento científico e tecnológico relacionado, em especial a tecnologias disruptivas como a IA, obrigatoriamente deverá estar a serviço das pessoas (life-centered AI) e, ainda, deverá observar além de tais valores o respeito aos direitos fundamentais de todos, incluindo a proteção dos novos neurodireitos, englobando a atividade cerebral, e as informações dela provenientes, exigindo-se prévia avaliação e autorização de forma similar às regulamentações da área médica/farmacológica, bem como seja expressamente declarada a proibição da compra ou venda de tais dados fruto de tais análises. P.S.: Agradeço a leitura atenta e os comentários valiosos ao presente manifesto, em especial a Willis S. Guerra Filho, Belmiro Patto e Cristina Amazonas, no âmbito do Grupo de Estudos do Instituto Ethikai - ethics as a service. Assinaturas ao manifesto - por uma IA inclusiva, democrática e decolonial em favor da diversidade epistêmica dos países do Sul Global - mais transparência, explicabilidade, prestação de contas, transdisciplinaridade e multiculturalidade no desenvolvimento de uma IA de confiança, em infraestruturas livres e compartilhadas.  Instituto Ethikai Assinam o presente Manifesto:  Ordep José Trindade Serra - Professor emérito Universidade Federal da Bahia. Oswaldo Giacóia Jr. - Professor emérito Universidade Estadual de Campinas. Wolfgang Hoffmann-Riem - Professor emérito da Universidade de Hamburgo. Elígio Resta - Professor emérito da Faculdade de Direito da Università di Roma TRE. Wagner Balera - Professor titular de Direitos Humanos da Pontifícia Universidade Católica de São Paulo. Nuria Belloso Martín - Professora titular de Filosofia do Direito da Universidade de Burgos. Fabián Ludueña Romandini. Filósofo. Investigador concursado do Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET), Argentina, membro do Instituto de Investigaciones "Gino Germani" e professor de Filosofía política na pós-graduação da Facultad de Ciencias Sociales da Universidade de Buenos Aires (UBA). Professor titular de Filosofia e Ética na Universidade Argentina da Empresa (UADE). Willis Santiago Guerra Filho - Professor titular da Universidade Federal do Estado do Rio de Janeiro. Belmiro Patto - Professor da Universidade Estadual de Maringá. Wilson Engelmann - Professor da UNISINOS. Urbano Nobre - Professor da PUCSP. Marcio Pugliesi - Professor da PUCSP. Mara Regina de Oliveira - Professora da PUCSP e da USP. Jefferson Carús Guedes - Professor Titular do CEUB. Eduardo C. B. Bittar - Professor Associado - Faculdade de Direito - USP. Marcos Catalan - Professor da Universidade LaSalle. Samyra Haydee Dal Farra Naspolini - Professora permanente do Programa de Mestrado em Direito na Sociedade da Informação da FMU e Diretora Executiva do Conselho de Pesquisa e Pós Graduação em Direito - CONPEDI.  Viviane Sellos Knoerr - Professora e Coordenadora do Programa de Mestrado e Doutorado em Direito Empresarial e Cidadania do Centro Universitário Curitiba / Unicuritiba. Antonio Carlos Matteis de Arruda Junior Professor Doutor da PUC/SP. Edgar Gastón Jacobs - Coordenador do Projeto de Direito SKEMA Business School. Thiago Aguiar de Pádua - Professor da Faculdade de Direito da UnB. Yara Alves Gomes - Professora da Uninove. Luciana S. Neves - Ethikai. Marcelo Graglia - Professor da PUCSP. Lafayette Pozzoli - Professor da PUCSP. Maria Cristina Vidotte - Professora titular da Universidade Federal de Goiás, nos Programas de Pós Graduação em Direito Agrário e no Doutorado da Rede Pro Centro Oeste de Biotecnologia Biodiversidade, e no Programa de Pós Graduação em Direitos Coletivos e Cidadania da Universidade de Ribeirão Preto. Fausto Morais -  Professor da Escola de Direito e do PPGD da Faculdade Meridional - IMED/Passo Fundo. Eduardo Dias de Souza Ferreira - Procurador de Justiça e Professor de Direitos Humanos da PUCSP. Fretz Sievers Junior - Ethikai. Rafael Sacramento - Ethikai. Noemi Lemos França - QS17 Paradiplomacia. Cláudia Sousa Leitão- Tempo de Hermes Projetos Criativos. Victoria Bianqueti - Cátedra Oscar Sala, IEA-USP. Renato Maso Previde - Professor da Universidade Estadual de Passos/MG. Rafael Fonseca Ferreira - Professor da Universidade Federal do Rio Grande. Matheus de Alencar e Miranda - Doutor em Direito Penal pela UERJ. Consultor jurídico na Gussem - Saad Consultoria e Product Owner. Angelo Antonio Pires de Oliveira - Professora da Universidade Católica de Santos. Marcia Pitta Aquino - Ethikai. Yaritza del Carmen Perez Pacheco - Universidad Virtual Anáhuac, Huixquilucan, México. Kamila de Souza Gouveia - Ethikai. Ricardo Lima Praciano de Sousa - Cátedra Oscar Sala, IEA-USP. Carolina Christofoletti - Cátedra Oscar Sala, IEA-USP. Luciana Moherdaui - Cátedra Oscar Sala, IEA-USP. Rodrigo Moon - Cátedra Oscar Sala, IEA-USP. Sergio Godoy - Cátedra Oscar Sala, IEA-USP. Roberto Marcio Braga Junior - Estudante de Direito na Universidade Paulista e estudante de Análise e desenvolvimento de sistemas na Universidade Católica de Santos. Carolina Viana de Barros - Ethikai. Jefferson Fernando de Andrade Souza - Consultor e socio da ProjeXS Consultoria. Bernardo Beiriz - Cátedra Oscar Sala, IEA-USP. Juliette Robichez - Professora do Centro Universitário Jorge Amado (Unijorge), Salvador, Ba. Thiago Felipe Avanci - Ethikai e Dfast. Thayla Bertolozzi - Mestranda em Humanidades, Direitos e Outras Legitimidades (PPGHDL/USP). Bruno Henrique Simões Dantas - Universidade Federal do Oeste do Pará. Patricia Huelsen - Medialab, Ethikai. Camila Mattos da Costa - Ethikai e Cátedra Oscar Sala, IEA-USP. Paulo Campanha Santana - Advogado e pesquisador. Germano Schwartz - Diretor Executivo da Pesquisa e da Pós-Graduação na Ânima Educação. Professor do Mestrado em Direitos Humanos do Centro Universitário Ritter dos Reis - UniRitter. Líder do Working Group "Social and Legal Systems" do RCSL/ISA. Anna Pinho - Ethikai. Juliana Duarte - Ethikai. Andre Meira - Instituto Silvio Meira. Instituto Pro-vítima - Celeste Leite dos Santos. Rommell Ismael Sandoval Rosales, Director I&D Consulting, El Salvador. Docente en derechos fundamentales, litigio y evidencia, derecho procesal. Allam Correia Freitas - Universidade Católica de Santos. Alexandre Bruno - Professor da Universidade Estadual do Ceará. CsViews - Celeida Laporta. Francisco Regis Frota Araujo - Professor titular da Universidade Federal do Ceará. Raúl Andrade Osorio - Benemérita Universidad Autónoma de Puebla Abílio Osmar dos Santos - Advogado e doutorando na PUCSP. Lucas Baltasar Morimoto da Silva - Ethikai. Joaquim Eduardo Pereira - Professor da Faculdade Autônoma de Direito de São Paulo. Emerson Wendt - Delegado de Polícia, especialista em investigação de crimes cibernéticos e segurança da informação, professor de inteligência policial. Faiz Ayat Ansari - Dfast. Rafael Souza da Silva - Pesquisador da Universidade Católica de Santos. Gabrielle de Oliveira Ferreira - Estudante pesquisadora do Grupo de Pesquisa de Direitos Fundamentais, Ambiente, Sociedade e Tecnologia e do Grupo de Pesquisa Regimes e Tutelas Constitucionais, Ambientais e Internacionais, ambos da Universidade Católica de Santos. Flavio de Leão Bastos Pereira - Professor e Pesquisador com Doutorado e Mestrado em Direito Político e Econômico pela Universidade Presbiteriana Mackenzie. Pós-doutorado em New Technologies and Law - Mediterranea International Centre for Human Rights Research. Terso Willis Pinheiro Guerra - Cientista de dados, Ethikai. Gabriel Willis Pinheiro Guerra - Cientista da computação, Ehikai. Lucas Amato - USP, Direito. Anderson Rohe - Cátedra Oscar Sala - IEA USP. Joana Rita de Sousa Covelo de Abreu - Professora da Escola de Direito da Universidade do Minho, Portugal. Nelson Cerqueira - UFBA. Sandra Dias - PUCSP. Vanessa Féra - Comissão de IA e Proteção de Dados OABSP Jabaquara/Saúde. Francisco Soares Campelo Filho - Instituto AKADEMUS. Flavio Leão Bastos - Comissão de Direitos Humanos  da OABSP. Luiz Felipe Calabró - PUCSP. Flavia Figueira - Ethikai, advogada. Faiz Ayay Ansari - PhD research scholar National law school of India,  University Bangalore. Emerson Wendt - Ethikai. Eduardo Ariente - professor universitário e pesquisador. Veyzon Campos Muniz - Doutorando no Programa de Doutoramento em Direito Público - Estado Social, Constituição e Pobreza do Instituto Jurídico da Universidade de Coimbra. Victoria Bianquetti - Cátedra Oscar Sala - IEAUSP. Lucas Morimoto - Ethikai. Ricardo Lima Praciano de Sousa -  Pesquisador em Educação e IA. Gabriel Engel Ducatti - mestrando em filosofia na UNESP, prof. da rede estadual de São Paulo. Makely Ponso - Especialista em Tecnologia Jurídica. Erika Ribeiro de Albuquerque - Advogada e Mestra em Planejamento e Políticas Públicas pela UECE. Jennifer Aline Ernesto de Oliveira - Advogada, bacharel e mestranda em direito na PUCSP. Edson Vieira Abdala - Advogado e Doutorando UFSC. Rodrigo Pardal - Advogado e Doutorando PUCSP. Lauro Mens de Mello - Desembargador TJ-SP. Mariah Brochado Ferreira - Professora Titular de Filosofia da Tecnologia e do Direito da Faculdade de Direito da UFMG. Ney José de Freitas - Magistrado e Professor. Edson Vieira Abdala - Advogado e Doutorando UFSC. Karel Guerra - Advogado e presidente da Florar, associação de pacientes de cannabis medicinal. Roberto Bueno - Professor da Faculdade de Direito e Relações Internacionais da UFU. Ricardo Piragini - Mestre em Direito pela PUC/SP. Roberto Freire - Advogado criminalista e mestrando em Direito pela UNIFOR. César Barreira - Instituto Norberto Bobbio. Ana Paula Rosário Moreira - Graduanda da Universidade do Estado da Bahia e Ciberativista do Canal Corpo Político.
Introdução - compliance e "frameworks" na proteção de todos os direitos fundamentais Segundo o mapeamento realizado acerca "dos interesses e a percepção das prioridades do emergente campo científico de Ciência de Serviços", tomando como referencial a principal pesquisa conduzida nos EUA sobre o tema, a das proposições de prioridades de pesquisa em ciência de serviços do grupo Center for Services Leadership - CSL da Universidade do Estado do Arizona" (Ostrom et al., 2010), recente estudo conclui pelo "interesse em questões práticas ao universo empresarial, como criação de modelos de negócios para exploração de novas tecnologias de serviços, instrumentos e métricas de mensuração para a criação de valor", além do  interesse pelo tema da sustentabilidade e inclusão social (Fonte: A ciência da inovação em serviços: Estudo exploratório sobre os interesses e prioridades para uma agenda de pesquisa no Brasil, Paulo Cesar Calabria, Roberto Carlos Bernardes, Eduardo Raupp de Vargas e Claudio S. Pinhanez). Há, contudo, um grande gap na área de IA pela exigência de trabalho de pesquisa interdisciplinar, e pela ausência nas discussões de pessoal qualificado na área das humanidades, em especial com expertise em ética, filosofia e conhecimento especializado na área jurídica, com relação à temática da IA e de proteção de dados, refletindo tanto em questões da falta de diversidade epistêmica, e sub-representação de pessoas que representem tais áreas, além de sub-representação nas discussões internacionais de países do Sul Global, muitas vezes. Outrossim, há falta de conhecimento especializado e aprofundado acerca de modelos de "compliance", boas práticas, com fundamento em "frameworks" consolidados em uma perspectiva holística, envolvendo a área das humanidades na relação com a IA e proteção de dados, e em especial falta de conhecimento acerca dos direitos fundamentais, da proporcionalidade e ponderação, integrantes de tal análise, e da teoria dos direitos fundamentais. Diante da complexidade técnica acerca do tema IA, bem como acerca dos direitos fundamentais, exige-se conhecimento especializado e experiência em tais temáticas. Interessante observar que a mesma perspectiva acaba de ser lançada pelo Governo Federal, pela Secretaria de Governo Digital do Ministério da Gestão e Inovação ao lançou o Programa de Privacidade e Segurança da Informação (PPSI), o qual entrará em vigor na próxima segunda-feira, mencionando expressamente a criação de um Framework de Privacidade e Segurança da Informação, composto por um conjunto de controles, metodologias e ferramentas de apoio, publicados no portal da SGD. A questão principal aqui novamente é que apenas se refere a um único direito fundamental, privacidade, e se limita a apontar poucas bases e fontes principais, ao referir a interseção entre privacidade e a segurança da informação, LGPD, a Política Nacional de Segurança da Informação, os normativos emitidos pela Autoridade Nacional de Proteção de Dados Pessoais e pelo Gabinete de Segurança Institucional; e as recomendações efetuadas pelos órgãos federais de controle interno e externo, não trazendo uma análise mais aprofundada no sentido de documentos internacionais que poderiam colaborar para a construção dos documentos citados, pois poderia ser uma fonte importante devido a um histórico mais antigo de proteção, por exemplo, da proteção de dados por países da EU, havendo leis neste sentido desde a década de 1970. A UNESCO aponta em sua recomendação que precisamos de "International and national policies and regulatory frameworks to ensure that these emerging technologies benefit humanity as a whole. A human-centred AI. AI must be for the greater interest of the people, not the other way around". Apesar da iniciativa ser necessária e importante, também esbarra em algumas fragilidades, em especial por não ser suficiente a abordagem "human-centred AI", e por não oferecer "enforcement", já que estamos falando de princípios éticos apenas. Há, contudo, ainda poucas estratégias nacionais de IA com foco nos direitos humanos/direitos fundamentais, tais como as da Dinamarca, Alemanha, Luxemburgo, Holanda e Finlândia, pois a maioria dos países ainda prioriza os interesses e a competividade econômica quando da regulação ou autorregulação da IA (Bradley et al., 2020). Da mesma forma, a maioria dos processos de revisão e elaboração das "AIA" são controlados e determinados pelos que tomam as decisões no processo algorítmico, com menos ênfase na consulta de perspectivas externas, incluíndo as experiências dos mais afetados pelo desenvolvimento algorítmico, podendo gerar documentos de avaliação enviesados e parciais. É, contudo, essencial que a equipe responsável pela produção e revisão de tais instrumentos de "compliance" possua as seguintes características, para se falar em legitimidade e diversidade epistêmica: transdisciplinaridade, multiculturalismo, holismo, expertise, conhecimento da Teoria dos Direitos Fundamentais, em especial da proporcionalidade e ponderação, independência e autonomia. A IA como a mais disruptiva das tecnologias, apesar de propiciar inúmeros benefícios à sociedade possui um potencial de afronta a todos os direitos humanos e fundamentais ("Human rights in national AI strategies Source": Bradley et al., 2020; documento "Getting the future right", da lavra da "European Union Agency"), sendo essencial a construção e fiscalização do cumprimento de um "framework' específico, voltado à análise de riscos a direitos fundamentais e direitos humanos (DF/DH) em aplicações de inteligência artificial (IA), envolvendo o conceito de "fundamental rights by design", indispensável para se alcançar o conceito de "justiça de design". A principal fundamentação da presente perspectiva é contribuir para a concretização da proteção, promoção e efetivação dos direitos fundamentais por meio da tecnologia, não apenas no âmbito individual, mas coletivo e social, trazendo a preocupação com o impacto ambiental por parte da IA, e demais danos não focando-se no aspecto individual apenas, mas social e coletivo, e para isso olhando também para o impacto ambiental da tecnologia. A Comissão Europeia (European Commission) consagra a importância de uma abordagem holística (holistic approach) para enfrentar os desafios colocados pela IA, com destaque para os "legal frameworks on fundamental rights", ou seja, o estabelecimento de "frameworks" voltados a direitos fundamentais. Em sentido complementar, em 2018 o Relatório enviado à Assembléia Geral da ONU pelo Relator Especial da ONU sobre liberdade de opinião e expressão afirma que "as ferramentas de IA, como todas as tecnologias, devem ser projetadas, desenvolvidas e utilizadas de forma a serem consistentes com as obrigações dos Estados e as responsabilidades dos atores privados sob o direito internacional dos direitos humanos" (Assembléia Geral da ONU, 2018). No mesmo sentido, a Declaração de Toronto (2018), com destaque para o direito à igualdade e à não-discriminação em sistemas de IA e as Diretrizes Éticas desenvolvidas pelo Grupo de Especialistas de Alto Nível da UE sobre IA (AI HLEG), ao postular por uma IA confiável, fundada na proteção dos direitos fundamentais, na esteira da Carta da UE, e na Convenção Européia sobre Direitos Humanos (CEDH). Ainda segundo a Declaração de Toronto, deverá haver uma garantia de que grupos potencialmente afetados e especialistas sejam incluídos como atores com poderes decisórios sobre o design, e em fases de teste e revisão; revisão por especialistas independentes; divulgação de limitações conhecidas do sistema - por exemplo, medidas de confiança, cenários de falha conhecidos e limitações de uso apropriadas. Alguns documentos internacionais trazem a previsão expressa acerca da "AIIA" com foco em DF/DH com destaque para: 1) Conselho da Europa: prevê uma versão ampla da avaliação de impacto, semelhante à AIDH - Avaliações de Impacto em Direitos Humanos: ''Unboxing AI: 10 steps to protect Human Rights'' (setor público); 2) Relatório do Relator Especial das Nações Unidas para a Promoção e Proteção do Direito à Liberdade de Expressão e Opinião acerca de IA e seus impactos sobre as liberdades: prevê a obrigatoriedade de se garantir uma manifestação de "transparência radical", permitindo que os sistemas sejam escrutinados e desafiados da concepção à implementação, por meio de um processo de deliberação pública com revisão por organizações ou consultores externos, afetados, e com expertise em direitos fundamentais e humanos; 3) "Governing data and artificial intelligence for all - Models for sustainable and just data governance" do Parlamento Europeu, de julho de 2022, European Parliamentary Research Service, trazendo a perspectiva de "data justice", se preocupando com a elaboração de "human rights impact assessments" por priorizar direitos, além de apostar na criação de modelos alternativos de governança que incluam formas locais de soberania digital como a indígena ("Defining datas's potencial as a public good", p. 05, item 1). Aponta ainda para a importância do constitucionalismo digital por oferecer uma linguagem de direitos e para poder desafiar excessos tanto do poder público como do privado, trazendo o aspecto da diversidade, inclusão, e também para se evitar a fragmentação e possíveis interpretações conflitantes diante de diversos instrumentos regulatórios.  Destacamos alguns exemplos pontuais, contudo, de tal abordagem denominada de "life centered AI" (mais ampla que apenas "human centered AI), tais como a iniciativa da Costa Rica (compromisso com a proteção ambiental e implementação de técnicas agrícolas de precisão, incluindo o uso de zangões e imagens de satélite para otimizar o rendimento das colheitas e reduzir o uso de pesticidas) e a da China (implementação de câmeras alimentadas por IA para monitorar e proteger espécies ameaçadas, tais como pandas, leopardos da neve e tigres siberianos). De modo geral, entretanto, é importante destacar a falta de documentos na área de IA e proteção de dados com o enfoque também no impacto ambiental das novas tecnologias disruptivas ("life-centered AI"). Documentos de "compliance" no caso do Chatgpt São citados pela empresa em questão como princípios apenas poucos e criados unilateralmente, sendo que se entender estes como princípios éticos, sem eficácia jurídica e sem "enforcement". "In verbis": "Nossos princípios - *minimizar os danos - construiremos segurança em nossas ferramentas de IA sempre que possível, e para reduzir agressivamente os danos causados pelo mau uso ou abuso de nossas ferramentas de IA. *Construir confiança - compartilharemos a responsabilidade de apoiar aplicações seguras e benéficas de nossa tecnologia.*Aprender e iterar - observaremos e analisaremos como nossos modelos e buscaremos informações sobre nossa abordagem de segurança a fim de melhorar nossos sistemas ao longo do tempo". Trata-se de um documento extremamente genérico, abstrato, e os princípios citados são  insuficientes, não efetivos, seja porque são princípios éticos seja porque foram criados unilateralmente, sem levar em conta inúmeros documentos de guias éticos/princípios éticos já elaborados (OGNS, Organismos de Poder Público), com independência/seriedade e legitimidade para tal produção, pois demanda diversos requisitos a serem observados entre eles, a imparcialidade e a independência, e elaboração por uma equipe inter/transdisciplinar e multicultural. Outrossim, o documento não explica como asseguraria a segurança e confiança, não há elaboração de importantes documentos de "compliance", de forma prévia (princípio da prevenção, DPIA - Relatório de Impacto da proteção de dados, e AIIA - Avaliação do impacto algorítmico. Destarte, não é suficiente alegar "minimizar danos", mas demonstrar por documentação específica e elaborada por uma equipe com expertise, independência, interdisciplinaridade, multicultural, fora da estrutura institucional da empresa (independência, imparcialidade, autonomia, e pois, legitimidade). Ao se criar princípios "éticos" que mais se adequem à realidade específica do produto/empresa  poderíamos constatar a imparcialidade e legitimidade de tal produção? Não obstante a importância dos princípios éticos, quando seriamente elaborados, há o risco de possibilitar o que se denomina de "lavagem ética" (Luciano Floridi), no sentido de uma inversão da lógica da construção de tal importante documento e de sua função, no sentido de criar princípios para que a empresa se adeque a estes e não vice-versa. Neste sentido foram ainda analisados os seguintes documentos ("Documents and policies"): 1. USAGE POLICIES - 23.03.23 2. API data usage policies - 01.03.23 3. SAFETY BEST PRACTICES 4. MODERATION - sem data 5.EDUCATOR CONSIDERATIONS FOR CHATGPT  - sem data Tais documentos, que poderiam levar ao equivocado entendimento de que se trata de "boas práticas/compliance", deveriam ser disponibilizados na primeira página da empresa, de fácil visualização, com termos a serem compreendidos pelo "homem médio" e não constar o público alvo como somente "educadores" , como consta do último documento neste ponto em particular ("Educator considerations for chatgpt"), pois são informações que dizem respeito a todos e não somente a tal público especifico. Diante das recentes notícias e manifestações, tanto nacionais como internacionais, acerca de danos irreparáveis em decorrência de utilização de aplicações de IA das mais diversas, envolvendo mortes inclusive, verificamos que a questão do "compliance", das boas práticas e de medidas efetivas são urgentes, assim como a regulação por meio de leis que envolvam parte principiológica e parte de incentivos a tais práticas, tornando as mesmas obrigatórias e de elaboração prévia, antes do produto estar no mercado, em especial quando de riscos altos e com atenção especial a grupos vulneráveis em especial e países mais vulneráveis em termos de fragilidades institucionais, democráticas e na proteção a direitos fundamentais. Tais notícias foram relatadas recentemente pela ANPD - Autoridade Nacional de Proteção de Dados da Itália informando o banimento do CHATGPT por violação da privacidade, falta de transparência e informações adequadas, possível ameaça de perda de empregos, disseminação de desinformação e preconceitos, potencial de enganar e manipular pessoas, afirmando-se que tais ferramentas precisam de maior escrutínio público, e ainda informando em notícia de 20.03.23 que houve "uma violação de dados envolvendo conversas de usuários e informações sobre pagamentos", além da ausência de base legal para o tratamento em massa de dados pessoais, com a finalidade de "treinar" os algoritmos subjacentes à operação da plataforma", e da ausência de mecanismos para verificação da idade dos usuários. Diante, ainda, das notícias envolvendo o suicídio recente de um jovem na Bélgica, sendo em tal relato de sua esposa mencionado o envolvimento sentimental do mesmo com o chat, que o teria induzido a tal conduta, segundo notícias. Ainda no que se refere ao documento "políticas de uso" ("Usage policies"), consta que os usuários devem utilizar a ferramenta de forma segura e responsável, e com isso irão garantir que a mesma seja usada para o bem. Trata-se de uma postura não proativa da empresa afrontando os princípios do "privacy-by design", da lavra de Ann Cavoukian, amplamente adotados e reconhecidos internacionalmente, com destaque para a proatividade e proteção da privacidade. O documento limita-se a listar atividades desautorizadas, apontando inclusive neste setor "Plagiarismo", e "Desonestidade acadêmica", quando na verdade a aplicação pode facilitar tais usos, pela própria funcionalidade da ferramenta em si, apenas tornando estes mais difíceis de serem detectados, além de não estimular o trabalho de pesquisa individual, e não deixar claro que traz fontes inautênticas, inventadas, incompletas, bem como que o texto produzido pode ser totalmente desconecto da realidade, o que se vem denominando de "alucinações". Tal problemática é ainda mais preocupante em setores da população que possuem baixo nível educacional e econômico, por terem mais vulnerabilidades, no sentido de adotarem uma postura crítica e mais cuidadosa no uso da ferramenta. Tal documento limita-se a fazer constar que as informações fornecidas devem ser "revisadas" em apenas alguns casos, quais sejam:  fonte de assessoria jurídica, assessoria financeira sob medida sem uma pessoa qualificada revisando as informações, informações médicas. De acordo com testes pessoais realizados quanto ao CHATGPT, somente após 02.04.23 pode ser constatada a informação disponibilizada após a utilização da ferramenta ao informar que as informações ofertadas precisariam ser checadas, sendo que antes de tal data não havia tal tipo de informação após a sua utilização. Por derradeiro, os documentos afirmam ainda a perspectiva "human in the loop", mas traz apenas uma única recomendação, aquém de tal conceito que englobaria o controle e a revisão humana da tecnologia e o respeito aos valores humanos, e sem qualquer explicação do que significa o conceito "human centered AI" e de como se atingir o mesmo. Não é que o documento recomenda a revisão humana, ele quem deveria fornecer por si próprio o cumprimento de tal exigência essencial para o conceito abordado e para uma IA de confiança. Verbis: "Wherever possible, we recommend having a human review outputs before they are used in practice. This is especially critical in high-stakes domains, and for code generation. Humans should be aware of the limitations of the system, and have access to any information needed to verify the outputs (for example, if the application summarizes notes, a human should have easy access to the original notes to refer back)".  De fato é preciso levar o "compliance" a sério, assim como os direitos fundamentais, o novo constitucionalismo digital, bem como os princípios jurídicos já consagrados na LGPD- Lei Geral de Proteção de Dados, e em documentos internacionais, considerando ainda que o ônus de tais providências tem que ser das empresas que lucram milhões com elas, e não do usuário, e no caso de startups e pequenas empresas, ao aplicarem IAS de risco alto, devem ser algum incentivo público ou privado auxiliando neste sentido, para que o fator econômico não fique acima de valores humanos, e não seja impedimento para a proteção adequada de direitos fundamentais, assim como de valores democráticos e republicanos consagrados em nossa CF88.
This paper was presented at the Conference on "Regulating artificial intelligence: challenges and perspectives" (30.03.2023), coordinated by professor Emmanuel R. Goffi, Co-Director of the Global AI Ethics Institute. I would like to bring some central points of my recent research, which is developed at the Institute for Advanced Studies, Oscar Sala Chair, in the University of São Paulo, and in the Institute Ethikai - ethics as a service, mentioning perspectives for further research developments that I intend to keep carrying out in the theme of AI governance, compliance, ethics of AI, and protection of fundamental rights. About the question of the painel 3 - "Divergent perspectives: Is a regulation of AI desirable and/or possible?", my answer is that it is necessary, so it must be feasible, and we should make all efforts to achieve it. In my research and also in the Ethikai Institute we are developing a framework for risk impact assessment, fashioned to the adequate protection of Fundamental Rights in IA contexts, and also to think how to address these challenges specifically for Brazil (and countries of the Global South), since we understand it will help in the development of an inclusive, democratic, multicultural and then anthropophagic IA. It would be based on the so-called Epistemologies of the south (Anibal Quijano) and on the multiple dimensionality of Fundamental Rights. Also, we intend to bring some contributions for the discussion of some important documents on regulation of AI from the European Union, as we see there some fragilities, in order to better protect fundamental rights, reacting to some critics about the fixed level of risks of AI, as shown in the approach of documents like AI ACT, white paper on AI and so on. First of all, we understand it is crucial to question why regulate AI through    hetero-regulation instead of just by self-regulation. And for me this is because we need an inclusive and sustainable vision, in order to understand the difference.  Along this line, it would be useful to combine efforts, in the sense of Angela Davis' idea of intersectionality, since we need laws AMONG WITH ethical principles, and we also need self-regulation, through good practices, governance and compliance. Most of all, the laws needed are not only principled ones, but also such laws that support the practices just mentioned. Furthermore, it is needed the so-called proceduralization of such practices, as in the area of data protection under the GDPR - general data protection regulation of the European Union -, which is much better accomplished in this sense than the LGDP in Brazil. Despite of its positive aspects, our law shows its fragility precisely by not rendering proceduralization and incentives for good compliance practices. As we know by now, procedures are essential to apply principles in concrete cases, taking in account its particular circumstances. In the book "The Rule of Law in Cyberspace", coordinated by Gilmar Ferreira Mendes and Thomas Vesting, it is widely pointed out to the importance of legislating cyberspace, and it would be the same logic to be applied when it comes to AI, avoiding the usual phrase of techs companies, "move fast and break things" or the Chinese approach of only regulating after there are AI damages. After all, we live in the information society, the data society, society 5.0, in the era of post-humanism and transhumanism, during the "re/turn of/to the non-human" (Grusin).  At the same time, new challenges and opportunities arise with AI, with most companies and governments doubting if they are prepared to deal with such issues as AI ethics, AI governance in an environmental sustainable and social inclusive way. On the other hand, there is not much or not enough scientific research in the humanities focused on the necessary interdisciplinary approach, gathering experts in all the main fields involved, so that we could adequately address the complexity of the mentioned issues. There is, therefore, a need for the elaboration of the epistemological and methodological foundations to the construction of compliance instruments focusing on the principle of prevention and adequate protection of fundamental rights. And this in order to really start talking about algorithmic justice and effective respect to fundamental rights, in the sense of not only to consider such rights in its individual scope, but also as collective and social rights, by recognizing its multidimensionality. We definitely must consider the environmental impact of new technologies, in order to develop the sustainable, inclusive, and democratic practices of governance and compliance that is needed. In this sense, the principle of prevention stands out as a privileged instrument for the protection of rights from the threatens of new technologies, promoting the adoption of good practices predicated by compliance. Besides that, a technological design focusing on long-term environmental sustainability is a market differential, a competitive advantage, once it involves the requirements for an AI of trust, that is to say, under human control, with transparency, explainability, and accountability. It also provides the strengthening of the Democratic State of Law, since it corresponds to an effective protection of fundamental rights of all portions of the population, considering vulnerable portions in particular, through a systemic protection. We come to think along this line in a broadening of the current concept of "smart city" to that of a "smart polis" instead, by adopting the sense of "city" in classical terms, as a space for the realization of citizenship, involving the recovery of the public space to the better realization, promotion and respect of human and fundamental rights, since citizenship is the implementation and possibility of exercising such rights. Back to my research, it is important to say that it deals with the development of a new "framework" model to protect fundamental rights systemically without hindering innovation and international competition. The goal is to think long-term and compromised with sustainability, while also considering the multicultural perspective, technodiversity, intercultural digital ethics, and the socio-cultural context of countries from the Global South through the already mentioned Epistemologies of the South, since those countries face greater institutional and democratic fragility. In a nutshell, the purpose of this new model is to contribute to the construction of sustainable and responsible governance of AI algorithms. The issues related to ethics, compliance, governance, and regulation of artificial intelligence are at the forefront of current and urgent demands from businesses companies and governments. These issues require a multidisciplinary and a correlative multidimensional analysis, as they have polyvalent features, so demanding coordination between technical, legal, and philosophical resources of the highest quality. Additionally, a multidisciplinary and holistic perspective (as mentioned by Jean-Pierre Dupuy), is also needed, emphasizing the plural aspect, diversity, and specific socio-cultural contexts of the countries of the Global South. This approach is essential to develop governance instruments aiming to protect fundamental rights in their multiple dimensionality, which are, from the subjective aspect, individual, collective, and social. There is also their objective, institutional aspect, related to the shaping of the Democratic State of Law. Such protections should necessarily be part of the composition of a design logic to address AI governance in a sustainable, inclusive, and environmental friendly way. This broadens and democratizes the discussion, as it is to expect in the diversity oriented epistemic approach we look for. The current debate on algorithmic governance is a major concern of companies and governments facing AI. It involves the study of new metrics, "frameworks," and methodologies for evaluating AI models, focusing in the effective protection to fundamental rights, in order to prevent the up rise from potential affronts by AI. This requires a shift from the current paradigm, which centers on technical requirements only, such as accuracy and efficiency, towards an analysis and application that takes into account social, cultural, and ethical aspects. The aim here is to move in the direction of an analysis centered on risk assessment and protection of rights, and this not only through a human-centered AI, avoiding an anthropocentric perspective, but going even further, by turning to a "planet-centered" or "life-centered" AI. Furthermore, it aims to establish the epistemological and methodological foundation for an AI governance model with greater flexibility, and therefore, sustainability (Klimburg, A., Almeida, V. A. F., & Almeida, V., 2019), avoiding the system's plastering in the future, in the face of further developments. This would be a flexible, modular-procedural governance system, that we think is most needed and our goal is to achieve it. Few international instruments are centered in the protection of fundamental rights, and some do not mention possible violations to them already at sight, besides being limited to some applications of AI, and often only to the public sector or the company in question. This gap highlights the urgent need to develop a consolidated methodology supported by an adequate epistemological and hermeneutical basis, which involves the better understanding of fundamental rights, sustainable in the long term, in order to be effective in the protection of such rights. Therefore, the development of standards, methodologies for the creation of a framework, and certifications for responsible AI governance practices is urgent. We want to join the efforts in this direction. This perspective is not limited to the EU. In 2019, the proposed US "Algorithmic Accountability Act" required, in some cases, the development of impact assessments. In 2021, the National Institute of Standards and Technology (NIST) was tasked by Congress to develop an "AI risk management framework" to guide the "reliability, robustness, and trustworthiness of AI systems" used in the federal government. The 2021 report of the National Security Commission on Artificial Intelligence recommended that government agencies using AI systems prepare "ex ante" and "ex post" risk assessments to provide greater public transparency. In the field of data protection is widely accepted and applied the "privacy by design" principles developed by Ann Cavoukian ("Privacy by Design: The 7 Foundational Principles," Ann Cavoukian, 2009). While there is already talk of "fundamental rights by design," the usual proposals are limited to mentioning some fundamental rights (privacy), and only some elements of a trusted AI as well (transparency, explicability). However, there is a need for an adequate "framework" that focuses on the preventive and effective protection of all fundamental rights that AI may potentially affect, extending the scope of a trusted AI to take into account sustainability and inclusion. Moreover, applying such principles will contribute to addressing another "gap" in present researches, which is the difficulty of translating ethical principles into concrete practices, by moving "from principles to actions," and so preventing the discussion from being limited to ethical principles lacking practical effectiveness, in order to avoid what has been called "ethical laundering." By applying a "framework" based on new principles of "fundamental rights by design" that we foster, taking into account the multidimensionality of fundamental rights, it is possible to access a systemic and sustainable protection. Our proposal aims precisely to apply new "fundamental rights by design" principles in the design and compliance instruments, acting in a proactive way through "ex ante" mechanism, by focusing on the development of new foundations for AI applications. The proposal is inspired by the discussion between Robert Alexy and Marti Susi in the book "Proportionality and the Internet" and intend to elaborate new elements of the "fundamental rights by design", in order to include new variables, from a non-European perspective. Therefore, ours is a proposal mainly for Brazil and the Global South Governance, which is based on the "modular" governance model brought by Virgilio A. F. Almeida and Urs Gasser's paper "A Layered Model for AI Governance". This would be a perspective we have characterized as anthropophagic and tropicalist, in allusion to important modernists cultural movements launched in Brazil in the last century by such artists as Oswald de Andrade and Caetano Velloso. This model is more flexible and suitable for the unprecedented problems of our datified society. The modular approach in AI governance advanced by the authors is similar to the present one, "modular-procedural", as for instance both proposals have a procedural feature and aim to provide adequate solutions for new problems in the present time. The theoretical framework follows the directives found in the most recent documents produced by the EU and other countries that adopt a strong level of protection for fundamental and human rights, such as "AIC ACT", "White paper on AI", "Unboxing AI - 10 steps to protect human rights", "Report of the United Nations Special on the Promotion and Protection of the Right to Freedom of Expression and Opinion (on AI and its impact on freedoms"), and "Governing data and artificial intelligence for all (Models for sustainable and just data governance") of the European Parliament. These documents provide essential AI concepts such as "data justice" and "human/fundamental rights impact assessments". Important models for the elaboration of Impact Reports with a fundamental and human rights approach (Artificial Intelligence Impact Assessment - AIIA) include the proposal of the Centre for Information Policy Leadership (CIPL) and the Dutch Platform for the Information Society, and Responsible AI Impact Assessment Toll (RAIIA) developed by the International Technology Law Association. The proposal we favor emphasizes that the protection of fundamental rights will not rule out innovation and aims to overcome the creation of myths surrounding AI. Just as myths are commonly spread in Brazil about racial democracy, the absence of racism, and a consolidated democracy, there are also mythological productions in the field of AI, corresponding to the idea that hetero-regulation would not be necessary and would hinder innovation, or that the legislations that must exist should reach a weak level of protection of rights or be simple and generic. As we are not convinced of the soundness of those conception, our proposal argues that a team of heterogeneous experts with independence, autonomy, and specific knowledge of fundamental rights and ethics principles, governance/compliance in a multidisciplinary way is necessary to better prepare and evaluate, the impact assessments of AI, observing the requirements of multiculturalism, holism, and inclusion (legitimacy). Our framework turns out to be more flexible due to the procedure that must be observed in each concrete case, and it may be changed in the future depending on the technological development, if it becomes more secure and reliable, and with less potential of affront to the fundamental rights of vulnerable populations. It does not take into consideration only the application of AI, in itself, and in isolation, but also its context of use, the population involved that may suffer damage to their FD (and analyzes this according to each specific application of AI). In conclusion, the inclusion of fundamental rights, balancing, and the application of proportionality in the elaboration of compliance documents such as LIA (Legitimate Interests Assessment), the DPIA (Data Protection Impact Assessment) and AIIA (AI Impact Assessment) with a focus on fundamental rights should be done by a team with specific knowledge, independence, multiculturalism, and multidisciplinarity. Such a document can contribute to the improvement of the quality of products and services in AI and their legitimacy as well.
O presente artigo traz as conclusões e produtos desenvolvidos no âmbito do projeto de pesquisa de pós-doutorado na USP/IEA/Cátedra Oscar Sala (2022/2023), intitulada "Governança de IA e Epistemologias do Sul: por uma IA democrática e inclusiva - 'fundamental rights, rights by design' ('DFbD')", tendo por objetivo central a elaboração de uma proposta de governança de IA para o Brasil e países do Sul Global, levando em consideração as "Epistemologias do Sul". Trata-se de uma proposta de governança modular e procedimental, portanto, flexível e alterável diante dos elementos tempo e espaço/contexto, tornando-se, assim, mais apropriada às características da IA e da sociedade contemporânea. Visa-se com isso a reimaginação da tecnologia (Reimagining Technology), por meio da contribuição com a fórmulação de um "framework"1 ("roadmap") para a análise de riscos a direitos fundamentais e direitos humanos (DF/DH) em aplicações de inteligência artificial (IA), envolvendo a etapa/procedimento da ponderação, como fundamento para o design ético em IA, isto é, "fundamental rights and human by design" ("DFbD"), para se poder alcançar o conceito de "justiça de design", "justiça algorítmica" e também para a elaboração de documentos de "compliance", em especial, a AIIA - Avaliação de impacto algorítmico. A recomendação executiva poderá ser utilizada como uma espécie de "sandbox", tal como prevê a Estratégia de Inteligência Artificial, com destaque para o uso ético dos algoritmos, e para a responsabilidade algorítmica. A pesquisa parte da análise da Teoria dos Direitos Fundamentais, e da fórmula matemática da ponderação segundo R. Alexy, bem como a proposta de M. Susi para aplicá-la, com ajustes, em conflitos "online", visando propor uma alternativa e uma revisitação dos elementos da referida fórmula matemática, em ambas as versões, para contextos de IA ("online" e "off-line"). A fórmula da ponderação "revisitada" poderá ajudar a garantir maior transparência, explicabilidade, responsabilidade e contestabilidade, garantindo o que se tem denominado de "contestability by design (CbD)", mais amplo do que a garantia apenas do direito de revisão humana, por garantir a intervenção humana nas diferentes etapas e durante o processo de desenvolvimento do sistema (design participativo). Da mesma forma, poderá ser englobada como dentro da análise de colisão de direitos fundamentais, quando da elaboração de instrumentos de "compliance" como a ALI, o DPIA e a AII, demonstrando a boa-fé, transparência, prevenção, para com a legislação e melhores recomendações práticas por órgãos especializados, aumentando o nível de transparência, segurança, responsabilização, prestação de contas e confiança, logo, sua sustentabilidade. A presente abordagem de "DFbD" poderá, pois, complementar os processos de "due diligence" dos direitos humanos/fundamentais/proteção de dados/IA, fornecendo um caminho estruturado para o desenvolvimento prático dos requisitos de design - "DFbD", bem como para a elaboração adequada da AIIA - avaliação de impacto algorítmico com base em DF. A governança de IA para o Brasil vem qualificada de "governança antropofágica", no sentido de autóctone, enraizada no solo tropical do Brasil, levando em consideração sua realidade histórica e características sócio-culturais, ao mesmo tempo que é atualizada com os desenvolvimentos internacionais, em uma abordagem que seja holística e democrática, a qual mais se coaduna com as características da IA em sua origem (cibernética). Isso se dá em uma perspectiva não eurocêntrica, mas multicultural, de modo a alcançar uma justiça algorítmica democrática e inclusiva. Clique aqui e confira a coluna na íntegra. __________ 1 Há diversas abordagens variadas em teoria para AIAs mas apenas um modelo atual de AIA existe na prática, autorizado pela Diretiva do Secretariado do Tesouro do Canadá sobre Tomada de Decisão Automatizada. Para implementar os princípios éticos da IA, as empresas tomaram medidas, incluindo: a realização de avaliações do impacto dos direitos humanos sobre as tecnologias emergentes, medidas para impulsionar a colaboração e o diálogo através da indústria e de plataformas multi-stakeholder, criação de estruturas de governança, tais como comitês de revisão interna. *A Intel e a Microsoft estão entre as empresas que realizaram avaliações do impacto dos direitos humanos sobre as tecnologias emergentes. Para a revisão de riscos a Microsoft criou a estrutura de governança interna para identificar e rever os riscos, conhecida como a Comissão AETHER.
Para PCG, como uma carta que, se não comunica, pelo menos encurta o tempo e a distância a nos separar (tanto mar, tanto mar). Estamos sendo constantemente desafiados, já enquanto seres pensantes, para não dizer logo como filósofos, a nos situar em face dos mais recentes desenvolvimentos das chamadas TIC - tecnologias da informação e da comunicação. O constante aparecimento de novidades, de inovações, não propicia, a rigor, maiores surpresas, pois é uma consecução do que já de há um bom tempo se descortina como próprio da "cibernetização planetária", tematizada explicitamente por Martin Heidegger, em escritos célebres como "A questão da (rectius: a pergunta pela) técnica" (1953) e "O fim da filosofia e a tarefa do pensamento" (1964). Também já se advertira para os perigos da técnica e da sanha inovadora da modernidade - a justificar assim esta denominação -, seu principal professor, Edmund Husserl, logo após o apocalíptico, por extremamente revelador, advento daquela que então se chamou Grande Guerra e depois, com a retomada em ainda maior escala, Primeira Guerra Mundial. Postulou ser de renovação do que precisávamos (e ainda precisamos!), mais do que de inovação tecnológica, mais e mais. A virtualização crescente, a culminar no chamado "metaverso", por exemplo, já foi vislumbrada em tal dimensão ainda no final do século passado, na obra "Cibercultura" (1997), de Pierre Lévy, o título mesmo do quinto capítulo o deixa indicado, ao se enunciar como "O ciberespaço ou a virtualização da comunicação", havendo item dele que é ainda mais específico: "A comunicação através de mundos virtuais compartilhados". É certo que também na literatura, especialmente aquela dita "utópica", às vezes "distópica" ou ainda, de "ficção científica", já se encontrava, por assim dizer, tematizado tal desenvolvimento, da maneira mais explícita que seja de meu conhecimento na obra de Stanislaw Lem "Congresso Futurológico" (1971), vertida muito bem para o cinema em "The Congress" (2014), assim como fora outra de suas obras, "Solaris" (1961), por Tarkovski (1972) e também em Hollywood (2002) - nesta podemos reconhecer uma variação do quanto se tem em "Star Maker" (1937), de Olaf Stapledon, considerado "pai da ficção científica moderna" (https://jonathanrosenbaum.net/2022/01/olaf-stapledon-the-father-of-modern-science-fiction/), sendo que seu autor era um professor de filosofia que transpunha para esse seu livro, assim como o anterior, "Last and First Man" (1930), tratando dessa "brief music that was man", entre outros, suas preocupações genuinamente cosmológico-filosóficas sobre o significado da vida, em geral e, especificamente, a nossa, humana, no universo. Outro exemplo de antecipação literária de tais desenvolvimentos contemporâneos encontramos em "A Invenção de Morel", do argentino Adolfo Bioy Casares. Publicada em 1940, foi apontada como "perfeita", no prefácio que para ela escreveu o conterrâneo e parceiro do A., o grande Jorge Luis Borges. A "invenção" de Morel - nome, como indica o próprio Borges, alusivo ao "Moreau" da distopia biológica de H. G. Wells, "A ilha do Dr. Moreau", agora em versão "tecnologizada" - é uma máquina que fixa eterna e infinitamente uma semana vivida por aqueles que por ela foram "filmados", e assim, por este efeito, mortos, para serem imortalizados. Perfeito mesmo, como metáfora do afã de infinitude, com a correspondente negação da finitude própria da vida humanamente vivida, que rege o impulso de incessante inovação tecnológica a imperar no mundo ocidentalizado da globalização nortista. Disso trata muito bem o filósofo brasileiro, professor no IFCS-UFRJ, Gilvan Fogel, em sua recente obra "Do coração máquina. A técnica moderna como compaixão do homem pelo homem" (Rio de Janeiro: Maud X, 2022), em especial no longo estudo que ali consta, inspirado no "poeta da técnica", Álvaro de Campos, um dos heterônimos de Fernando Pessoa. Em Bioy Casares também, no conto "Carta sobre Emilia" (1962), ao final, há observação feita "de passagem", como se estivesse dizendo uma obviedade, mas que nos parece merecer toda a nossa atenção. Transcrevo, em seu idioma original, perfeitamente compreensível para o leitor do nosso: "no saben que toda comunicación es ilusoria y que en definitiva cada cual queda aislado en su mistério?". Sim, a tecnologia que já é a comunicação em sua forma primeira, oral, já provoca a ilusão fundamental de sermos para além do tempo e do espaço em que nos circunscrevemos, bem como a de que por ela nos tornamos um com os outros, como os outros, assim como seriam como nós, e nos entenderíamos, total, completa e perfeitamente. Com similar profundidade ou calibre filosófico, com as propriedades bem conhecidas e peculiares da cultura germânica, sobre o tema do metaverso e outros correlatos, tem-se o romance "Eumeswil" (1977), de Ernst Jünger, escrito em sua maturidade avançada. Ali, dando sequência ao que se pode considerar uma trilogia, iniciada com "Nas Falésias de Mármore" (1939) - considerado uma crítica velada ao regime nazista, tolerada apenas devido à admiração de Hitler pelo autor -, a que se seguiu, no segundo pós-guerra "Heliópolis" (1949). Nesta última, já vem descrito um aparelho chamado fonóforo, claramente uma antevisão dos atuais aparelhos celulares, que permitia a todos se conectarem com todos os outros no mundo e assim, por exemplo, deliberar diretamente sobre qualquer assunto, instituindo uma "democracia planetária" (v. Parte II, cap. 3, p. 347 da 1ª. ed. alemã). Seria uma ágora eletrônica em sessão permanente, da qual se ausentam os corpos, restando uma presença enganadora, espectral, numa ágora que sendo virtual não o é propriamente (sobre o que vale consultar um conjunto de obras publicadas, sob o título geral de "A Comunidade dos Espectros", por Fabián Javier Ludueña Romandini, bem como um seu artigo no prelo, adiante referido). O quanto consta de "Eumeswil" se passa em um tempo ainda além, "metahistórico" e "metatécnico", para empregar os termos mesmos empregados na obra, quando o mundo voltou a se fragmentar politicamente, após a experiência fracassada (ou esgotada) do Estado mundial: "mundo histórico que, diante da realidade da fábula, torna-se um mero espectro" (cap. 3). É quando mesmo os conservadores se mostram como "cidadãos sonhadores, que se reunem como espectros" (cap. 21), espectros que em outra passagem do mesmo capítulo são qualificados como "mais temíveis que os homens" e depois como "os verdadeiros herdeiros do último homem" (cap. 42), de notória concepção nietzschiana. Em "Eumswil", é certo, ainda há o fonóforo, que se tornou um marcador das diferenças de classes, ou talvez melhor dizer, de estamentos, com cores que vão desde o cinza, que só recebe chamadas, até o dourado, prerrogativa do Um, o tirano, que no livro é o personagem Condor. "Quando alguém desaparece", escreve Martin (talvez uma homenagem ao grande interlocutor de Jünger, então recentemente falecido, quando da publicação do livro, Martin Heidegger), o narrador, "as investigações começam com um telefonema para o fonóforo. Se houver uma resposta, sabe-se que está disponível e também, aproximadamente, onde. Portanto, vou desligar o fonóforo por um bom período de tempo. Nossa existência social está esgotada nessa conexão e desconexão." (cap. 21). No mundo de "Eusmeswil", entrento, há um outro aparato, bem mais potente: o "luminar". Aqui temos um motor de busca com o qual os funcionários do Google ou da Meta sequer conseguem sonhar. E segundo nos propõe Jünger, caso sonhem com suficiente tenacidade, realizariam, pois "não fracassamos por conta de nossos sonhos, e sim por não os termos sonhado com força suficiente" (cap. 49, últ, frase). É que o luminar é capaz de dar acesso a quem o consulta não só a textos produzidos no passado, mas aos próprios eventos, por meio de um teletransporte temporal. É tido como obra de uma pós-humanidade ctônica, titânica, habitantes dos subterrâneos de um mundo, de onde acessam o espaço sideral e fornecem seus inventos aos habitantes da superfície terrestre. Ali se encontram ainda os remanescentes dos humanos, daqueles que, segundo a mitologia grega, teriam sido criados por Titãs, assim como os deuses, aos que serviram de joguete e diversão. Isso até se convencerem de haver um só Deus, com todo o poder, inclusive de se tornar humano, sofredor, mortal, prenúncio da superação de todo sofrimento e da mortalidade. E aqui nos recordamos do alerta de Emil Cioran, do dia 4 de junho de 1969, sobre o Deus que iria substituir os deuses ser pior do que eles, concluindo que "o monoteísmo judaico-cristão é o estalinismo da Antiguidade", bem como sua reflexão "entre parênteses" do dia 9 de março de 1971, tudo segundo registros em seus "Cadernos" ("Cahiers" 1957 - 1972", Paris: Gallimard, 1997, p. 736 e 912 resp., destaques do A.): "Todas as vezes que o homem esquece que é mortal, sente-se impelido a fazer grandes coisas e às vezes o consegue, mas ao mesmo tempo esse esquecimento é a causa de todos os seus infortúnios. Ninguém se eleva impunemente. Renunciar não é outra coisa senão conhecer nossos limites e aceitá-los. Mas isso vai contra a tendência natural do homem, que o empurra em direção à superação, à ruína". Para a invenção do luminar, além da tecnologia, amparada cientificamente, fora necessário também lançar mão dos conhecimentos de natureza mágica dos oráculos, telepatas e videntes. E assim foi possível alcançar o estado, que segundo Benjamin, na 3ª. das já referidas "Teses", seria aquele da redenção, pois "somente a humanidade redimida poderá apropriar-se totalmente do seu passado. Isso quer dizer: somente para a humanidade redimida o passado é citável, em cada um dos seus momentos. Cada momento vivido transforma-se numa citation à l'ordre du jour - e esse dia é justamente o do juízo final". Mas aqui é preciso fazer intervir o aforisma de Kafka, o de número 40, de seus "Aforismas reunidos" (escritos entre fins de 1917 e começos de 1918, publicados em 1931): "Só a nossa concepção de tempo nos faz nomear o juízo final com essas palavras; na realidade ele é um tribunal permanente". É ainda deste "tribunal permanente" que se trata no mundo pós-futurista de Eusmeswil, incrementado pelos meios tecnológicos postos a serviço da aquisição e exercício do poder de domínio, da sujeição humana a outros humanos, empoderados como os velhos e perversos deuses da Antiguidade clássica. Como nos indica o filósofo platense Fabián Javier Ludueña Romandini, em artigo intitulado "Prolegómenos para una metafísica de la Artificial Intelligence y sus consecuencias socio-políticas en el mundo por venir", encaminhado para o quarto volumedas coletâneas que venho organizando com Paola Cantarini e outras colegas, "Direito e Inteligência Artificial: Fundamentos, vol. 4 - Por uma filosofia da inteligência artificial" (Rio de Janeiro: Lumen Juris, 2022, p. 59) discutindo os fundamentos da inteligência artificial, Raymond Ruyer, em "La cybernétique et l'origine de l'information" (1954) já mostrava "uma percepção muito aguda de como os problemas da informação cibernética se relacionam com estruturas teológicas que buscam construir um novo Absoluto que substitua a antiga divindade onisciente". E sobre o significado de acessarmos ao metaverso, vai concluir que equivale a "conceder a este o status de meta-realidade que redefinirá completamente as bases da realidade inicial e poderá abduzi-la completamente dentro de si". É que estamos diante da possibilidade "da Inteligência Artificial se desenvolver como uma entidade autoconsciente", e em assim sendo, "o caminho para uma religião sem precedentes pode abrir-se inesperadamente e, de certa forma, não é desarrazoado supor que já está em construção, minando todas as crenças anteriores da civilização terrestre, nos promotores do transumanismo da singularidade". Eis que tal momento, para ele, com o que havemos de concordar, "exigirá a vocação do pensamento filosófico como nunca aconteceu antes". E como aqui pretendemos evidenciar, não esperemos que venha apenas ou mesmo de qualquer forma do que se reconhece como filosofia, tal "pensamento filosófico" ou, simplesmente, "pensamento", o que continua ecoando indefinidamente mesmo após o fim da filosofia, segundo Heidegger. Pode vir, estar ou já ter vindo da literatura ou de qualquer outra forma poética, aí incluíndo-se música, dança, teatro, religiões, mitologias etc. etc.
sexta-feira, 4 de novembro de 2022

Tecnomagia: Vigência da terceira lei de Clarke

"Nur noch ein Gott kann uns retten". Só mais um deus pode nos salvar. Esta é a célebre frase contida na entrevista-testamento concedida por Heidegger à revista alemã Der Spiegel, em 1966, a ser publicada apenas após o seu falecimento, o que se deu dez anos depois. Frase que de certa maneira resume todo o seu percurso filosófico de diagnóstico de nossa época "da imagem do mundo (Weltbild)", para referir expressão que cunhou e consta do título de um significativo trabalho seu deste período, pós-publicação de Ser e Tempo; época assombrada pela ameaça da técnica. Nesta época, de obscuridade ofuscante, de "cegueira clara", para empregar a metáfora saramaguiana, as deidades foram afugentadas, ou exiladas, como preferia Heine. É certo que quem promove a fuga ou exílio foi e continua sendo sobretudo o Deus único, por vezes também trino, dos monoteísmos, preparando a generalização do ateísmo e do cientificismo, ao que correspondente movimentos como os de interiorização da subjetividade e de privatização de experiências do sagrado. Dá-se o que Weber celebremente consagrou como a época do "desencantamento do mundo", "desencantamento" que traduz a "Entzauberung", palavra que literalmente significa o desfazimento da magia (Zaubern). É a época da afirmação do humanismo, em múltiplas formas, como sucedâneo de formas mitopoéticas de nos situarmos na existência. Esse deus que nos salvaria precisaria, então, emergir da recuperação desta capacidade teúrgica, que nos restituiria uma humanidade perdida com o advento do humanismo. Sem que isso signifique uma negação das ciências, antes pelo contrário: elas poderiam e, mesmo, precisariam ser reorientadas para além do serviço da técnica, em direção à poética, ressaltando seus poderes de criação (poiésis) de mundo, não só de produção (téchne) de imagens de mundo, ou de resultados economicamente lucrativos, em favor daqueles humanamente significativos. Se somos constituídos linguajeiramente e tudo humano é linguagem ou resultado de seu emprego em alguma de suas múltiplas formas,  vale relembrar, com Toshihiko Izutsu, a função mágica da linguagem, já que segundo este grande sábio japonês "em muitas línguas, o próprio termo para 'palavra' tem uma intensa conotação mágica ou cerimonial. Assim, em sumério, como vimos, o mesmo termo, inim, é usado alternadamente no sentido de 'palavra' e no sentido de 'feitiço' ou 'encantamento'. Isso é particularmente notável no caso do japonês arcaico. Aqui, as duas palavras principais para a fala, noru e ifu, têm ambas associações mágicas inegáveis; flutua em torno delas uma atmosfera cerimonial, senão sinistra, que as permeia e penetra". (no orig.: in many languages the term for "word" itself has an intense magical or ceremonial connotation. Thus in Sumerian, as we have seen, the same term inim is used alternately in the sense of "word" and in the sense of "spell" or "incantation." This is particularly conspicuous in the case of early Japanese. Here the two principal words for speaking noru and ifu have both undeniable magical associations; there floats around them a ceremonial, if not sinister, atmosphere which pervades and penetrates them. The collected works of Toshihiko Izutsu, vol. 1, Language and Magic: Studies in the Magical Function of Speech, Tóquio: Keio University Press,  2011, pp. 37 - 38). Mesmo em inglês, a identidade entre o verbo soletrar, to spell, e encantamento, magia, feitiço, spell, já é uma pista semântica de todo evidente. É certo que pela terceira lei de (Arthur C.) Clarke "qualquer tecnologia suficientemente avançada é indistinguível da magia" - ou, na versão melhorada de Gregory Benford, "qualquer tecnologia distinguível da magia é insuficientemente avançada" -, porém nos falta o respeito incutido por palavras com "uma atmosfera cerimonial, senão sinistra, que as permeia e penetra". Arthur Clarke também elaborou outras duas leis acerca da relação entre nós  e a técnica, a saber: Quando um cientista distinto e experiente diz que algo é possível, é quase certeza que tem razão. Quando ele diz que algo é impossível, ele está muito provavelmente errado. O único caminho para desvendar os limites do possível é aventurar-se um pouco além dele, adentrando o impossível. A similitude, enunciada pela terceira lei de Clarke, entre a magia e a ciência (logo, também, o saber prático dela derivado, que é a tecnologia), efetivamente, nos lembra a tese defendida brilhantemente por Sir James Frazer em sua famosa obra The Golden Bough. Em apoio a esta tese viria, por exemplo, a conjectura, muito bem fundamentada, de que as manifestações artísticas paleolíticas, a "arte das cavernas", tinham um objetivo mágico - (cf. Gordon Childe, A Evolução Cultural do Homem, Rio de Janeiro: Zahar, 1976, p. 73) e também de conhecimento. Ou ainda o fato de o estudo da formação infantil do significado, assim como o do significado selvagem ou iletrado se depararem com uma mesma atitude mágica em relação às palavras e, por intermédio destas, em relação ao mundo (Cf. Malinowski, "O problema do significado em linguagem primitiva", suplemento a O Significado de Significado, C.K. Ogden e I.A. Richards, Rio de Janeiro: Zahar, 1976, p. 318). O mesmo Frazer sugere a hipótese de que haveria uma linha evolutiva partindo da magia, passando pela religião, para chegar à ciência, pois o homem que pratica a magia realiza operações mentais denominadas expressivamente por Marcel Mauss "sofismas naturais do espírito humano", (cf. "Les fonctions sociales du sacré", in Oeuvres, vol. 1, Paris: P.U.F, 1968, p. 18) ao tornar objetivas ideias e associações delas, imaginando criar as coisas como lhes sugerem seus pensamentos, por crer-se mestre das forças naturais como o era de seus próprios gestos. A percepção da resistência do mundo em aceitar o seu domínio mágico, pela consequente falibilidade de seus rituais, atestada pelo malogro de experiências sucessivas, termina por acarretar a submissão às forças misteriosas e sobrenaturais que não consegue controlar - "après avoir été dieu, il a peuplé le monde de dieux" (trad. livre: depois de ter sido deus, ele encheu o mundo de deuses. Mauss, "Esquisse d'une théorie générale de la magie", em colab. com H. Hubert, in Sociologie et Anthropologie, ed. por Lévi-Strauss, Paris: P.U.F., 1950, p. 11). Vale assinalar o significado político dessa submissão a entes superiores, donde resultaria a submissão também àqueles que se diziam capazes de entender e tratar com eles, isto é, as castas sacerdotais. Estas, como se sabe, fornecem o sustentáculo ideológico para a concentração do poder, inicialmente distribuído entre os membros do grupo social. A noção do supra - ou sobrenatural, que é própria da religião, introduz a representação de forças que escapam ao poder humano, a serem controladas através de um relacionamento amistoso, proporcionado pelo culto com oferendas, sacrifícios e coisas do gênero. Assim, enquanto a magia envolve operações que se revestem de um caráter coercitivo para com os espíritos, forçados a agir no sentido indicado pelo praticante dos atos mágicos, na religião é estabelecida uma espécie de aliança para impedir a arbitrariedade na ação divina, revestindo o relacionamento entre homens e divindade de um caráter, por assim dizer, jurídico - a propósito, v. Id., ibidem, p. 112, ensaio intitulado "Pour une sociologie des religions archaïques". Surge, então, a religião, modificando-se a, por assim dizer, estratégia e postura das pessoas diante do mundo, que não é mais coagido pela magia, mas sim adorado através de suas práticas religiosas, com as quais distinguem uma esfera separada das outras da vida ordinária, que seria literalmente, extraordinária, sacra, porém acessível a todos, ao contrário da magia, que é prerrogativa do "especialista", o xamã (a propósito, cf. Malinowski, "The Art of Magic and the Power of Faith", in Id., Magic, Science and Religion, ed. por Robert Redfield, Glencoe: The Free Press, 1948, p. 68). Em seguida, porém, chega o momento em que a religião também se torna desacreditada e insatisfatória como forma de explicação do mundo, em virtude dos inúmeros erros cometidos e constatados, sendo então sucedida pela ciência. Ocorre que a ciência, novamente, não é acessível a todos, mas apenas a especialistas, sendo de uso comum os seus resultados. Ficamos privados, no entanto, de um corpo de saber reconhecido de um modo geral como capaz de nos solucionar os enigmas e perplexidades da vida de um ser consciente a seu respeito, como somos os humanos, e à diferença da magia, a ciência não tem vínculos com nossa dimensão afetiva. Embora tal teoria dos três estágios de desenvolvimento intelectual da humanidade, possivelmente inspiradas nas "fases" de Comte - teológica, metafísica e positiva -, venha a ser renegada posteriormente de um modo geral (cf. E. E. Evans-Pritchard, Antropologia Social da Religião, trad. Celso Castro, Rio de Janeiro: Campus, 1978, pp. 45 ss.), não deixa de apontar certas características da magia, bem como para o papel que desempenha entre os povos primevos, semelhante, mutatis mutandis, àquele da religião e da ciência, pelo que representa como fonte de conhecimento e poder. Ao mesmo tempo, assim como o religioso por ofício e o cientista, "le magicien est un fonctionnaire de la société, souvent institué par elle, et qui ne trouve jamais en lui-même la source de son propre pouvoir" (trad. livre: o feiticeiro é um funcionário da sociedade, normalmente instituído por ela e que jamais encontra em si mesmo a fonte de seu poder, Mauss, Introduction a l'analyse..., cit., p. 19). A eficácia de sua prática e a autoridade das ideias que a fundamentam repousa sobre uma tradição, velada por fortes sanções sociais, de que certas palavras apropriadas e gestos específicos possuem um poder secreto sobre as coisas (cf. Malinowski, loc. cit. e Os Argonautas do Pacífico Ocidental, col. Os Pensadores, Trad.: José de Sousa Martins, São Paulo: Abril Cultural, 1978, pp. 309 ss.) Em sua obra clássica, antes referida, Ogden e Richards explicam que "classificar as coisas é dar-lhes nomes e, para a magia, o nome de uma coisa ou grupo de coisas é a sua alma; conhecer os seus nomes é dispor de poder sobre as almas delas. Nada, seja humano ou sobre-humano, está acima do poder das palavras. A própria linguagem é um duplicado, uma alma-sombra, de toda a estrutura da realidade" (pp. 51-52). Malinowski, além de ser reconhecidamente o grande precursor da pesquisa de campo em antropologia, é também o responsável pela mudança de enfoque do papel da magia nas sociedades selvagens. Já Frazer, prefaciando o opus magnum do primeiro, Argonautas do Pacífico Ocidental, chama atenção para a forma como aí se estuda a organização social com base na distribuição econômica dos bens para satisfazerem as necessidades fundamentais humanas, próprio da análise funcional, peculiar ao método funcionalista concebido pelo sábio polonês. Em seguida ressalta a importância conferida por este à fé no poder da magia como força psicológica auxiliar na organização e sistematização do esforço econômico nas comunidades melanésias, o que seria "suficiente para anular a hipótese errônea de que a magia, contrariamente à religião, é por sua própria natureza essencialmente maléfica e anti-social". Aproveita, então, para reafirmar a analogia entre ciência e magia, ambas em si neutras axiologicamente, instrumentos que podem ser postos a serviço do bem ou não (cf. Argonautas do Pacífico Ocidental, cit., pp. 6 - 8). No mesmo sentido, Edmund R. Leach observa que "Malinowski was almost the first anthropologist to recognize that 'magic', far from being an exemplification of primitive superstition and ignorance, is a social mechanism through which the 'magician' asserts his status and exercises control over the action of others" (trad. livre: Malinowski foi praticamente o primeiro antropólogo a reconhecer que a 'magia', longe de ser uma exemplificação da superstição e ignorância primitivas, é um mecanismo social por meio do qual o 'mago' afirma seu status e exerce controle sobre a ação de outros (Introdução a Malinowski, Coral Gardens and Their Magic, vol. I - Soil-Tilling and Agricultural Rites in the Trobriand Islands, Bloomington: Indiana University Press, 1965, p. VIII). Em passagem que apesar de um pouco mais longa, merece transcrição integral, em texto em que corrobora e aprofunda a tese de Frazer (cf. "The Art of Magic and the Power of Faith", in Malinowski, Magic, Science and Religion, cit., p. 67), ele sintetiza sua compreensão da diferença entre o que poderia ser considerado científico ou técnico, mesmo entre povos crentes na magia, e esta última: Science, even as represented by the primitive knowledge of savage man, is based on the normal universal experience of everyday life, experience won in man's struggle with nature for his subsistence and safety, founded on observation, fixed by reason. Magic is based on specific experience of emotional states in which man observes not nature but himself, in which the truth is revealed not by reason but by the play of emotions upon the human organism. Science is founded on the conviction that experience, effort, and reason are valid; magic on the belief that hope cannot fail nor desire deceive. The theories of knowledge are dictated by logic, those of magic by the association of ideas under the influence of desire. As a matter of empirical fact the body of rational knowledge and the body of magical lore are incorporated each in a different tradition, in a different social setting and in a different type of activity, and all these differences are clearly recognized by the savages. The one constitutes the domain of the profane; the other, hedged round by observances, mysteries, and taboos, makes up half of the domain of the sacred. (Trad. livre: A ciência, mesmo quando representada pelo conhecimento primitivo do homem selvagem, é baseada na experiência universal normal da vida cotidiana, a experiência ganha na luta do homem com a natureza para sua subsistência e segurança, fundada na observação, fixada pela razão. A magia é baseada na experiência específica de estados emocionais em que o homem não observa a natureza, mas a si mesmo, em que a verdade é revelada não pela razão, mas pelo jogo das emoções sobre o organismo humano. A ciência é baseada na convicção de que experiência, esforço e razão são válidos; magia na crença que a esperança não pode falhar nem o desejo enganar. As teorias do conhecimento são ditadas pela lógica, as da magia pela associação de idéias sob a influência do desejo. Por uma questão de fato empírico o corpo de conhecimento racional e o corpo de sabedoria mágica estão incorporados cada um em uma tradição diferente, em um contexto social diferente e em um tipo diferente de atividade, e todas essas diferenças são claramente reconhecidas pelos selvagens. Aquele constitui o domínio do profano; o outro, cercado por observâncias, mistérios e tabus, constitui metade do domínio do sagrado).  Compreendemos, então, tendo em vista a terceira lei de Clarke, o quanto o avanço da tecnologia não pode deixar de se fazer acompanhar de um avanço igualmente da consideração para com as carências de uma outra ordem que não aquelas materiais, para cujo atendimento se dirige a tecnologia, sendo a tais outras carências que a magia se presta a atender, tratar. Ocorre que nos falta cada vez mais o respeito incutido por palavras com "uma atmosfera cerimonial, senão sinistra, que as permeia e penetra" (Toshihiko Izutsu). Essa atmosfera é produzida pelos rituais, o fundamento mesmo da magia, segundo Mauss. A necessidade que temos de rituais e as consequências catastróficas da negligência (pós-)moderna em relação a eles é analisada com sua costumeira perspicácia por Byung Chul-Han em sua recente obra "Do desparecimento dos rituais", trad. Carlos Leite, Lisboa: Relógio D'Água, 2020). E assim como do saber tecnológico, promovido por especialista, derivam benefícios para o comum das pessoas, do saber mágico, também especializado resultariam para as pessoas de um modo geral um sentido e orientação na vida que é o que se espera das religiões e tradições sapienciais. Sem uma reconexão com tais tradições, o avanço tecnológico da Inteligência Artificial só continuará nos afastando do objetivo da ética em seu sentido original, grego: o de nos fornecer uma vida boa, por justificada, de conforto interno, mais que exterior, material. Do contrário, lembremos o alerta de Jean Baudrillard, de poderíamos cometer o que qualificou como o "crime perfeito", a saber, o de matar a morte. Seria o que estamos em vias de realizar, então, este crime máximo e último? Isso porque "o crime perfeito é o de uma realização incondicional do mundo pela atualização de todos os dados, pela transformação de todos os nossos atos, de todos os acontecimentos em informação pura - em resumo: a solução final, a resolução antecipada do mundo por clonagem da realidade e extermínio do real pelo seu duplo" (Baudrillard, O crime perfeito, trad.: Silvina Rodrigues Lopes, Lisboa: Relógio D'Água, 1996, p. 49). Altered Carbon, uma série em exibição no Netflix, é baseada justamente em especulações a respeito de como poderia ser em uma sociedade futura em que tal já se realizou, como então se generaliza o crime após cometida essa violação máxima. Ocorreria algo como comer do fruto da segunda árvore proibida situada no jardim do Éden, o paraíso do qual teriam sido expulsos nossos antepassados mais remotos, sem ter a chance de colher do seu fruto e assim viver eternamente, por terem desobedecido à ordem de não provar do fruto da outra árvore. Daí a extrema necessidade de promoção daquela forma de arte que para Vilém Flusser estaria ressurgindo em nossos dias, a ars vivendi, um saber viver que é um saber da vida como exploração de abismo - o Ab-grund, ou o Bodenlos (título da autobiografia de Flusser, São Paulo: Annablume, 2007), ou seja, literalmente, o sem fundamento, de onde finita, mas indefinidamente emergimos. No momento crítico em que vivemos, esta ars se configura como uma tecno-poética em vias de se tornar um modo de lidar artisticamente com a matéria viva, bem como romper barreiras estabelecidas e aceitas secular ou mesmo milenarmente entre os seres artificiais e os entes enquanto artefatos naturais, diferentemente inteligentes e inteligíveis. É a revolução biolítica, dos humanos artificiais e das máquinas com alma, a que se referiu Hervè Kempf (La Révolution biolithique. Humains artificiels et machines animées, Paris: Albin Michel, 1998) na era do antropoceno, quando perguntamos, com Déborah Danowski e Eduardo Viveiros de Castro: Há mundo por vir? (Desterro - Florianópolis/São Paulo: Cultura e Barbárie/Instituto Socioambiental, 2014). Tal revolução viria nos impor, com a urgência da ameaça de extinção, a necessidade de uma redefinição de nossa humanidade e de tudo o que nos rodeia, ou seja, o que quer que consideremos mundo, reconhecendo-o como criação cada vez mais nossa - assim artística como tecnocientífica, logo, filosófica. A urgência desse pensamento em nosso tempo se explica justamente em razão do que nele vem-se produzindo, sob a influência do predomínio do pensamento técnico-científico - e o pensamento técnico, vale destacar, desde sempre e cada vez mais remete ao pensamento que a filosofia tornou científico, e vice-versa. Antes da ciência se tornar o que hoje - e desde já há algum tempo - ela se tornou, ela existiu embrionariamente enquanto técnica, faltando apenas o encontro histórico com a filosofia, primeiro, e, depois, com a religião monoteísta e personalista, de Deus onipotente feito homem, no cristianismo, para que se arvorasse na condição de impor sua vontade ao mundo e assim se verificassem os pressupostos mais importantes, no plano ideológico, imaginário, de seu completo desenvolvimento - eis que se tem uma origem metafísico-teológica da ciência e de sua(s) técnica(s), que repousaria em seu antecedente primevo, arcaico, que é a magia, a tecnomagia.
sexta-feira, 9 de setembro de 2022

Por uma Inteligência Artificial antropófaga

O livro "Filosofia da Inteligência Artificial com Base nos Valores Construcionistas do Homo Poieticus" faz parte de um trabalho de pesquisa, apresentando-se como um "work in progress", em sendo um desdobramento da "Teoria Poética do Direito", da "Teoria Erótica do Direito", trabalhos originários do mestrado e doutorado em Direito da A., e também da tese de doutorado em Filosofia "Theatrum philosophicum - o teatro filosófico de Foucault e o direito", bem como das pesquisas realizadas como "visiting researcher" - University of Miami, Florida University of Florida,  European University Institute - Law Department, do CIJIC (Centro de Investigação Jurídica do Ciberespaço), e ainda como pesquisadora do C4AI - Centro de Inteligência Artificial (USP), no Instituto que fundou e preside, o EthikAI - ethics as a service, e no atual pós-doutorado em Inteligência Artificial pela USP - IEA (Cátedra Oscar Sala), visando trazer reflexões filosóficas sobre a temática da IA, no âmbito da atual relação homem-máquina-natureza. Ao analisar de que forma a tecnodiversidade e o reconhecimento do potencial da técnica enquanto "poiesis" com base nos valores construcionistas do "homo erotico-poieticus", buscou-se estabelecer como contribuir para um empoderamento do ser humano, por meio de tal potencial enquanto descolonizador, no lugar de se restringir ao conceito de técnica enquanto domínio econômico do capital. A ideia é que devemos refletir a partir da tecnodiversidade, o que significaria contemplar uma cosmotécnica amazônica, inca, ou maia, por exemplo, em uma epistemologia que fundamente uma filosofia pós-europeia. Do que se trata, afinal, é de repensarmos a relação entre as diversas disciplinas e saberes, e de rediscutirmos a inter e a transdisciplinaridade em novas bases (Lúcia Santaella - Cátedra Oscar Sala), diante da dissolução  das fronteiras entre as ciências exatas e as humanidades, por meio do  desenvolvimento de uma teoria inclusiva e democrática, levando-se em consideração o desenvolvimento de uma Teoria Fundamental da  Inteligência Artificial, influenciada pela Teoria dos Direitos Fundamentais, de forma a propiciar uma  adequada proteção aos direitos fundamentais envolvidos, contemplando a importância do multiculturalismo e das Epistemologias do Sul na perspectiva do estudo e defesa dos Direitos Humanos. O problema central da pesquisa é como poderíamos construir as bases epistemológicas de uma filosofia da IA baseada nos valores construcionistas do "homo poieticus", no sentido de uma filosofia da IA como uma pra´tica orientada teoricamente, um saber pra´tico, uma teoria que traga resultados práticos, no sentido original, grego, de uma "poie´tica". Uma filosofia da IA com fundamento no postulado de uma tecnodiversidade, portanto, buscando-se as bases epistemológicas e fundacionais para a técnica enquanto relacionada à "poiesis", logo, com o que é de mais humano, com o ero´tico, enquanto poe´tico, "poie´tico" (criador e criativo), ao contrário da ordem da reprodução, mediação e representação. Os atores sociais não podem mais se resumir aos seres humanos, pois o Planeta Terra vem reagindo a diversos abusos e excessos cometidos pelos seres humanos, é um ator político, portanto, actante, no sentido que Leibniz associado a Gabriel Tarde conceitua as mônadas, como forças substantivas, originárias, que possuem em si sua própria determinação e perfeição essencial. É urgente, pois, o desenvolvimento de premissas e fundamentos epistemológicos para uma filosofia da IA, aliando-se o verde da sustentabilidade e economia de fato compartilhada, com o azul da inovação e tecnologia1, mas partindo da premissa primeira que a ciência possui também seus limites, o que demandará a articulação das demais disciplinas. Trata-se de vincular a compreensão de tais temáticas pela mediação de uma linguagem e compreensão distópica, diagonal, heterotópica, do afirmativo, acategórica, logo, poética, múltipla, antidogmática, pragmática, reconhecendo insuficiente a visão apenas dialética e matemática. Ao invés de pensarmos apenas em uma "Human-centered AI", com base em valores antropocêntricos, e muitas vezes também eurocêntricos, temos que ir além e pensar em uma "Planet-centered AI".2 Em vez da singularidade, afirma-se a multiplicidade, por meio de um necessário salto, "da Amazon à Amazônia", muito mais do que uma simples "random forest", ou florestas randômicas, pois trata-se de imaginar uma inteligência artificial antropófaga (resgatando Oswald de Andrade), ou tropicalista, no sentido do desenvolvimento de uma IA inclusiva, democrática, multicultural, multidimensional e com foco nas Epistemologias do Sul, pós-eurocêntrica, em um sentido que seja bene´fico a` vida, ao inve´s de morti´fero, ameac¸ador ate´ da existe^ncia do nosso planeta, pelo poder de nos induzir a viver com iluso~es verdadeiramente delirantes, no estado de sonambulismo a que se refere Oswald de Andrade no Manifesto Antropo´fago.3 Como aponta Bruno Latour,4 a perspectiva terrestre demanda uma nova distribuição das metáforas, das sensibilidades, uma nova "libido sciendi" fundamental, e a reordenação dos afetos políticos, ao invés de olharmos para a natureza como um fator de produção a ser dominado e explorado, reconhecendo a interdependência do humano e da natureza. Destaca-se a importância da governança digital, não se limitando apenas a inovações tecnológicas e se tornar competitivo em nível mundial, mas no sentido de governança digital sustentável, quando o azul do digital junta-se ao verde ambiental, produzindo um círculo virtuoso entre natureza e tecnologia. Tal proposta se fundamenta em uma perspectiva de descolonização da governança de dados e da inteligência artificial, construindo-se novos imaginários sociais, levando-se em consideração os modos de vida, os valores e as epistemologias próprias do povo indígena e da população afrodescendente. Ou seja, os dados pessoais de tais parcelas vulneráveis são produzidos por terceiros, na maior parte das vezes, fora de tal representatividade adequada, com a reescrita de suas histórias e valores, ocasionando, pois, a desconexão com tais contextos e a possível ocorrência de "bias", já que há uma definição e conceituação através do olhar e das narrativas de terceiros, em um estado de dependência da matriz de colonização. Desta forma, se produz um ecossistema de dados inconsistente, impreciso e irrelevante para os propósitos de soberania de dados indígenas e da população afrodescendente. A governança de dados descolonial implicaria no controle sobre o projeto, coleta, armazenamento e acesso aos dados por parte dos povos indígenas e comunidades afrodescendentes a partir da construção epistemológica própria a tais imaginários sociais, evitando-se epistemologias e propostas redutoras ou de cima para baixo. Do que se trata, portanto, é da necessidade de se repensar a relação técnica-homem-natureza por meio de uma análise multidisciplinar, multidimensional, intercultural já que trata de questões com características polifacetadas, adotando-se uma nova visão hermenêutica e epistemológica, visando à construção de pilares essenciais para o design ético-técnico da IA voltando-se para o "human and fundamental rights by design", e para o "ecopoiesis by design", e o "planet-centered AI", por meio de uma perspectiva inclusiva, sustentável, democrática, contribuindo, sobretudo, para uma visão não antropocêntrica, mas antropófaga, por autóctone e aberta ao diálogo internacional, a fim de fortalecer o mercado nacional de IA, a partir do empoderamento do ser humano e do potencial de descolonização da própria tecnologia. A proposta hermenêutica e epistemológica, a partir da perspectiva poética, por não linear, não bidimensional, pressupõe um entendimento que passe pelo pensamento filosófico polifônico, do múltiplo, como uma pragmática do múltiplo, isto é, um pensamento plural, a fim de nos aproximar do conceito de "homo poieticus".5 Trata-se de uma mudança do entendimento representacionalista (mimético) para um construcionista (poiético), da "mimesis" para "poiesis", resultando em uma interpretação poiética de nosso conhecimento, assim desenvolvendo uma lógica de design dos artefatos semânticos pelos quais somos epistemicamente responsáveis. Chegaríamos com isso a uma epistemologia poiética (construtiva) ao invés da epistemologia mimética (representativa), capaz de fundamentar uma ética e uma filosofia da IA relacionadas aos valores construcionistas do "homo poieticus". Diante dos buracos na Economia Circular, diante do extrativismo de dados, dumping ético, colonialismo eletrônico ou colonialismo digital (eColonialismo) concebido Herbert Schiller ("Communication and Cultural Domination"), já que o papel do Terceiro Mundo se concentra em ser a principal fonte da matéria-prima, do "superavit comportamental", devido a uma maior fragilidade em termos de legislação, conscientização e educação digital e fiscalização adequada, é essencial a postulação por uma IA inclusiva e democrática com foco em uma abordagem de co-construção ("co-construction approach"), tal como prevista pela Declaração de Montreal publicada em 2018, ou seja, uma abordagem que envolveria quatro condições necessárias, quais sejam: diversidade epistêmica, acesso à informação relevante, moderação e interação. No tocante à diversidade epistêmica, deverá ser assegurada a diversidade dos grupos deliberativos, em termos de ambiente social, gênero, geração e origem étnica. Tal diversidade é indispensável para alcançarmos uma IA democrática e inclusiva, bem como para se aumentar a qualidade epistêmica dos debates, permitindo diversos pontos de vista e perspectivas. Destaca-se ainda a necessidade dos participantes disporem de competências ou conhecimentos na área em discussão, devendo, para tanto, obter acesso à informação relevante e de qualidade que seja simultaneamente acessível e fiável. No que tange à moderação, os participantes precisam ter liberdade para raciocinar livremente, afastando-se os preconceitos cognitivos. A interação, por sua vez, se faz presente por meio de diversas reuniões e workshop de co-construção reunindo todas as partes interessadas (associações, sindicatos, representantes profissionais, empresas), bem como representantes políticos, considerando-se os seminários como espaços de deliberação. Sobretudo, ao se pensar sobre questões éticas e em uma filosofia da IA, devemos repensar as bases epistemológicas para a construção do conhecimento científico em tais searas em novas bases, e com fulcro nos valores do "homo poieticus", no sentido de uma filosofia, ética, e de um direito libertos do bino^mio aprisionador sujeito-objeto, mas comprometidos com o múltiplo e o acategórico, no sentido de libertar a diferença, que é o elemento essencial quando se fala em recuperação de diversas características essencialmente humanas, e de modo a reequilibrar a relação humano-algoritmos. Uma leitura e compreensão poéticas, não dialéticas, que levem em conta o não dito, o resto, a heterotopia.6 Tal multiplicidade relaciona-se à época em que vivemos, época do simultâneo, da justaposição, do próximo e do longínquo, do lado a lado, do disperso,7 como uma pragmática do múltiplo, trazendo um pensamento plural, quando entre o sujeito e o outro se estabelece o espaço da alteridade. Para melhor compreensão da técnica e da nossa relação com esta devemos propiciar a aproximação com outros pensamentos, na esteira de Simondon e Heidegger, a partir do conceito de Epistemologia do Sul, nos dizeres de Boaventura de Souza Santos, inspirado em Anibal Quijano, pensando-se nas cosmotécnicas, amazônica e do Sul Global. Ao se pensar as novas tecnologias com seu potencial heurístico juntamente com as possíveis contribuições das ciências exatas, no sentido de uma tecnodiversidade, buscando um empoderamento através da tecnologia, ao invés de uma limitação em sua perspectiva problemática, buscamos alcançar uma compreensão diferenciada das questões atuais e urgentes que as humanidades enfrentam. Posicionamo-nos em favor de uma pluralidade de pensamento, semelhante ao que Luciano Floridi caracteriza como "homo poieticus", favorecendo uma mudança da compreensão representativa (mimética/ordem e medida) do conhecimento para uma compreensão construcionista (poiética). Embarcamos assim na filosofia como design conceitual, envolvendo a crítica, a arte (criatividade), o erotismo, relacionada com as potências da vida, uma epistemologia poiética (construtiva) ao invés de mimética (representativa), apta a propor a ética da IA relacionada aos valores construcionistas do "homo poieticus". Isto porque quando presos apenas no foco conceitual, no modo conceitual de investigação, nos desviamos da verdadeira face da filosofia, a qual deverá se aproximar da vida fática ("Dasein"), aproximando-se da vida efetivamente vivida, trazendo a importância de problematizações e de uma filosofia do acontecimento (Foucault). Uma filosofia da IA com base nos valores do "homo poieticus", no sentido de uma filosofia liberta do binômio aprisionador sujeito-objeto, mas comprometida com o múltiplo e o acategórico, no sentido de libertar a diferença, que é o elemento essencial quando se fala em recuperação de diversas características essencialmente humanas, viria novamente equilibrar a relação humano, natureza e técnica, e termos assim alguma chance em obter de volta o que nos torna de fato humanos, e não querermos nos igualar ou ter características maquínicas, pois estas já estão presentes na IA, a qual nos supera em tais qualidades, já sendo uma aposta vencida se pensamos em superá-la quanto a tais aspectos. A perspectiva do "homo poieticus" envolveria considerar os conceitos de "ecopoiesis" design, trazendo uma perspectiva inclusiva, um ambientalismo inclusivo, através de uma nova aliança entre o natural e o artificial, entre física e técnica. Uma inversão do platonismo é do que se trata, pois com ele iniciaria a concepção das ideias como modelos universais de explicação do mundo, o que será desenvolvido por Aristóteles, dando origem à compreensão de filosofia e da arte como representação, desqualificando os simulacros como a imagem destituída de semelhança e que vive da diferença. A representação é a episteme da época clássica, do século XVII, em termos de ordem e medida: uma reflexão analítica, classificadora, calculista, com exclusão de tudo que é desmedido, não classificável, incalculável. Ocorre aí a expulsão do discurso do que é essencialmente não representativo, da instância da desordem e do irracional. No lugar da matematização da vida, negando-se cientificidade ao que não seja matematizável, aposta-se numa possível "virada", uma "passagem para o poe´tico" (Benedito Nunes), no sentido de retomada do desencobrimento da produção, da "poiesis", quando o homem deixaria de ser disponível, preso na disponibilização generalizada de tudo e todos, reencontrando sua própria esse^ncia de humano, livre. Apenas com a "poiesis", com a poética (e artes que se aproximem da "poiesis") sairíamos da representação, indo além da mediação e chegando a uma interação/experimentação efetiva. Com a poética ocorre a suspensão e exposição da língua, um discurso inoperoso de potência (Agamben), que torna possível um outro pensamento do pensamento, ocorrendo a desativação do dispositivo sujeito-objeto, em uma poética da inoperosidade, desativando a função utilitária, comunicativa por meramente informativa, permitindo uma abertura da linguagem e aproximando-se assim da experiência abissal que nos habita como o mais próprio e autêntico. É preciso assim tocar as margens do impensável e do inominável, no sentido da construção de um pensamento filosófico próprio, autóctone, por não envolver apenas a reprodução do já dito, por buscar ir além daqueles que são nossos mestres, e continuar o caminho do pensamento de onde pararam, fazendo um experimento com a linguagem e o pensamento. Uma linguagem poética do pensamento emergiria, o dobrar, a superdobra, no sentido de se pensar o lado de fora, uma nova linha de fuga, a experiência do fora como uma forma de resistência, trazendo a possibilidade de novos devires. Uma reconversão do pensamento ("metanoia") se tornaria possível, no sentido de se escapar do modo de ser do discurso da representação, e assim trazer a possibilidade de novas subjetividades. Buscar a experiência do fora no sentido de colocar o sujeito como objeto para si mesmo, projetado para fora de si, e com isso conseguir voltar a si mesmo, através de um esquecimento, abrindo-se a novos devires. O diferente, o desigual, o devir, não como deficiências que afetam a cópia, mas eles próprios como modelos: simulacro, acaso, devir, múltiplo. Portanto, de forma a resgatar o valor dialógico e diacrítico da linguagem, trata-se de buscarmos a recuperac¸a~o da "poiesis", de "Eros", recuperando assim a outricidade ba´sica da linguagem, com o reconhecimento do outro e da diferença, opondo-se à atual simplificação ou vulgarizac¸a~o da linguagem.8 Pela poética as palavras são conduzidas a ambientes estranhos a um sentido lógico prefixado, sendo desmobilizadas do seu habitat e libertas da rede lógica da linguagem, chegando ao resíduo do mundo sem nomes.9 A poética permitiria a presentidade, a imediatividade, saindo da linearidade, e entrando na espiral ascendente, nos aproximando do resto, permitindo uma abertura para novos devires e diferenças libertadas. A interação vincula-se à experiência, em um espaço-tempo próprio, singular, rompendo com a linearidade, e aproximando-se da perspectiva do espaço-tempo espiral, intraduzível em termos de linguagem formal e lógica. O pensar como o lance de dados (pensamento nômade, como irregularidade intensa e dissolução do self), tal como aponta Deleuze, o qual não irá abolir o acaso (Mallarmé), a diferença, como nas novas ciências, diante do seu indeterminismo, a exemplo da física quântica. Esta é uma outra, terceira, dimensão, operando além ou aquém (aquém, no sentido de informe, do que não se formou ainda) das duas formas (imagem e palavra), invocando a instância da imaginação. Seria uma linguagem que não mais aprisione o homem, mas onde o homem encontra sua morada, distanciando-se em especial do fetiche dos conceitos, em uma linguagem técnica, fechada em si mesma como os dogmas, mas ligada a uma abertura da própria linguagem, na busca de uma nova linguagem para a técnica moderna - ligada a "poiesis", portanto.10 Como poderíamos afirmar então a "techné" como "poiesis", como na Antiguidade clássica grega, no sentido de recuperar tal aproximação quanto à técnica moderna? A técnica para Heidegger é uma forma de des-encobrimento ("aletheia"), desvelamento. A palavra técnica é originária do grego "technikon", dando origem a` "techne´", não se relaciona apenas com o fazer artesanal, mas também com o fazer das grandes artes e das belas-artes. A te´cnica aqui entrelaçada à "poiesis" é então compreendida como o saber trazer o ente a` presenc¸a. Heidegger também apontaria para a questão do acontecimento apropriador, por meio de um salto por cima do abismo, mas que, contudo, jamais chegaria à outra margem, sendo tal salto sustentado pelo dizer poético11. Para os gregos, pois, a "techné" tinha também algo de "poiesis", pois a "techné" era considerada como um instrumento humano para extrair da "physis" as possibilidades que já se encontrariam presentes nesta. A "techné" era um aperfeiçoamento do que já existe, da natureza, uma continuação dela, da "physis", que já é produção, mas não como submissão da natureza à técnica, ao contrário, a técnica é que se submeteria à natureza para extrair dela as suas possibilidades e com isso alcançaríamos um saber vocacionado para a melhoria das condições de vida, um saber viver e saber morrer. Rebatendo a afirmação de Hegel de morte da arte, Heidegger afirmaria que a arte pode não ter chegado ao seu fim, havendo outro possível papel para a arte no sentido de contribuir para uma possibilidade de um novo pensamento após o fim da filosofia, e como tentativa de situar a própria arte fora do esquema da representação, como na obra de Cézanne, de Klee e de Kandinsky vendo nestas uma tentativa de repensar a essência da técnica, a partir da possibilidade se tornar visível o invisível. Com isso, a "techné" retorna ao seu conceito original dos gregos como um desencobrir produtor, relacionando-se com a "poiesis", e mais próxima da essência do homem como um ser de relação. __________ 1 FLORIDI, Luciano. Il verde e il blu per un futuro sostenibile e preferibile, Editora Cortina Raffaello, 2020. 2 JONAS, H. The Imperative of Responsibility: In Search of an Ethics for the Technological Age, University of Chicago Press, 1985. 3 ANDRADE, Oswald de. O manifesto antropo´fago. In: TELES, Gilberto Mendonc¸a. Vanguarda europe´ia e modernismo brasileiro: apresentac¸a~o e cri´tica dos principais manifestos vanguardistas. 3a ed. Petro´polis: Vozes; Brasi´lia: INL, 1976. 4 LATOUR, Bruno. Onde aterrar. Rio de Janeiro: Editora Bazar do tempo, 2020. 5 FLORIDI, Luciano. Lógica da Informação: A Theory of Philosophy as Conceptual Design, Oxford: OUP, 2019. 6 CANTARINI, Paola. Tese de doutorado em Filosofia, Paola Cantarini, PUCSP, 2021, O teatro Filosófico de Foucault e o Direito. 7 FOUCAULT, M. "Ditos e escritos", vol. III, Estética Literatura E Pintura Musicas e Cinemas, Editora Forente, 2013, p. 465. 8 FOUCAULT, M. Ditos e escritos, vol. III, p. 424.. 9 HAUSMAN, Carl. Metaphor and Art. New York: Cambridge at UP, 1989. 10 FOUCAULT. M. Ditos e escritos, vol. II, p. 31. Manuscrito inédito, citado por F. Gros, "Situação do curso" in FOUCAULT, M. A Hermenêutica do sujeito, p. 636. 11 HEIDEGGER, Martin. The Origin of the Work of Art, in Off the Beaten Track, trans. Julian Young and Kenneth Haynes, Cambridge, UK: Cambridge University Press, 2004; The Provenance of Art and the Determination of Thinking, [Die Herkunft der Kunst und die Bestimmung des Denkens]; Otto Po¨ggler, Bild und Technik Heidegger, Klee und die Moderne Kunst (Mu¨nchen: Wilhelm Fink Verlag, 2002.
Não é difícil verificar que no Direito permanece vigorando o predomínio da técnica, baseada em uma forma de pensamento positivista no sentido mais rasteiro, isto é, o legalismo, em convergência com a generalizada, exponencialmente crescente robotização e a mecanização do pensamento. Isso em detrimento dos aspectos fundamentais a serem levados em conta na tomada de decisões judiciais, principalmente nos denominados "hard cases", aqueles que se pode traduzir em colisões entre direitos e princípios jurídicos fundamentais. Também não suscita maiores dificuldades perceber a insuficiência, para uma solução adequada, no sentido de proteção da dignidade da pessoa humana, de uma simples fórmula matemática algorítmica, como na conhecida proposta de Robert Alexy. Desconsidera-se com isso que o Direito e a Ciência, e o Direito enquanto Ciência possuem uma história, e que a própria cientificidade do Direito depende também do elemento empírico, da experiência (Pontes de Miranda, Miguel Reale), e logo, novamente, da história, de natureza histórica, o que escapa necessariamente, ao se tentar reduzir a realidade jurídica a fórmulas matemáticas, ou seja, a um simulacro. Revela-se aqui uma crise de paradigmas no Direito e a necessidade de uma transmutação, a fim de encontrarmos alternativas a uma já anunciada morte do homem e da história, pela perda da autopoiese, tanto aquela social (Luhmann), como aquela biológica (Maturana), sendo esta ameaça a uma condição da nossa possibilidade de existência, ante a substituição por máquinas e robôs. Isto porque, assim na natureza como em suas projeções, como somos nós e nossas sociedades, tudo o que não é mais relevante e não tem função acaba sofrendo mutações ou é descartado com o tempo. Entendemos, o A. e Paola Cantarini (v., e.g., nossa Teoria Poética do Direito, Rio de Janeiro: Lumen Juris, 2015), que o Direito depende, para sua evolução e reconstrução "in fieri", da "poiesis", sendo tal uma característica marcante dos seres humanos já como seres biológicos, pois sua maior fragilidade o faz depender da criatividade para sobreviver, logo, também da sensibilidade dos que se relacionam com e através do Direito. Portanto, o Direito, apesar da predominância de sua compreensão e aplicação de forma linearmente técnica, limitado a ser concebido apenas como, no máximo, uma tecnologia, desprovida de um verdadeiro embasamento científico, em uma ciência suficientemente desenvolvida para dar estar à altura desta tarefa, vai se afastando cada vez mais da "poiesis", da poética, da sensibilidade, da criação, ocorrendo atualmente, em grande parte, apenas uma eterna repetição do igual, da mesmice, "ad nauseam", pois nada se cria, onde tudo se copia e cola. Cada vez mais se utiliza da linguagem automatizada e da aplicação da inteligência artificial no Direito, sem que estejam suficientemente analisados os impactos, as consequências possível e efetivamente danosas. Sabe-se que os algoritmos trabalham com probabilidades e não com certezas, mas tal fato muitas vezes é desprezado ou subvalorizado pelos aplicadores do Direito na busca de uma razão geométrica na interpretação e concreção do Direito.  Ou, pior, quando desistem de qualquer razão e afirmam sua mera força amparada em um poder que assim se deslegitima. Como já amplamente noticiado e discutido, por exemplo, há algoritmos com base nos quais a inteligência artificial atua e toma decisões, racistas ou discriminatórias. Isto ocorre por captarem dados que circulam na sociedade, em nossos sistemas de informações e de comunicações - lembrando que na teoria de sistemas sociais de Luhmann a sociedade e tais sistemas se identificam -, assim reproduzindo e mantendo a existência do racismo estrutural nesta sociedade, mundial, assim contaminando com tais dados os algoritmos utilizados por inteligência artificial para a tomada de decisões de suma importância e relevância, como as que vêm cada vez mais sendo adotadas no âmbito do Poder Judiciário. O motor de diversas aplicações via inteligência artificial funciona basicamente da seguinte forma: o motor de tal programa é um algoritmo, um conjunto de instruções que se aplica a um conjunto de dados. Dependendo de quem construa esses modelos de algoritmos, e dos dados coletados que os alimentam, o resultado será um ou outro. Neste sentido importante estudo de Virginia Eubanks, professora de Ciências Políticas da Universidade de Albany, autora do livro "Automating inequality", investiga como as ferramentas tecnológicas perfilam, controlam e punem os pobres. Na mesma linha de raciocínio crítico, pesquisa da lavra de professores da Universidade de Boston demonstra que os sistemas de aprendizado das máquinas (machine learning) têm vieses sexistas, pois na fonte de dados mais comum, a internet, já há diversas associações de conceitos que induzem ou ensinam as máquinas a estabelecer certas correlações como verdadeiras, sem uma mediação de seu conteúdo, como, por exemplo, a relação "dona de casa = mulher, gênio = homem". Considerando-se o Direito enquanto Ciência, tal forma de tomada de decisão pela inteligência artificial nos parece que seria uma espécie de retorno ao entendimento de que as ciências, baseadas na observação de regularidades na ocorrência de fatos, permitindo elaborar leis mecanicistas gerais explicativas da realidade. Contudo, deve-se estar atento que tais fatos eram recortados do conjunto da realidade, para assim dar-se a eles um tratamento analítico, mas limitados e reduzidos a uma determinada localização espaço-temporal. Trata-se de um tipo de aplicação próprio da física mecanicista-newtoniana, superada atualmente pela física quântica e relativista, a demonstrar a fragilidade de sua construção teórica e aplicação, utilizando-se de observações obtidas em escala limitada, como a que se observa na utilização de um banco de dados, sabe-se lá construído por quem, na construção de uma decisão jurídica por meio de inteligência artificial, ainda mais na seara do Direito, por desconsiderar que o Direito e as ciências no geral possuem história.  Vislumbra-se ainda outra questão, bem problemática: a inteligência artificial, por não possuir uma consciência e uma alma, não tendo a possibilidade do maravilhar-se e do assombrar-se, limitada que é a uma perspectiva inodora, inorgânica e mecanicista da vida, atuaria então de forma contrária à das ações tipicamente humanas. Em assim sendo, ela seria indicada e apta a tomar decisões que envolvem não apenas o lado racional da inteligência, mas sobretudo o imaginário, mais que isso, o imaginal (Henry Corbin), a sensibilidade, as emoções e as intuições? É característico desta forma de "conhecimento", típica da ciência, utilizar-se de signos nos cálculos matemáticos empregados em nossa sociedade da informação, onde se produz cada vez mais informação e em uma relação inversamente proporcional, cada vez menos conhecimento reflexivo, resultado do esforço para nos comunicarmos. Há o aperfeiçoamento de uma racionalidade meramente técnica, vazia, alienada, sem a produção de saber conteúdo cognitivo algum, segundo já Edmund Husserl denunciara em seus derradeiros escritos sobre a crise da civilização científica europeia, produzidos sob o impacto da chamada, posteriormente, Primeira Guerra Mundial. A partir, principalmente, de Newton, o padrão de ciência se altera e se vai desqualificar como ciência o que até então se tinha como verdadeira ciência. Tal processo é bem configurado na química, no século XVIII, como bem relata Isabelle Stengers (em L'invention des sciences modernes, Paris: Flammarion, 1995). É o que Foucault vai caracterizar como "etopoético", isto é, "alguma coisa que tem a qualidade de transformar o modo de ser de um indivíduo" (L'Herméneutique du Sujet, Paris: Hautes Études/Gallimard/Seuil, 2001, p. 227).    Daí que então a alquimia era química, e não havia separação entre o sujeito e o objeto do estudo, do conhecimento. O sujeito está envolvido na sua própria transformação através dos seus estudos, sendo a conclusão almejada na alquimia, a pedra filosofal buscada, a própria transformação pessoal durante tal processo. Não havia distinção entre o sujeito e o objeto até o surgimento da química analítica, cartesiana, a partir das ciências herméticas e da alquimia. Antigamente, portanto, o objetivo da ciência não era um objetivo econômico, utilitário como vem a se transformar após Newton, com a apropriação dos descobrimentos científicos pela ideologia propalada pelos adeptos de John Locke e Adam Smith. A informática e a inteligência artificial com sua utilização de algoritmos para a produção de decisões judiciais baseiam-se na matemática, ou seja, na lógica simbólica, bem diferente da lógica formal e de outros modos de racionalidade devidamente catalogados já na obra aristotélica. A inteligência artificial é um simbolismo, um pensamento abstrato, formalista. Sob o ponto de vista do formalismo não há tanta diferença entre o Direito e a Matemática, pois ambos são formalismos, expressos em letras, números e normas, ambos se traduzem em fórmulas, sem que tais fórmulas sejam capazes de traduzir a exuberância da vida, em especial aquela humana. Devemos então promover a reconciliação das ciências e das religiões, na busca de mais convergências do que diferenças. Esta é uma harmonização que se pode considerar um dos fundamentos daquela harmonização crucial para o nosso bem viver, também individual, como vem defendendo convincentemente em suas obras Vito Mancuso, considerando também a contribuição sapiencial de tradições não-ocidentais, o que consideramos da mais alta relevância (v.g., em I quattro Maestri, Milão: Garzanti, 2020).   Daí a importância incontornável, assim como a urgência mesmo, de nos dedicarmos a desenvolver uma ética que possa nos amparar em face dos avanços da IA, e esta há de ser uma ética que goze de aceitação assim como as ciências, sendo um requisito para ser aceita em uma sociedade que substituiu a religião pela ciência como forma de validação de suas crenças, no que se pode dizer que andou bem, por diversos motivos, mas também há motivos para o descontentamento, a começar pelo "desencantamento" (Entzauberung, literalmente, "desmagificação") a que se refere classicamente Max Weber. Politicamente, a ciência encontra no regime democrático sua melhor contrapartida, havendo tal regime de ser entendido como aquele em que prevalecem as melhores razões, assim reveladas em um debate franco e aberto. Com as mesmas características também há de se qualificar a ética que necessitamos para bem embasar uma prática do Direito que possa dar conta dos desafios da IA e outros desenvolvimentos tecnológicos, sendo que a motivação última repousa em crenças, logo, tem caráter genericamente ideológico e, especificamente, religioso. Aqui vale lembrar o projeto de Espinosa, de fundamentar uma ética more geométrico, congenial e diverso a outros de seu tempo, desenvolvidos sob o impacto direto da filosofia cartesiana e dos desenvolvimentos então recentes da física, como foi aquele de Hobbes, em que se busca uma explicação da realidade humana a partir do que se conhece daquela realidade subjacente, física, conquanto em Espinosa não se perca a dimensão metafísica, sendo o que o habilitaria melhor a desenvolver as ciências humanas, tal como defendido, por exemplo, por Frédéric Lordon (v.g., em A Sociedade dos Afetos: Por um estruturalismo das paixões, trad. Rodolfo Eduardo Scachetti, Campinas: Papirus, 2015). O quanto aqui se postula pode então ser caracterizado como uma retomada do que outrora se qualificou de "filosofia do espírito", assim como seu correlato, que era a "filosofia natural". "Espírito" aqui entendido em seu sentido objetivo, com em Hegel, o que é sinônimo de "cultura". É de uma retomada do indissociável vínculo entre ela e o Direito, então, do que se trata, tal como entre nós defendia já em recuada data, com vigor, Miguel Reale, e na atualidade, justamente no contexto de discussões sobre o impacto das novas tecnologias da comunicação, o teórico do direito frankfurtiano Thomas Vesting.
A questão de se atribuir e reconhecer personalidade jurídica à IA se justificaria para o fim de promoção de interesses, valores e finalidades relevantes para o ordenamento jurídico.                No caso de atribuição de tal personalidade, a IA estaria alçada a categoria de sujeito de direitos, centro autônomo de imputação subjetiva e responsável pelos atos que praticar (Gustavo Tepedino, Fundamentos do direito civil, vol. I, p. 142). Embora tal problemática envolva não apenas aspectos jurídicos, mas também filosóficos, e mesmo existenciais, como se há de falar em autonomia e independência, capacidade de autoaprendizagem, adaptabilidade do comportamento? E se há uma consciência e empatia em aplicações de IA, a maior parte das regulações de IA da União Europeia que previam tal perspectiva limitavam-se a uma forma de se propiciar uma mais fácil reparação de danos por supostas vítimas. Trata-se, no caso, como em geral, sobretudo, de fazer as perguntas corretas, e a pergunta essencial no caso é: de que forma a atribuição da personalidade jurídica ao robô iria contribuir para facilitar a reparação de danos de eventuais vítimas? Pode ser citada como exemplo de regulamentação neste sentido aquela publicada em 27/1/2017, as Recomendações à Comissão sobre disposições de Direito Civil sobre robótica - elaborada pela Comissão de Assuntos jurídicos, apontando para o reconhecimento de personalidade de algumas aplicações de IA listadas, como veículos autônomos, drones inteligentes, robôs assistentes de idosos ou enfermos e robôs médicos, algoritmos de processamento e análise de dados que possam levar à práticas discriminatórias. Interessante observar, contudo, que além da atribuição da personalidade jurídica a algumas aplicações de IA, a depender do seu grau de autonomia e independência, reconhecendo a tende^ncia atual para o desenvolvimento de ma'quinas inteligentes e autônomas, com a capacidade de pensar e tomar deciso~es de forma independente,  o documento também traz importantes previsões, em especial ao contemplar uma preocupação com um potencial para uma maior desigualdade na distribuic¸a~o da riqueza, prevendo pois a possibilidade de aplicac¸a~o de um imposto sobre o trabalho realizado por robo^s ou de uma taxa de utilizac¸a~o e manutenc¸a~o por robo^, em uma espécie de financiamento ao apoio e requalificac¸a~o de desempregados. Prevê ainda um  registro obrigatório dos robôs e um regime de seguros obrigatórios (indenizar danos) e a criação de fundos de compensação, para danos não cobertos pelo seguro. Outrossim, o documento considera que os robo^s avanc¸ados deveriam ser dotados de uma "caixa negra" com dados relativos a todas as operac¸o~es realizadas pela ma'quina, incluindo os passos da lo'gica que conduziu a` formulac¸a~o de eventuais deciso~es, além de também trazer a necessidade de realização de testes em cena'rios da vida real para identificar e avaliar os riscos, apontando, pois para o princi'pio da precauc¸a~o e o "sandbox approach". Quanto à responsabilidade, além de prever como regra a responsabilidade subjetiva, sendo a objetiva limitada a uma lista de algumas aplicações de IA, considera os responsáveis pela reparação (P. 56) de acordo com o nível efetivo de instruções dadas aos robôs e o nível da sua autonomia, ou seja, o responsável seria o "professor", isto é, o programador. Há ainda diversas discussões no tocante à lista de responsabilidade objetiva ser taxativa ou exemplificativa. Verifica-se, portanto, um grau de imprevisibilidade de algumas aplicações de IA, já que aprendem de forma autônoma, possuem uma experiência própria variável e interagem com o ambiente de um modo único e imprevisível. Neste sentido, se afirma que as formas tradicionais de atribuição de responsabilidade não seriam compatíveis com o senso de justiça, já que ninguém teria controle suficiente sobre as ações da IA para poder assumir responsabilidade por seus atos, sendo o que aponta Andreas Matthias ("The responsability gap", p. 2) Um estudo crítico, contudo, acerca do referido documento e que embasou a Resolução do Conselho Europeu de 2017 indicava que a personificação de robôs seria inadequada, pois a proposta não estaria vinculada a nenhuma consciência em potencial destes entes, e "uma carcaça desprovida de consciência, sentimentos, pensamento e vontade própria não poderia em uma realidade previsível nos próximos 10 a 15 anos adquirir autonomia". (Nathalie Nevejans, "European Civil Law Rules in Robotics", p. 14 e ss.). No mesmo sentido, Ugo Pagallo, afirmando que a IA carece de consciência, um requisito essencial conceitual para serem juridicamente imputáveis ("Three Roads to complexity, Ai and the Law of Robotics: on crimes, contracts and Torts", AI approaches to the complexity of legal systems, Berlim-Heidelberg, Springer, 2012, p. 49). Gunther Teubner, a partir de estudos de Niklas Luhmann e Bruno Latour, entende que a personificação de entes não humanos poderia ser melhor entendida como uma forma de nos ligar com as incertezas acerca da identidade desses entes, que são assim transformados de objetos em 'alter', reagente da ação humana. Em suas palavras: "tratar um objeto como se fosse um ato transforma a incerteza sobre as relações causais na incerteza sobre como o parceiro de interação vai reagir às ações do Ego. Isso coloca o Ego na posição de escolher o curso da ação, para observar as reações do Alter e extrair consequências" ("Rights on non-humans? Electronic agents and animals as new actors in Politics and Law". Journal of law and society, n. 33, dez. 2006, p. 06 e ss.)  Por sua vez, Eduardo Nunes de Souza ("Personalidade jurídica e inteligência artificial", O direito civil na era da IA. São Paulo, Editora Revista dos Tribunais, 2020, p.225 e ss) afirma que a IA possui autonomia assim como os animais, cuja interação ordinária com o meio social não dependeria da intermediação do ser humano para exprimir sua vontade. No artigo "Machine behaviour", os autores apontam que as máquinas são consideradas como uma classe de atores com padrões de comportamento e ecologia particulares; contudo, o reconhecimento de serem as IA verdadeiras atoras não implicaria no reconhecimento de sua responsabilidade pessoal no caso de danos. Deverá, então, ser realizado o estudo das máquinas inteligentes não como artefatos de engenharia, mas como atores com um particular comportamento e ecologia (https://pubmed.ncbi.nlm.nih.gov/31019318/). Contudo, nas regulações mais recentes da União Europeia verifica-se que houve o abandono da perspectiva de atribuição de personalidade eletrônica, jurídica à IA, pela abordagem de risquificação ou risk based approach, como pode ser observado do "White paper on IA", publicado em 19/02/2020 pela Comissão Europeia, e do AI Act de 2021, trazendo ambos diversos patamares de risco.                A temática da atribuição de personalidade à IA, envolveria também questionamentos acerca da existência ou não de uma necessária relação de cuidado com o outro, a empatia, sendo que a maior parte dos pesquisadores apontavam para ausência de tal característica, já que a IA pauta-se no princípio da eficiência. Em sentido contrário, Mireille Hildebrandt comenta que para atribuir a personalidade eletrônica a um robô deveríamos verificar e demonstrar se ele apresenta uma dose de empatia, registrando que estudos recentes da neurociência afirmariam que tal habilidade não seria exclusivamente humana ("Criminal Liability and Smart environments". In DUFF, R. A. Green, Stuart P. (Ed.), Philosophical foundations of criminal law, New York, Oxford University Press, 2011, p. 527).                Há diversas críticas a tal abordagem, apontando em suma que poderá causar um comprometimento da humanidade, a qual se veria reduzida ao patamar de uma máquina (Nathalie Nevejans, "European Civil Law Rules in Robotics", p. 16), o que seria desdignificante ao ser humano. Como afirma a autora, a autonomia dos robôs é uma autonomia tecnológica, fundada nas potencialidades da combinação algoritmica, e estaria longe do agir ético dos humanos.  Outras críticas envolvem a antropofilização dos robôs, como os robôs sexuais por exemplo, trazendo um potencial de fixação de um imaginário social de subjulgação da mulher e de relação de servidão. Entre os críticos destacam-se Mafalda Miranda Barbosa, ao apontar que não se pode estabelecer analogia com os seres humanos, afronta a dignidade humana, e Danilo Doneda, ao registrar sua preocupação com a antropofilização, robôs com aspecto humanoide que tendem mais facilmente a gerar empatia/emoções, e o problema dos robôs sexuais, com aparência antropomórfica, levando à objetificação do parceiro e a violação do consentimento. Outro problema seria com a "falácia do androide", quando uma pretensa analogia jurídica em termos altamente antropomorfizados poderia levar ao risco de se considerar uma IA mais imputável no caso de ter uma aparência humanoide, do que um robô sem tal aparência (Neil Richards, William D. Samrt, "How should the law think about robots?", Robot Law, Edward Elgar Publishing, 2016, p. 19). Por outro lado, entre os defensores de tal abordagem temos o professor da Georgetown University David Vladeck, afirmando que com tal conhecimento surgiriam novos encargos legais, como o ônus do autosseguro e teríamos assim uma difusão de custos. Será que poderíamos atribuir a questão da autonomia à IA, e isso seria importante em termos de atribuição de responsabilidade? Por exemplo, em 2017, um programa desenvolvido pelo AI Research Lab (Laboratório de Pesquisa de Inteligência Artificial) do Facebbok, criando duas IAS denominadas de Bob e Alice, as quais após um tempo de funcionamento desenvolveram uma linguagem própria, somente compreendida pelas próprias IAs, decidindo por conta própria como trabalhar com as tarefas que lhes haviam sido atribuídas. Em 11/2016, o Google Tradutor, sistema Google de Neural Machine Translation, programado para traduzir determinadas línguas, o que deveria sempre passar pelo inglês, revela sua autonomia, já que o sistema conseguiu traduzir línguas diretamente sem a interferência do inglês, ou seja, o sistema de IA teria desenvolvido uma língua própria, uma interlíngua, pra realizar as traduções. Já as aplicações mais recentes, denominadas de GPT-3, inaugurando uma nova fase da IA - também denominada de nova Revolução Industrial, já reconhecida pela Comissão Europeia desde 27.01.2017 em sua Recomendação sobre disposições de Direito Civil sobre robótica  (relatório). O GPT-3 designados BERT e DALL-E-2 possuem mais acurácia, mais autonomia, mais concentração em grandes empresas e maiores riscos de vieses. São os chamados "modelos de fundação" ("foundation models"), com habilidades que seus criadores não previram - é dado um input e o sistema gera um ensaio completo ou uma imagem completa, mesmo sem treinamento específico de como executar a tarefa. Entre as habilidades emergentes é ede se destacar a de escrever um código de computador.  Um dos problemas específicos em relação à atribuição da responsabilidade no caso de IA, também denominado de "problema de muitas mãos", é a falta ou dificuldade de identificação do nexo causal entre a conduta do agente e o dano produzido entre os diferentes atuantes envolvidos no processo, já que há um complexo sistema sociotécnico envolvido. O Alan Turing e Oxford Internet Institute/UNESCO traz a proposta de "responsabilidade 'compartilhada' ou 'distribuída' entre designers de robôs, engenheiros, programadores, fabricantes, investidores, vendedores e usuários. Nenhum desses agentes pode ser indicado como a última fonte de ação. Ao mesmo tempo, esta solução tende a diluir completamente a noção de responsabilidade: se todos tiverem uma parte na responsabilidade total, ninguém será completamente responsável. Por sua vez, Caitlin Mulholland traz a proposta de causalidade alternativa; diante da existência de um único nexo causal que não pode ser identificado de forma direta, podemos atribuir a sua presunção ao grupo econômico como um todo, e maior facilitação do ônus probatório para a vítima ("Responsabilidade civil e processos decisórios autônomos em sistemas de IA: autonomia, imputabilidade e responsabilidade", IA e Direito, São Paulo, Revista dos Tribunais, 2019, p.325 e ss.). Devemos refletir, contudo, se em sistemas sociotécnicos complexos, quando a ação causadora do dano advém de um somatório de agências de seres humanos, se o foco no grupo econômico seria suficiente para a atribuição justa de responsabilidade. Talvez uma "responsabilidade compartilhada" entre os diferentes agentes atuantes na rede sociotécnica de acordo com suas respectivas esferas de controle e influência sobre as situações e demais agentes seja mais interessante em termos de responsabilidade civil.
Apesar dos benefícios de diversas aplicações de IA, há casos correntes de "bias", envolvendo classe, raça e gênero, em especial no caso do reconhecimento facial e decisões automatizadas na área criminal, mas há também diversas outras correlações, classificações e criação de perfis, como nas áreas de emprego, educação, saúde e habitação, limitando ou restringindo as oportunidades das pessoas. É o que aponta Ruha Benjamin, professora do departamento de estudos afro-americanos da Universidade de Princeton, autora do livro "Race after technology - abolitionist for the new Jim Code", baseando-se no livro "The New Jim Crow", de Michelle Alexander (2012), afirmando que os designers técnicos estariam a erguer um sistema de castas digitais, assim como ocorreu com a criação de novas castas raciais pelo sistema de prisão nos EUA anteriormente, tema objeto de estudos por Ângela Davis em dois livros "Are Prisons Obsolete?"1 e "Abolition Democracy. Beyond Empire, Prisons, and Torture"2. O novo fenômeno agora embutido em novas tecnologias é denominado por Ruha Benjamin de "Novo Código Jim", isto é, os vieses embutidos em novas tecnologias, mas que são promovidas e percebidas como objetivas e neutras. Corrobora tal assertiva uma pesquisa demonstrando o impacto dos nomes na experiência das pessoas no mercado de trabalho, pois os candidatos a emprego com primeiros nomes que soavam como sendo de brancos acabavam por receber mais oportunidades de serem chamados para o emprego em comparação com os candidatos a emprego com nomes que soavam como sendo de negros. É o que Latanya Sweeney aponta, em sentido semelhante, afirmando haver uma associação de busca online de "nomes de negros" a registros de detenção de forma majorada, em comparação com "nomes de brancos". Diversas pesquisas demonstram a ocorrência de vieses nos algoritmos de IA, seja em razão pela ausência de uma diversidade e qualidade dos dados pessoais utilizados, seja pela ausência de diversidade da equipe técnica, ou pela falta de treinamento correto dos algoritmos, com destaque para Frank Pasquale em seu livro "The Black Box Society: The Secret Algorithms That Control Money and Information"3, questionando a problemática da proteção dos "algoritmos secretos" via proteção do segredo comercial, considerado na maior parte das vezes de forma absoluta, mesmo diante de colisão com outros direitos fundamentais, sem se realizar a necessária ponderação entre tais direitos, diante do caso concreto. Definitivamente, é preciso "levar a sério os direitos", sobretudo aqueles fundamentais, reconhecendo que nenhum tem caráter absoluto, sendo sempre relativizados uns em relação aos outros, se quisermos realmente preservar a dignidade humana, e preservá-la absolutamente - só ela é absoluta, e ela não é um direito fundamental, mas a razão de ser de todos eles. É o que apontam também Cathy O'Neil ("Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy"), Virginia Eubanks ("Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor"), Safiya Umoja Noble ("Algorithms of Oppression: How Search Engines Reinforce Racism"), e Latanya Sweeney, professora da universidade de Harvard, sendo que as discriminações são múltiplas, envolvendo raça, gênero e classe. Há uma intersecção dos vieses, sendo fundamental neste sentido a contribuição clássica de Ângela Davis, no livro "Mulheres, raça e classe", apontando para tal intersecc¸a~o e também no sentido de uma duplicada discriminação na codificação cultural e em sua incorporação na codificação técnica de programas de software. É o chamado "algorithmic nuisance", ou "inconveniente algorítmico", quando ocorre a discriminação ou a manipulação de indivíduos (Jack Balkin), destacando-se como caso paradigmático o do exame nacional de admissão para Universidades denominado "Ofqual" no Reino Unido, objeto de diversas críticas em agosto 2020, por trazer enviesamento no sentido de vantagem para escolas mais ricas e mais bem estruturadas. Além de apostar nas alternativas abolicionistas, como a desmilitarização das escolas, e a revitalização da educação, Davis comenta acerca da necessidade de uma democracia da abolição, abrangendo a eliminação dos estabelecimentos prisionais.  No mesmo sentido, sinaliza Ruha Benjamin, denominando de complexo prisional-industrial (PIC) ou "complexo industrial de correções", para chamar a atenção para a liberdade condicional e vigilância como a parte da indústria que mais rapidamente cresce. Há diversos casos de vieses nos modelos de policiamento preditivo utilizando-se de IA, como constatou o Grupo de Análise de Dados de Direitos Humanos - HRDAG, ao mencionar que a ferramentas de software de policiamento preditivo denominada de "PredPol" estaria longe da alegada imparcialidade e neutralidade, pois os dados utilizados para "treinar" os algoritmos codificam os preconceitos raciais nas ferramentas. O racismo e a discriminação tornam-se assim duplicados. Diversos estados dos EUA trazem também uma punição eterna ao ex-condenado, já que ficam impossibilitados do direito de votar, mesmo após o cumprimento da pena, uma inexplicável penalidade extra e sem remição, além de ser quase impossível uma recolocação profissional, condenando-os à marginalidade e a um perpétuo retorno ao sistema prisional. Em sentido complementar, Cathy O'Neil no livro "Weapons of Math Destruction" (2016) comenta sobre um sistema de IA denominado "Impact" (modelagem de valor agregado) envolvendo a classificação de professores de escolas públicas e sua demissão em massa, apontando para a mensuração da eficácia dos professores, com viés discriminatório contra professores, por exemplo, que testavam métodos alternativos de ensino e um incentivo aos professores que praticam condutas de manipulação do sistema apenas para garantir uma boa avaliação e pontuação. Como aponta Ruha Benjamin, a própria raça revela-se como tecnologia. Neste sentido, é que Foucault chama atenção para o nascimento do biopoder e os temas da sociedade da normalização, típica do século XIX, baseando-se no elemento da norma, elemento que vai circular entre o poder disciplinar e o regulamentador, indo se aplicar, da mesma forma, ao corpo e à população, o que permite a um só tempo controlar a ordem disciplinar do corpo e os acontecimentos aleatórios de uma multiplicidade biológica: esse elemento que circula entre um e outro, é a norma. A norma é o que pode tanto se aplicar a um corpo que se quer disciplinar quanto a uma população que se quer regulamentar. Ocorre assim o surgimento de um novo tipo de racismo, agora inserido nos mecanismos do Estado, em razão da emergência do biopoder, efetuando um corte entre as pessoas, em busca de uma vida pura e saudável, através da eliminação do perigo biológico e do fortalecimento, diretamente ligado à eliminação da própria espécie ou da raça que a representa. A raça, o racismo é a condição de aceitabilidade de tirar a vida numa sociedade de normalização, sendo indispensável ao biopoder. O racismo moderno, portanto, encontra-se ligado de forma intrínseca ao biopoder, sendo um fenômeno típico do fim do século XIX. Assim, liga-se ao funcionamento de um Estado que é obrigado a utilizar a raça, a eliminação das raças e a purificação das raças para exercer seu poder soberano. Ocorre dessa forma a generalização absoluta do biopoder, sendo que tal fenômeno estaria efetivamente inscrito no funcionamento de todos os Estados na época contemporânea. Um dos mais importantes casos envolvendo tais questões foi julgado pela Corte Constitucional alemã, consagrando um Computergrundrecht, ao discutir a constitucionalidade de lei do Estado de Nordrhein-Westfalen, por permitir às autoridades locais de inteligência realizar a busca remota de informações e o monitoramento on-line de computadores de suspeitos de práticas criminosas. O relator do caso, Hoffman-Riem, em sua fundamentação, afirmou o direito fundamental à garantia da confidencialidade e da integridade dos sistemas informáticos, derivado da cláusula geral de proteção à personalidade (art. 2º, I, c/c art. 1º, I, da lei fundamental alemã). A Corte entendeu ser possível a utilização desses mecanismos de investigação, contudo, estabeleceu a necessidade de certas condições basilares, tais como a existência de uma base legal específica, a emissão de autorização judicial e a identificação de um perigo concreto a um bem jurídico fundamental, como a vida, a liberdade ou a segurança da coletividade. Também houve o reconhecimento da necessidade de serem adotadas medidas adicionais de segurança para a proteção de informações íntimas e excessivas, evitando sua coleta, ou seu descarte e desconsideração no processo de avaliação dos dados. Como resposta ao design dominante no sentido de contribuir para a perpertuação de discriminações ou racismo há a criação e imaginação de contra-codificações denominadas por Ruha Benjamin de instrumentos abolicionistas para o Novo Código Jim, no sentido de práticas de design orientadas para a justiça. Seria preciso reimaginar a ciência e a tecnologia para fins libertários, e em atenção aos princípios para uma justiça digital, como uma espécie de criação de um rótulo de "equidade". É fundamental na construção de um design voltado para a justiça digital o questionamento e a abordagem dos temas de sistemas opressivos da supremacia branca, patriarcalismo e capitalismo. Devemos então repensar o "design thinking", e talvez até mesmo o conceito de "justiça de design", diante da existência do design discriminatório, questionando quais os seres humanos que são considerados prioritários no processo, mesmo quando se menciona um "human centered design". Podem ser citados como exemplos de tecnologias com um "ethos" emancipatório", na linha de uma "justiça de design": 1) A Stop LAPD Spying Coalition com seus esforços de combate à vigilância (https://stoplapdspying.org) 2) A liga da justiça algorítmica e sua iniciativa denominada de "Compromisso de Segurança Facial", exigindo das empresas uma posição pública no sentido de mitigar o abuso da tecnologia de reconhecimento facial. Segundo referido compromisso há a proibição do uso letal da tecnologia, o uso policial sem lei, além de exigira  transparência em qualquer uso governamental, bem como incluir compromissos radicais tais como "mostrar valor para a vida humana, dignidade, e direitos" (https://www.ajl.org); 3) O Data & Society Research Institute ao elaborar uma proposta de "responsabilidade algorítmica" (https://datasociety.net); 4) O Detroit Digital Justice Coalition com a criação do modelo DiscoTech ("descoberta de tecnologia"), visando desmistificar a ecnologia como primeiro passo para mobilizar a participação da comunidade no questionamento da sociedade de dados, e de seus impactos (http://detroitdjc.org); 5) A Allied Media Network com a iniciativa da criação do Portal Tecnológico Comunitário de Detroit, trazendo a elaboração de princípios de justiça digital (https://alliedmedia.org); 6) A Hyphen-Labs, e sua proposta de criação de desenhos subversivos, incluindo viseiras e outras roupas que impedem o reconhecimento facial (http://hyphen-labs.com); 7) O Data for Black Lives e sua missão de usar dados pessoais para criar de forma concreta e mensurável uma mudança de vida para pessoas negras (https://d4bl.org). As ferramentas abolicionistas, desta forma, preocupam-se não só com as tecnologias emergentes, mas também com o racismo e discriminação já existentes nas estruturas sociais, baseando-se em uma abordagem holística, emancipatória, reinterpretando a justiça não como um valor estático, mas uma metodologia contínua que pode e deve ser incorporada na concepção tecnológica. O conceito de "justiça de design" foi desenvolvido por Sasha Constanza-Chock, professora no MIT, com os colaboradores da Allied Media Network, visando repensar a dinâmica do design através de múltiplos eixos de opressão, com destaque para a necessária inclusão das comunidades marginalizadas em todas as fases do processo de concepção tecnológica. Portanto, além de uma mudança de abordagem no design tecnológico, pensando-se a longo prazo, de forma sustentável, talvez na forma de um "design subversivo" ao invés do design dominante no sentido de um projeto colonizador,  também a regulamentação estatal deverá rever diversos pontos de fragilidade, trazendo o foco na proteção sistêmica e neste sentido é necessária uma reformulação do que se tem tratado como proteção de direitos fundamentais no âmbito da proteção de dados e da inteligência artificial, por ignorarem em muitos casos a construção epistemológica e metodológica da teoria dos direitos fundamentais enquanto teoria fundamental do direito, trazendo equívocos no que tange à natureza dos direitos fundamentais, e a correta resolução de colisão de normas de direitos fundamentais, via princípio da proporcionalidade, adequadamente entendido, o que ainda precisa ser melhor compreendido. Vê-se, assim, conforme já destacado, que efetivamente onde há o poder há também resistência, como no caso de contra-argumentos sobre as dimensões sociais e políticas do novo código Jim, instrumentos de combate contra a iniquidade codificada, denominadas de ferramentas abolicionistas, fundamentadas em uma abordagem mais holística, emancipatória e orientada para a justiça e a solidariedade, com a qual nos alinhamos e entendemos deva prevalecer, em benefício de todos nós. Seriam necessárias, pois, duas soluções conjuntas, uma por parte do design, e das ferramentas abolicionistas e descoloniais, e de outra parte uma necessária mudança da estrutura social. Como aponta Ruha Benjamin, para mudar as pessoas que produzem contextos discriminatórios, teremos de mudar a cultura em que elas vivem. Para mudar a cultura teremos que repensar de forma radical como vivemos, por meio da reescrita dos códigos culturais dominantes e à incorporação de novos valores e novas relações sociais no mundo. Contudo, mesmo na área do direito vemos também a influência do pensamento voltado à uma ética utilitarista, como na análise econômica do Direito ("Law and economics"), de Jeremy Bentham e seus desenvolvimentos por Richard Posner, fundada em princípios modernos individualistas, pressuposto das teorias jurídico-econômicas da Escola de Chicago. Trata-se de uma teoria da eficiência visando, segundo Posner a maximização da riqueza (eficientismo econômico). Fala-se em um neofeudalismo: a consolidação da riqueza e poder da elite muito além dos mecanismos de consentimento democrático. Neste sentido Piketty ("O capital no século XXI"), sendo questionável a legitimidade democrática do Poder Executivo, como aponta Shoshana Zubof (" A era do capitalismo de vigilância"), pois as elites financeiras nos Estados Unidos financiariam um ciclo de restrição política que protege seus interesses de questionamentos políticos, financiando as campanhas dos candidatos presidenciais especialmente republicanos que se comprometeram a limitar regulações, cortar impostos e reduzir direitos. Como aponta, por sua vez, Ruha Benjamin as escolhas da indústria privada são decisões de política pública, isto é, são influenciadas por valores políticos fortemente influenciados pelo liberalismo, exaltando a autonomia individual e a liberdade das empresas em relação à regulação governamental. Os "valores políticos" têm impacto nas questões de poder, ética, equidade, e socialidade, sendo a ética dominante nesta arena melhor expressa pelo lema: "Move Fast and Break Things". _____ 1 Disponível aqui.  2 Disponível aqui. 3 Disponível aqui. 4 Disponível aqui.
Quando se fala em questões éticas relacionadas a IA, de uma filosofia da IA, tais temáticas não se limitam, pois, ao estabelecimento de códigos éticos ou de evitar vieses de aplicações específicas de IA, mas de repensarmos as bases epistemológicas para a construção do conhecimento científico em tais searas em novas bases, e com fulcro nos valores do "homo poietico" no sentido de uma filosofia, ética, e de um direito libertos do bino^mio aprisionador sujeito-objeto, mas comprometidos com o múltiplo e o acategórico, no sentido de libertar a diferença, que é o elemento essencial quando se fala em recuperação de diversas características essencialmente humanas, e de modo a reequilibrar a relação humano-algoritmos. Uma leitura e compreensão poéticas, não dialéticas, que levem em conta o não dito, o resto, a heterotopia, superando-se dogmas como o da neutralidade e objetividade da tecnologia (Tese de doutorado em Filosofia, Paola Cantarini, PUCSP, 2021, "O teatro Filosófico de Foucault e o Direito"). Trata-se então é de pensarmos nas questões de quais os fundamentos e bases epistemológicas e hermenêuticas para a temática da governança de IA e da relação e interação humano-algoritmo, por um lado, respeitando as diferenças, numa perspectiva multicultural e, por outro lado, de como estabelecer os fundamentos e marcos teóricos para a regulamentação harmônica das tecnologias digitais, mas levando as especificidades brasileiras em consideração? Desta forma, procuramos observar e compreender o objeto de estudo em questão de outra perspectiva, de outro ponto de vista, mas, sobretudo, através de uma visão não polarizada, não dualista e não representativa, mas sim holística e inclusiva, a fim de repensar ambivalências e contradições, assumindo estas e não as ocultando em uma idealização falseadora. Não há muitas propostas científicas, multidisciplinares e brasileiras voltadas à análise e formulação de frameworks relacionados ao design ético e governança da IA, de modo a estabelecer as bases para a criação de um sistema de proteção aos direitos humanos e fundamentais de todas as parcelas da população, que seja proativo, abrangente inclusivo e sistemicamente seguro (proteção sistêmica), envolvendo conceitos como os de Protection by Design, Security by Design, Ethics by Design, Ética Digital Intercultural, tecnodiversidade, cosmoética. Além da própria filosofia em certo momento desvincular-se da necessidade da busca da verdade como fim último, mesmo porque esta se daria sempre de forma relativa, além do seu caráter de aporia, próprio da filosofia, agora vemos a necessidade também da matemática, e das ciências que se baseiam em tal conhecimento, aceitarem as contradições, as antinomias, próprias de um discurso auto-referencial, como expôs George Spencer-Brown, abandonando paradigmas já superados como o da separação entre sujeito e objeto do conhecimento, substituindo tal separação por uma unidade, ao invés de "ou", "e". Daí se considerar a importância de teorias transclássicas com foco na abordagem holística e não reducionista, típica das ciências modernas, como a cibernética, a semiótica, a teoria geral de sistemas, as teorias gerais da informação e da comunicação e a cibernética de segunda ordem, tal como proposta por H. Von Foerster, ao descrever sistemas cibernéticos dotados de IA que se autorregulam. Ou seja, na base do conhecimento acerca da IA teríamos uma disciplina transclássica, pós-moderna, fugindo-se do antropocentrismo, da oposição sujeito e objeto e olhando para a diferença e o outro. Tem-se, pois, por superada, outrossim, a compreensão de uma abordagem do conhecimento apenas compreendendo as contribuições da sociedade ocidental e de uma perspectiva eurocêntrica, como ao se afirmar, por exemplo, que no Oriente não se teria uma filosofia própria sendo esta apenas ocidental, já que a cientificidade necessária estaria atrelada à ideia de uma teoria inclusiva e de interdisciplinaridade, o que demandaria a análise e consideração de um maior número possível de abordagens e perspectivas, de forma democrática. Os direitos humanos, por exemplo, não podem mais ser vistos sob uma única ótica, universalista, iguais para todo o gênero humano, em uma perspectiva etnocêntrica, ocidental, mas levando-se em consideração as diversas culturas e gêneros, havendo diversas concepções, portanto, de direitos humanos, já que há uma diversidade cultural e social (comunitaristas e multiculturalistas). Em sentido complementar, os direitos fundamentais, no plano interno voltam-se para uma natureza multidimensional, reconhecendo-se seu aspecto individual, coletivo e social, característica que fica clara ao pensarmos em um vazamento de dados como equivalente a um dano ambiental, causando danos não apenas individuais, já que relacionados à cidadania e à igualdade material dos tutelados. Trata-se de uma metodologia diferenciada que poderá trazer alguma luz para uma compreensão não dualista, fechada em uma dialética, mas múltipla, o que seria mais apropriado em se tratando da inteligência artificial.  Como bem apontam alguns estudos na área de inteligência artificial, que analisaram conjuntos de propostas de codificações e regulações haveria uma ausência de propostas não eurocêntricas, bem como contradições e não compatibilidade quanto ao conceito de justiça, por exemplo, ou de dignidade humana ("Inteligência Artificial com Princípios: Consenso de Mapeamento" - Berkman Klein Center for Internet & Society da Harvard Law School, FJELD et al., 2020). Também poderíamos apontar outras fragilidades encontradas em algumas propostas de guidelines para IA, tais como se verifica na elaboração da Comissão Europeia, pois de 52 especialistas envolvidos em sua elaboração 23 eram representantes e empregados de grandes empresas, e apenas 4 dos especialistas possuíam conhecimentos em ética, e nenhum em proteção de dados, faltando pois o requisito da representatividade adequada (subrepresentação), e democrática, pois deverá compreender todos os grupos da sociedade. Outra fragilidade que poderia ser repensada é a de se pensar em direitos fundamentais, sem observância do Constitucionalismo digital, da nova hermenêutica constitucional, do pós-positivismo, adotando-se parâmetros que já não mais fazem sentido, voltados a uma proteção não sistêmica, não proativa, e sem levar em conta direitos coletivos e sociais. Postula-se, pois por levar-se em consideração nas regulamentações da IA, trazer sempre presente a necessidade de estudos por meio de uma análise multidisciplinar, multidimensional, intercultural já que trata de questões com características polifacetadas, adotando-se uma nova visão hermenêutica e epistemológica, visando à construção de pilares essenciais para o design ético-técnico da IA voltando-se para o "Human and fundamental rights by design", "beneficial AI", "AI for good" e "HumanCentered AI", em uma perspectiva sustentável e não antropocêntrica, portanto, também "planet-centered AI". É essencial pois, uma metodologia própria para a realização de Relatório de Impacto de Inteligência Artificial com base na violação de Direitos Humanos e Direitos Fundamentais, fundamental para uma IA de confiança, levando-se em consideração conceitos vinculados ao Sul Global, tais como propõe Boaventura de Souza Santos quando menciona as Epistemologias do Sul, portanto, de outras concepções não eurocêntricas de dignidade humana, justiça e direitos humanos, de forma a propiciar uma perspectiva inclusiva e democrática, por contribuírem sobretudo para uma visão não antropocêntrica, a fim de fortalecer o mercado nacional de IA e novas tecnologias. Portanto, é essencial olhar para outras perspectivas em termos de "Epistemologias do "Sul", compreendendo os conceitos de ética digital intercultural, tecnodiversidade e cosmoética, no sentido de superação do monoculturalismo, reconhecendo-se a importância do elemento diferença, da diversidade, não representativa, mas positiva, da diferença. Busca-se a análise do conceito de justiça algoritmica, ao se propor repensar a questão da técnica, e da essência da técnica com base em valores como da cosmoética, tecnodiversidade, como expõe Yuk Hui ("Technodiversity", p. 154); voltadas ao empoderamento do ser humano, verificando-se tais questões em outras bases, fora do dualismo e de oposições inconciliáveis, em uma perspectiva de desenvolvimento da IA inclusiva, democrática e sustentável, além de uma visão antropormófica, o que não compromete a visão de uma IA voltada ao ser humano, o que estaria compreendida em uma abordagem mais ampla, no sentido de uma proposta sustentável. Por derradeiro, um dos pontos atuais de maior preocupação no tocante as aplicações de IA é sua autonomia, com a atual fase de desenvolvimento, ultrapassando-se o conceito de ser a IA uma simples análise estatística preditiva, já que cada vez mais presente sua autonomia, como podemos observar dos modelos GPT-3, BERT, DALL-E-2 (Stanford INstitute for Human-Centered AI), com o lançamento do bert-like gpt-3 da Openai em 2020. Tais sistemas trazem mais acurácia, necessitam de mais envolvimento econômico e capacidade computacional, e, pois, ocorrendo uma maior concentração das grandes empresas, e por outro lado também poderão trazer maiores riscos de vieses, particularmente preocupante por ser um modelo que poderia servir de base a diversas aplicações. A concentração ainda maior em grandes empresas de tecnologia traz um perigo e desafio ao tentar se equilibrar a proteção de direitos fundamentais acima dos valores patrimoniais, da eficiência e do lucro, já que haverá uma concentração de poderes nas mãos de poucos, pois nem as Universidades, nem os governos poderiam competir com tal capacidade tecnológica, por envolver o desenvolvimento de modelos computacionais de grande porte e alto custo e pela necessidade de utilização de nuvens, para a execução destes modelos, e desta forma talvez as pouquíssimas empresas envolvidas não tenham tantos incentivos para promover uma melhoria em seus resultados em termos não patrimoniais apenas. De forma simplificada pode-se apontar para a utilização de dados não rotulados, com ajuste fino mínimo, e seria possível à IA, a partir de um input (short prompt) gerar um ensaio completo ou uma imagem completa mesmo sem treinamento específico, ou até mesmo a capacidade de amarrar argumentos de forma coerente ou criar de forma inteiramente original peças de arte. Já foi mencionada também a habilidade de escrever um código de computador pela própria IA. O risco de viés permanece alto e preocupante por ser um modelo que poderia ser utilizado para várias aplicações de IA, tanto que pesquisadores da Universidade de Stanford estão trabalhando em um bisturi virtual, com o fim de remover neurônios "ruins". Fala-se na nova fase da IA - nova Revolução Industrial (27/1/17- Recomendação à Comissão Sobre Disposições de Direito Civil sobre Robótica - Relatório). São os "modelos de fundação" - "foundation models" que estão acelerando o progresso da IA, com habilidades antes não previstas. Se antes já seria possível questionar a falta de autonomia dos sistemas de IA, a exemplo do caso ocorrido em 2017 no Facebook, com o programa desenvolvido pelo seu AI Research Lab (Laboratório de Pesquisa de Inteligência Artificial), já que as inteligências artificiais denominadas de Bob e Alice criaram uma própria linguagem, somente compreendida pelas IAs, decidindo por conta própria como trabalhar com as tarefas que lhes haviam sido indicadas, agora tal característica parece encontrar bem mais fundamentos. Embora ainda não se afirme que tais modelos possam se tornar sencientes, também são apontadas preocupações cada vez mais frequentes com a possibilidade destes novos modelos traçarem seu próprio curso, ou quando for possível, por exemplo a uma IA a construção de outras IAs melhores ("The economista", Ai's new Frontier", junho de 2022). Qual é o estado da arte atual da filosofia sobre as questões éticas e os impactos sociais causados pela IA? Uma ética construtivista e com base na ecopoiesis? Para Luciano Floridi a perspectiva do "homo poieticus" envolveria uma ética denominada de "ecopoiesis", construcionista, no sentido de uma ética orientada de forma a se ter uma perspectiva inclusiva, um ambientalismo inclusivo, através de uma nova aliança entre o natural e o artificial. Ampara-se em uma perspectiva proativa ao invés de reativa, ou seja, deve-se evitar a ocorrência de um dano, sendo uma ética voltada à ação, portanto. "Ecopoiesis", no sentido de fugir-se à limitação das éticas da virtude, apesar de uma abordagem também proativa e construcionista, expressa pelo desejo de se moldar a si próprio, mas ainda em um sentido limitador, por se limitarem à uma correta construção do sujeito moral, sendo, pois, egopoiética, pouco refletindo em termos de uma sociopoiética. Em sociedades complexas, contudo, a sociopoiese não é redutível apenas à egopoiese, devendo abranger a preocupação e responsabilização em termos ambientais. "Ecopoiese", uma ética ecologicamente orientada, uma ética construcionista, como uma forma de luta contra a entropia, sendo o construcionismo é encarnado pelo "homo poieticus" (Floridi 1999a), isto é, uma concepção de ser humano não como explorador da natureza, através de uma nova aliança entre a física e a técnica. Há uma necessidade urgente, agora mais do que nunca, com os desenvolvimentos devidos à pandemia, de uma compreensão da regulação e implicações éticas da IA, repensando a questão da técnica, de sua essência, a partir de uma perspectiva não polarizada, não apenas conceitual, não representativa, mas holística, plural e inclusiva, e em favor de repensar ambivalências e contradições. Esta seria uma compreensão não polarizada, fora da dialética de Hegel que apaga as peculiaridades dos opostos e os reduz a uma unicidade, mas a favor das diferenças, do simulacro, da cópia imperfeita que foi rejeitada na busca da perfeição platônica do ser. Uma compreensão deste tipo seria alcançada através do trabalho crítico do pensamento sobre si próprio, permitindo-se pensar a sua própria história, libertar o pensamento daquilo que ele pensa silenciosamente e permitir-lhe pensar diferentemente.
Da mesma forma que importa perguntar por que regular a inteligência artificial (IA), nos cabe questionar o que é ética e o porquê da ética na sua relação com a IA. Os problemas relacionados à IA impõem um diálogo constante entre o Direito, a Filosofia (Ética) e a Tecnologia, já que estamos tratando de temas com características como a da transversalidade, sendo imprescindível a aproximação de campos científicos não jurídicos, resultando numa espécie de equivalente atual do que outrora, ainda há pouco, foi o direito ambiental (CANTARINI, 2020). Do que se trata, afinal, é de repensarmos a relação entre as diversas disciplinas e saberes, e de rediscutirmos a inter e a transdisciplinaridade em novas bases (Lúcia Santaella - Cátedra Oscar Sala), diante da dissolução das fronteiras entre as exatas e as humanidades, a exemplo do que ocorre com o Direito Digital, por meio do desenvolvimento de uma teoria inclusiva e democrática, levando-se em consideração o desenvolvimento de uma Teoria Fundamental do Direito Digital e da  Inteligência Artificial, aplicando-se a tais temáticas a Teoria dos Direitos Fundamentais, de forma a propiciar uma  adequada proteção aos direitos fundamentais envolvidos em tais searas ("Teoria inclusiva dos direitos fundamentais e direito digital", Paola Cantarini e Willis S. Guerra Filho, Clube de Autores, 2020; "Teoria Fundamental do Direito digital: uma análise filosófico-constitucional, Paola Cantarini, Clube de Autores, 2020, "Levando os direitos fundamentais à sério" - Migalhas, edição 05.22).  Vivemos na fase da hiperhistória ou pós-história (Vilém Flusser), na sociedade e economia de dados característica da era da 4ª revolução industrial, da indústria 4.0 ou era do silício, ocorrendo a dependência de nosso bem-estar das tecnologias da informação e comunicação, o que diferencia da fase histórica antecedente, na qual indivíduos apenas se relacionavam com tais tecnologias (Luciano Floridi), sem que estivéssemos ainda totalmente dependentes, daí falar-se em "infomania" (Byung-Chul Han). Clique aqui e confira a íntegra da coluna.  
A humanidade sempre enfrentou mudanças devido às tecnologias, contudo, a IA traz transformações únicas nas estruturas sociais, econômicas e políticas, transformando nossas subjetividades, nossa percepção, cognição, como sentimos e experimentamos o mundo, logo o que significa continuar sendo humano, e o conceito de humano (cyborgues). "Será que, com isso as últimas trincheiras das velhas dicotomias epistemológicas entre sujeito e objeto irão, por fim, desabar?" (Santaella, 2013). A IA traz alterações no Direito, com a crescente produção de decisões automatizadas, utilização da IA no policiamento predititivo, gerenciamento e recrutamento de trabalhadores, análise e construção de perfis de crédito, amplicando-se o que se pode afirmar como matematização do pensamento jurídico, em busca de uma maior neutralidade, objetividade e eficiência. O direito está em estado de quantum critic, já que poderá estar sendo comprometida sua humanização e AUTOPOIESI. Trata-se de uma crítica ao direito, em sua visão predominante na Idade Contemporânea (século XX e XXI), associada às críticas de sua associação ao biopoder, à técnica, e ao formalismo exacerbado, fenômenos que ocorrem desde a época moderna (a partir do século XVII), considerando-se, pois, o direito associado às relações de saber-poder (Foucault). Verifica-se na contemporaneidade a prevalência de uma concepção e compreensão do direito como mera técnica, em uma redução limitadora fundamentada no pensamento meramente científico e formalista, uma concepção tecnoeconômica (do direito), amparando-se em uma linguagem de cálculo, como instrumento do conhecimento por excelência1.  Contudo, o calcular é o oposto do PENSAR REFLEXIVO, CRÍTICO, CRIATIVO, IMAGINATIVO, SENSÍVEL, pois estes lançam-se no aberto, ao contrário de uma prévia determinação de asseguramento (em especial no sentido de uma proposta filosófica, vinculada também à zetética, opondo-se a dogmática neste sentido, por se pautar pelo questionar, pelo duvidar, ao invés de se limitar a uma reprodução de conceitos já postos, sem uma reflexão questionadora acerca dos mesmos). Tal postulação reconhece e parte da insuficiência de uma visão eurocêntrica e antropocêntrica para se pensar a relação técnica-humanos, tal como se verifica a exemplo das próprias Declarações Universais dos Direitos Humanos construídas sob uma ótica hegemônica ocidental, não sendo levadas em consideração geralmente as construções das Epistemologias do Sul. Há uma crise quanto aos direitos humanos, a exemplo do retrocesso em termos de conquista de direitos e preocupações humanitárias, como se observa da Declaração de Filadélfia e de Marrakesh, sendo que esta última traz uma concepção proprietária e econômica acerca do trabalho, considerando como mercadoria, relegando a um segundo plano os direitos sociais, sendo corroborada pela recente jurisprudência "Viking"da Corte Europeia, em Acórdão proferido de 2007. Seria um retorno sub-reptício ao sistema feudal, ao reino da personalidade das leis, ocorrendo a pulverizacão dos direitos humanos. A peça de teatro "O Rei da Vela" de Oswald de Andrade, em cartaz em 03.2018 no TreatroOficina, dirigido e atuado por José Celso Martinez Correa, após sua estreia e temporada originárias meio século antes, sendo um divisor de águas na história da dramaturgia no Brasil, em pleno regime ditatorial. A apresentação traz a visão do Brasil como um país feudal, onde o cobrador do ágio vira rei da vela ao explorar a pobreza dos devedores que não possuiriam dinheiro para pagar sequer a conta de luz, aprisionando estes em celas com grades e negociando os juros com um chicote. É o reflexo da existência de um mercado legislativo planetário, com as tradições jurídicas sendo postas em concorrência umas com as outras, potencializado pela instrumentalização do Direito pelo cálculo, pela estatística, pelo pensamento cartesiano (que entende ser suficiente a matematização do mundo). Daí se falar da necessidade de uma nova compreensão e da reinvenção dos Direitos Humanos, no sentido de integrar a diversidade cultural e as diversas concepções de justiça e de dignidade humana, a exemplo, das noções de "dharma" Hindu, de "umma" islâmica, de "pachamama" ou o "buen vivir" dos povos indígenas da América Latina, do "ubuntu africano", do "Sumak Kawsay", ou o "Sumak Qamanã", trazendo o respeito aos direitos da natureza, passando do foco dos deveres ao foco aos direitos, e para uma nova concepção de comunidade, a exemplo da Constituição do Equador de 2008, como constitucionalismo transformador. Tais propostas refletem e são fundamentadas no respeito à diferença, no respeito pela igualdade na diferença, por meio de um processo político participativo, na linha do que se denomina de "constitucionalismo transformador", trazendo a possibilidade de recuperação da cidadania anestesiada ou passiva, transformada em uma cidadania ativa, como exercício de direitos humanos. Como podemos nos reapropriar da tecnologia moderna, através da re-articulação da essência da técnica, considerando-se os conceitos de tecnodiversidade e de cosmoética (Yuk Hui), e no sentido da técnica como "poiesis", com base nos valores construcionistas do "homo poieticus" (Floridi) e não como dominação, como engrenagem e dispositivo (Gestell - Heidegger) do capitalismo de dados? Como a arte e a ética podem contribuir para repensarmos a relação homem-máquina? Trata-se de repensarmos a relação entre as diversas disciplinas e saberes, e de rediscutirmos a inter e a transdisciplinaridade em novas bases como aponta Lúcia Santaella na proposta da Cátedra Oscar Sala, diante da dissolução das fronteiras entre as exatas e as humanidades. Visa-se, neste sentido, desenvolver as bases epistemológicas e hermenêuticas de uma compreensão plural, adiagonal (Foucault), considerando-se as ambivalências, contradições e paradoxos, para se "atiçar a potência do pensamento" (Lúcia Santaella), a fim de pensamos (tais questões) para além de dualismos e de uma visão apenas utópica ou distópica. Destaca-se a importância das artes e da poética, da lógica não cartesiana, para além da dialética idealista de Hegel, na construção de uma dialética polivante e de uma lógica atonal, relacionadas às artes, com um traço determinante do tempo ligado à experiência, tempo não linear, não causal, tempo das puras intensidades diferenciais. Para Charles Sanders Peirce é o futuro que influencia o presente e não o passado, isto é, se cultivarmos ideais que são projetados no futuro temos que nos imaginar habitando um mundo com tais ideais, e com tal projeção moldamos nosso presente. As artes (como não representação), ao desafiarem todas as relações objeto a objeto, as relações das formas e seus significados, trazem a possibilidade de uma nova dimensão, ao invés de representação, a re-apresentação, ao invés de mediação, ou contemplação, a interação, afastando-se da lógica generalista, por não alcançar a infinidade de possibilidades latentes (Deleuze, "Foucault"). Uma mudança de uma compreensão do conhecimento representacionalista (mimético) para um construcionista (poiético), de Descartes a Peirce, da mimesis à poiesis, para uma interpretação poiética dos nossos conhecimentos (Luciano Floridi). A proposta de ética para Peirce aproxima-se do conceito ético de Agamben, inspirado em Foucault (Santaella), aproximando-se também Peirce e Foucault em relação a experiência estética enquanto poética, como presentidade, fugindo da mediação, da contemplação e da representação. Para Peirce, a resposta estaria na poética, afirmando a experiência estética como relacionada à contemplação, quando todo aparato judicativo da mente se desmobiliza em função da desnecessidade de mediação. Quando o mundo não reage, não se opõe por não aparecer fenomenicamente como alteridade, a linguagem deixa de ser mediadora. DESENVOLVIMENTO Como podemos nos reapropriar da tecnologia moderna, através da re-articulação da essência da técnica, considerando-se os conceitos de tecnodiversidade e de cosmoética (Yuk Hui), e no sentido da técnica como "poiesis", com base nos valores construcionistas do "homo poieticus" (Luciano Floridi. Para Yui-Hui, teríamos que olhar e pensar a tecnologia não apenas como força exclusivamente produtiva e mecanismo capitalista voltado ao aumento da mais-valia, pois isso nos impediria de ver seu potencial decolonizador e de perceber a necessidade do desenvolvimento e da manutenção da tecnodiversidade. O que significa uma cosmotécnica amazônica, inca, maia e como estas podem recontextualizar a tecnologia moderna? É importante destacar em tal construção epistemológica o conceito de ética digital intercultural, fugindo-se de uma lógica ou viés antropocentrista e eurocêntrico, em atenção, outrossim, às Epistemologia do Sul, considerando-se o sul como categoria epistemológica e não geográfica (Boaventura de Souza Santos). Ao invés de pensamos acerca da essência da técnica objeto de reflexões por parte de Heidegger, em especial ao seu texto de 1949 "A questão da técnica", não em um sentido apenas distópico, como fazendo parte dos dispositivos do biopoder ou do capitalismo de dados, mas, no sentido de refletir acerca da tecnodiversidade e da cosmotécnica, reconhecendo a existência de um pluralismo tecnológico e ontológico, evitando-se a simples oposição dualista entre natureza e técnica, como aponta Yuk Hui, sugerindo que seja repensada a descolonização a partir da perspectiva da tecnopolítica. A poética, a poesia, as artes, na medida em que desafiam todas as relações objeto a objeto e as relações das formas e seus significados, trazem uma nova dimensão, onde ao invés de representação, teríamos re-apresentação, ao invés de mediação, ou ao invés de apenas uma contemplação teríamos a interação (DELEUZE, G., 1986, p. 30), afastando-se da lógica generalista predominante, por ela não alcançar a infinidade de possibilidades latentes (Id. ib., p. 13-14).  A lógica atonal, por exemplo, liga-se à experiência-limite dos sons, que independe de uma estrutura harmônica ou melódica, com o fim de dar algum sentido de totalidade, ou de linearidade à composição (José Miguel Wisnik, "O som e o sentido. Uma outra história das músicas", São Paulo: Companhia das Letras, 2017, p. 175). Desta forma, há uma revalorização de elementos como a imaginação, a criatividade e a intuição como essenciais para a construção do próprio pensamento e conhecimento, libertando-se da prisão e enclausuramento em esquemas conceituais rígidos e pré-fixados, ocorrendo assim a alienação em busca de perfeições conceituais. Emerge assim um pensamento polifônico, do múltiplo, como uma pragmática do múltiplo, um pensamento plural, nos aproximando do que Luciano Floridi ("A Lógica da Informação": A Theory of Philosophy Philosophy as Conceptual Design", Oxford: OUP, 2019) caracteriza como "homo poieticus". Trata-se de uma mudança do entendimento representacionalista (mimético) para um outro, construcionista (poiético), ou seja, indo da mimesis para poiesis, resultando em uma interpretação poiética de nosso conhecimento, assim desenvolvendo uma lógica de desenho dos artefatos semânticos pelos quais somos epistemicamente responsáveis. Chegaríamos com isso a uma filosofia envolvendo necessariamente a crítica, a uma poiética (construtivista) ao invés da epistemologia mimética (representativa), capaz de propor uma ética de IA relacionada aos valores construcionistas do "homo poieticus". Então, do que se trata é de uma ação não como mera práxis ou de uma "téc(h)n[(ét)]ica", reprodutiva, mas sim voltada a verificar as potencialidades da técnica no sentido grego de práxis, incluindo a "poiesis", e assim assumindo a possibilidade da existência da tecnodiversidade e da cosmoética, logo, de outro destino, que não seja um de domínio e sujeição à economia no capitalismo, com base na forma moderna da técnica, que é a tecnologia como um desafio da exploração. Uma filosofia da IA com fundamento no postulado de uma tecnoversidade, portanto, é o que nos cabe desenvolver, buscando-se as bases epistemológicas e fundacionais para a técnica enquanto relacionada à "poiesis", logo, com o que é de mais humano, também com o ero'tico, enquanto poe'tico, "poie'tico" (criador e criativo), ao contrário da ordem da fetichista  produção, reprodução, mediação e representação. Quando há a experiência desinteressada há a mera contemplação, (também presente no caráter 'desinteressado' da experiência estética na "Crítica do Juízo" de Kant e no livro 3 do "Mundo como Vontade e Representação" de Schopenhauer) quanto ao objeto, ocorrendo a pura presentidade, a primeiridade peirceana, e não haveria necessidade das mediações, que irão se tornam necessárias apenas no caso da experiência de secundidade, portanto, diante de alguma forma de alteridade.  Ocorre assim uma semente do hiato no tempo caracterizada pela experiência de presentidade. Este hiato do tempo é o Acaso, "kairós" para os antigos gregos, o tempo interno, contrapondo-se a "Cronos", o tempo externo. Para Charles Sanders Peirce, ao contrário da lei que produz uniformidade, teríamos o espaço do acaso que produz diversidade, afastando-se das generalizaçõese, consequentemente, das mediações lógicas. Trata-se de uma espécie de resíduo de mundo que não interessa à razão em seu papel cognitivo, o mundo dos fenômenos sem nome que escapam à linguagem lógica e à ciência positiva, pois envolvem o que é assimétrico e irregular, sendo, pois, avesso a qualquer generalização. É a dimensão dos feno^menos sem nome, ligados ao Acaso, demandando uma linguagem que também não siga leis, sendo este o espaço da poesia e da imaginação artística, da poética expressa nos signos das demais artes. Portanto, neste sentido a experiência estética ligada à poética foge da mediação e da representação, por não depender da alteridade (do outro como mediação), e se vislumbra como presentidade e imediatidade, com o reconhecimento do acaso e da diferença, no sentido de uma experiência de unidade. Uma filosofia da IA com base nos valores do "homo poieticus", que entedemos como "erótico-poieticus", iria no sentido de uma filosofia liberta do binômio aprisionador sujeito-objeto, mas comprometida com o múltiplo e o acategórico, apto a libertar a diferença, que é o elemento essencial quando se fala em recuperação de diversas características essencialmente humanas, viria novamente equilibrar a relação humanidades-ciências "duras", naquelas digitais. Uma leitura e compreensão erótico-poéticas, não dialéticas, que levem em conta o não dito, o resto, a heterotopia no sentido foucaultiano, sendo o espaço das artes, na esteira do espaço do teatro, explora um espaço epistêmico de heterotopia, um espaço-outro (Paola Cantarini, tese de doutorado em Filosofia, PUCSP, "Theatrum philosophicum - o teatro filosófico de Foucault e o direito"). Foucault valoriza a fluidez e a "sfumato poética", técnica utilizada para pinturas, criando-se uma zona indistinta, provocando uma vibração emotiva que instaura uma atmosfera propícia ao poético, valorizando a energia não verbal, que reverbera no que é dito, o alicerce estético da experiência e do conhecimento, conferindo à experiência estética e ao imaginário um papel privilegiado. Isso se poria no lugar da pretensão de clareza e objetividade, em um discurso neutro e inodoro, típicos do pensamento científico, que se tenha a "obscuridade púrpura". Para Yuk Hui ("Tecnodiversidade", Ubu Editora, 2020, p. 154 e ss.), em uma interpretação que ele mesmo denomina de "fenomenológica pós-Heideggeriana" da pintura, a arte torna visível o invisível, invisível compreendido como o não-racional, como o Aberto e o Ser, algo que sempre escapa da presença. A arte que produz um "passo além do que é humano, um passo em direção a um domínio assombroso voltado para o humano", trazendo a presença do estrangeiro guardado dentro dela. A arte depende também da inclusão do estrangeiro (Outro, o estranho, o infamiliar), caso contrário, o Mesmo continua indefinidamente e aqui não mais seria possível existir imaginação poética, que justamente desestabiliza o Mesmo, a identidade do nome. Apenas com a poética (e artes que se aproximem da abordagem poética) sairíamos da representação, indo além da mediação e chegando a uma interação/experimentação. Com a poética ocorre a suspensão e exposição da língua, um discurso inoperoso de potência, como diria Giorgio Agamben, que torna possível o pensamento do pensamento. Ocoreria assim a desativação do dispositivo sujeito-objeto, em uma poética da inoperosidade, desativando a função utilitária, pouco comunicativa por demasiado informativa, permitindo uma abertura da linguagem e aproximando-se da experiência, que tanto nos tem faltado, como denunciava Walter Benjamin desde o fim da I Guerra Mundial, quando acaba o mundo em que ainda hoje vivemos nos destroços, a espera desta reconstrução. __________ 1 Daí a crítica de Karl Popper no desenvolvimento de sua filosofia da ciência, característica do racionalismo crítico, no sentido de ser o direito uma pseudociência, isto na sua versão apenas dogmática, ao contrário da zetética. A abordagem zetética, diferencia-se da análise apenas dogmática, ou seja, de uma abordagem tecnicista, permitindo-se uma crítica e alargada; tal diferenciação foi trabalhada pioneiramente por Tércio Sampaio Ferraz Jr., seguindo os desenvolvimentos de Theodor Viehweg, seu orientador de doutorado na Alemanha, preocupando-se mais com as perguntas, com o questionar, do que com as respostas, tidas como dogmas ou verdades absolutas, afirmando a relatividade e precariedade de todo o conhecimento. Acerca da diferença entre dogmática e zetética ver Tércio Sampaio Ferraz Júnior, "Teoria da Norma Jurídica", Editora Atlas, 5ª. Edição, 2016, p. 21 e ss.
Proteção de dados como direito fundamental e teoria dos direitos fundamentais: por uma abordagem interdisciplinar e inclusiva É possível verificarmos a importância essencial do estudo da Teoria dos Direitos Fundamentais ao observarmos que a proteção de dados (autodeterminação informativa) é um direito fundamental, e pois, não apenas um direito humano ou um direito da personalidade autônomo. Stefano Rodotá1, segundo esclarece Ana Frazão, apontaria para o reconhecimento da proteção de dados como um verdadeiro direito fundamental autônomo, expressão da liberdade e da dignidade humana. Danilo Doneda afirma que Stefano Rodotá entenderia a proteção de dados como direito especial da personalidade, embora, por outro lado, Ana Frazão sustente que Rodotá afirmaria a proteção de dados como sendo um direito fundamental autônomo2, postulando por uma proteção dinâmica, abrangendo a observância dos movimentos dos dados. Dispõe Doneda: "quando os cidadãos passam a ser cada vez mais avaliados e classificados apenas a partir de informações a seu respeito, a proteção e o cuidado com estas informações deixa de ser um aspecto que somente diga respeito às esferas da do sigilo ou da privacidade, passando a figurar um componente essencial para determinar o grau de liberdade de autodeterminação individual de cada pessoa3. Rony Vainzof, por sua vez, esclarece que Laura Mendes defende que a proteção de dados é um direito da personalidade, ao contrário de outras manifestações recentes da autora, que sustentam o reconhecimento da proteção de dados como direito fundamental. Verbis: "Laura Schertel entende que a própria personalidade a que os dados pessoais se referem, exige que a proteção de dados  pessoais seja compreendida não como um direito à propriedade, mas como uma espécie dos direitos de personalidade, que tem como objetivo equilibrar os direitos de proteção, de defesa e de participação do indivíduo nos processos comunicativos"4. Destaca-se como caso paradigmático no sentido de tal reconhecimento a decisão judicial da lavra do STF - Supremo Tribunal Federal de 06 e 07.05.2020 nas ADIs n. 6387, 6388, 6389, 6393, 6390, referente à MP 954-2020. Referida MP permitia o acesso irrestrito de dados pessoais de geolocalização de telefonia móvel e fixa ao IBGE para fins de controle da pandemia da COVID19. Destacou-se que toda e qualquer atividade de tratamento de dados deve ser devidamente acompanhada das medidas de salvaguarda sob pena de ser uma interferência desproporcional na esfera pessoal dos brasileiros. No caso em questão, não houve a previsão acerca da necessária publicação prévia de um relatório de impacto à privacidade, a fim de demonstrar de forma transparente aos cidadãos os riscos e meios de mitigação. Tampouco houve uma delimitação temporal acerca do uso dos dados e a forma de descarte após sua utilização; ou seja, não houve a aplicação de boas práticas de segurança, transparência e controle. Destaca-se o entendimento de Laura Mendes acerca de tal julgado ter reconhecido a proteção de dados como direito fundamental, em suas palavras: "decisão histórica do STF reconhece direito fundamental à proteção de dados pessoais"5. Importa ressaltar que a LGPD não traz, contudo, expressa previsão da proteção de dados como direito fundamental, como se denota dos seus artigos 1º e 17, quando menciona a proteção de outros direitos fundamentais (liberdade, intimidade, privacidade, livre desenvolvimento da personalidade).6 Da mesma forma, ainda não teríamos uma expressa e direta previsão constitucional de tal direito fundamental, contudo, há a previsão constitucional de proteção de direitos fundamentais relacionados, consoante se denota dos artigos que protegem a garantia da inviolabilidade da vida privada (art. 5º, X), a dignidade humana (art. 1°, III, CF/88,) e ao prever a garantia processual do habeas data (art. 5º, LXXII). Há quem entenda que foi reconhecido pela Constituição, portanto, um direito fundamental à proteção de dados pessoais, a chamada autodeterminação informativa, como uma dimensão material do habeas data, com fulcro na inviolabilidade da intimidade, da vida privada e da dignidade humana (Laura Mendes)7. Por conseguinte, entendemos que foi reconhecido pela CF o direito fundamental à proteção de dados pessoais, como uma dimensão material do habeas data, como parte, portanto, do substantive due process of law. Além disso, destaca-se a Proposta de Emenda à Constituição 17/19 que insere a proteção de dados pessoais, incluindo os digitalizados, na lista de garantias fundamentais da Constituição Federal de 1988, ou seja, no rol do art. 5º, da Constituição. O direito à proteção de dados é considerado direito fundamental pelo art. 8º da Carta de Direitos Fundamentais da União Europeia, proclamada pelo Parlamento Europeu, pelo Conselho da União Europeia e pela Comissão Europeia em 7.12.2000. Da mesma forma o Regulamento Europeu de proteção de dados - GDPR 2016/679 do Parlamento europeu e do Conselho europeu, revogando a Diretiva 95/46/CE prevê a proteção de dados como direito fundamental (item 1), bem como a necessidade da aplicação do princípio da proporcionalidade, já que não há que se falar em direitos absolutos, devendo a proteção de dados ser equilibrada com outros direitos fundamentais, com o princípio da proporcionalidade (item 4). Ainda no sentido de haver previsão acerca da necessidade da aplicação da proporcionalidade, a Agência Espanhola de Proteção De Dados (AEPD), em fevereiro de 2020, publicou o documento "Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial", no tocante à regulamentação da proteção de dados pelo regulamento europeu, onde destaca a necessidade da observação da proporcionalidade.8 No mesmo sentido aponta a Resolução 1-2020 da Comissão Interamericana de Direitos Humanos (CIDH) denominada "Pandemia y derechos humanos em las Américas" de 10.04.2020, trazendo expressa previsão do princípio da proporcionalidade como forma de evitar a generalização de um estado de exceção em tempos de pandemia, ressalvando sua limitação temporal e a obrigatoriedade da observância do princípio da proporcionalidade em seus três subprincípios, proporcionalidade em sentido estrito, adequação e necessidade (item 21). Em seu item 20 enfatiza que o estado de exceção presente nestas situações de pandemia deverá cumprir e respeitar os direitos humanos. Ainda quanto ao reconhecimento da proteção de dados como direito fundamental e a necessidade do princípio da proporcionalidade, noção-chave da teoria dos direitos fundamentais, ele próprio expressão de uma garantia fundamental, que entendemos como princípio dos princípios e, logo, como "garantia das garantias", destaca-se o entendimento da jurisprudência internacional. Clique aqui e confira a íntegra do texto; __________ 1 Stefano Rodotá, "A vida na sociedade da vigilância. A privacidade hoje". Trad. Danilo Doneda e Laura Cabral Doneda, Rio: Renovar, 2008, p. 18-19. Juliana Abrusio, em sua tese de doutorado na PUC/SP, "Proteção de Dados na Cultura do Algoritmo", afirma que "passa-se a percorrer como tornar os sistemas de inteligência artificial explicáveis é essencial para garantir direitos fundamentais como a proteção de dados pessoais". Laura Mendes, por sua vez aponta para a necessidade da cultura jurídica compreender a proteção dos dados pessoais como um direito fundamental autônomo - cf. "Privacidade, proteção de dados e defesa do consumidor". São Paulo: Saraiva, 2014, p.78-79. 2 Stefano Rodotá. "Avida na sociedade da vigilância - A privacidade hoje". Rio de Janeiro: Renovar, 2008. p. 17. 3 Danilo Doneda. "Princípios e proteção de dados pessoais". In: LUCCA, Newton de; SIMÃO FILHO; Adalberto; LIMA, Cíntia Rosa Pereira de (Coord.). Direito & Internet III: Marco civil de internet. São Paulo: Quartier Latin, 2015. t. I. p. 370. 4 Laura Schertel Mendes. "Privacidade, proteção de dados e defesa do consumidor: linhas gerais de um novo direito fundamental", cit. p. 124; Maldonado, Viviane Nóbrega; Blum, Viviane Nóbrega. LGPD: Lei Geral de Proteção de Dados comentada, p. 177. Edição do Kindle. 5 10/05/2020, Decisão histórica do STF reconhece direito fundamental à proteção de dados pessoais. 6 Art. 1º Esta Lei dispõe sobre o tratamento de dados pessoais, inclusive nos meios digitais, por pessoa natural ou por pessoa jurídica de direito público ou privado, com o objetivo de proteger os direitos fundamentais de liberdade e de privacidade e o livre desenvolvimento da personalidade da pessoa natural. Art. 17. Toda pessoa natural tem assegurada a titularidade de seus dados pessoais e garantidos os direitos fundamentais de liberdade, de intimidade e de privacidade, nos termos desta lei. 7 Laura Schertel Mendes, "Privacidade e dados pessoais. Proteção de dados pessoais. Fundamento, conceitos e modelo de aplicação". Panorama setorial, ano XI. 8 Disponível aqui. Acesso em 15 fev.2020.