Publicações / Artigos

Tecnoética da inteligência artificial no âmbito jurídico

Tecnoética da inteligência artificial no âmbito jurídico

Escrito por Vinícius Ferreira de Castilho Leme . 12 . 04 . 2024 Publicado em Artigos

TECNOÉTICA DA INTELIGÊNCIA ARTIFICIAL NO ÂMBITO JURÍDICO

TECHNOETHICS OF ARTIFICIAL INTELLIGENCE IN THE LEGAL SPHERE

Vinícius Ferreira de Castilho Leme1

1 Bacharel em Direito pela Faculdade de Direito de Sorocaba (FADI-Sorocaba). Advogado.

“Duas coisas enchem o ânimo de crescente admiração e respeito, veneração sempre renovada quanto com mais freqüência e aplicação delas se ocupa a reflexão: por sobre mim o céu estrelado; em mim a lei e a moral.” (Immanuel Kant, Crítica à Razão Prática, 1788)

RESUMO

O presente trabalho, diante da conceituação sintetizada daquilo entendido como ética por Immanuel Kant, analisa os riscos do uso deliberado da Inteligência Artificial no âmbito jurídico, com a finalidade de definir, contudo, através da “tecnoética”, os benefícios e limites dessa importante ferramenta, a fim de tornar a prestação jurisdicional mais eficiente e correta sob o prisma da ética e do Direito. Assim, alicerçado no método lógico-dedutivo-dogmático, este artigo fundamenta-se em conceitos doutrinários, bem como em trabalhos científicos que tratam da referida tecnologia, especialmente no que tange ao âmbito jurídico.

Palavras-chave: tecnoética, inteligência, artificial, tecnologia, Direito, ética.

ABSTRACT

The present work, in light of the synthesized conceptualization of what is understood as ethics by Immanuel Kant, analyzes the risks of the deliberate use of Artificial Intelligence in the legal sphere. The aim is to define, however, through ‘technoethics,’ the benefits and limits of this crucial tool in order to make judicial proceedings more efficient and correct from the perspective of ethics and law. Thus, grounded in the logical-deductive-dogmatic method, this article relies on doctrinal concepts as well as scientific works addressing said technology, particularly within the legal realm

Keywords: Technoethics, Intelligence, Artificial, Technology, Right, Ethics. 2

1 INTRODUÇÃO

De antemão, necessário se faz trazer o conceito e o histórico de Inteligência Artificial (IA), haja vista tratar-se de uma tecnologia que está avançando rapidamente pelo mundo todo e, por mais surpreendente que pareça, estamos apenas vivenciando seu exponencial aperfeiçoamento, sendo que seu nascimento e desenvolvimento embrionário acontece há décadas.

Conforme Tarcisio Teixeira e Vinícius Cheliga muito bem definem: “uma inteligência artificial é um sistema computacional criado para simular racionalmente as tomadas de decisões dos seres humanos, tentando traduzir em algoritmos o funcionamento do cérebro humano”. (CHELIGA; TEIXEIRA, 2020, p. 16)

Desta forma, é possível afirmar que basta um sistema computacional copiar, ainda que minimamente e pouco evoluído, o raciocínio humano para que seja considerado como uma IA. Portanto, sua origem se deu em meados da década de 40, com o neurofisiologista Warren McCulloch e o matemático Walter Pitts, os quais criaram o primeiro modelo computacional para redes neurais capaz de simular processos cognitivos orgânicos. Outro nome importante para o avanço dessa tecnologia é do cientista Alan Turing, que ficou famoso por criar uma máquina capaz de decodificar mensagens alemãs durante a Segunda Guerra Mundial. (ZENDESK, 2024)

Turin também é responsável pelo teste utilizado atualmente a fim de registrar se um sistema teria a mesma inteligência de um cérebro humano. Consiste em fazer um conjunto de perguntas ao sistema (demanda), caso o sistema responda e engane o demandante a ponto de acreditar realmente tratar-se de uma pessoa natural, seria aprovado no referido teste, o que significaria estar no mesmo nível de inteligência de um humano. (ZENDESK, 2024)

No mais, os passos para a aprovação no teste de Turin é que o sistema tenha processamento de linguagem natural, representação do conhecimento, raciocínio automatizado, aprendizado de máquina, visão computacional e a robótica. (CHELIGA; TEIXEIRA, 2020, p. 25)

Com a teoria supra explicitada, foram décadas de evolução e desenvolvimento, para que enfim, em 2014, a primeira máquina pudesse ser aprovada no mencionado teste. (TECNOBLOG, 2014) 3

No entanto, algumas preocupações surgem, dentre elas a autonomia e senciência das máquinas com IA, o que criaria a possibilidade de voltarem-se contra as pessoas naturais, como representado em diversos filmes e obras, por exemplo, em Matriz (1999).

Como não poderia ser diferente, essa tecnologia está inserida hoje no mundo jurídico ao passo que são criadas IA’s capazes de analisar a conhecida “jurimetria”, petições, alocação de valores, verificação de legislação e jurisprudência, dentre outras funções. Portanto, é clara a demanda da área jurídica, tendo em vista todos os benefícios que promete oferecer. (CHELIGA; TEIXEIRA, 2020, p. 24)

Para o mundo jurídico, a IA pode oferecer alguns riscos do ponto de vista ético e legal, isto porque, dependendo da forma como é alimentado (forma de aprender e desenvolver seu algoritmo), pode amplificar preconceitos sociais e raciais conforme captura dados de fontes originalmente maliciosos (racistas e preconceituosos), além do usuário não ter conhecimento sobre a segurança dos dados que estão sendo inseridos naquele sistema. (INVENIS, 2023)

Assim, tendo em vista o eminente desenvolvimento e avanço dessa tecnologia, sendo que pode trazer diversos benefícios à prestação jurisdicional, é necessário se estabelecer qual o caminho a adotar, de modo a minimizar qualquer risco a direitos das pessoas. Servindo como um deles a própria ética, no caso da tecnologia, a tecnoética, que estabelece uma relação direta entre o prisma de valores da ação ou omissão dado à IA no momento de seu desenvolvimento, bem como manter esse padrão ético no decorrer do aprendizado automatizado. (REALE, 2017, p. 34)

2 SÍNTESE DA ÉTICA KANTIANA

Immanuel Kant, referência no estudo da ética e autonomia da moral, enfatiza, especialmente a imposição da conduta, isto é, qual o dever do homem perante a técnica desenvolvida racionalmente pela humanidade e do conhecimento dado? O que nos leva à pergunta: até que ponto o Direito positivado obriga e valoriza certa conduta humana? Afinal, ainda que certificado e conhecido da verdade, assim positiva em norma legal, o simples fato de essa última existir não obriga a pessoa no campo subjetivo. (REALE, 2017, p. 34) 4

Em sua obra “Crítica da Razão Prática” (1788), Kant filosofa sobre essas questões e introduz o conceito de valor da conduta humana, o que entendemos ser o ponto marcante para o estudo da ética como conhecemos atualmente, inclusive quanto à sua influência no Direito Positivo. (REALE, 2017, p. 36)

Em breve síntese, alguns elementos compõem o que o filósofo entendia como leis da moral, são elas: o imperativo categórico e a universalização; Autonomia Moral e Respeito pela Lei; Relação entre Direito Positivo e Direito Moral; Limites do Direito em Relação à Ética. (KANT, 1788)

Dentre esses, o imperativo categórico é o princípio base que deve ser seguido valorando a conduta sob a vontade de que lei da natureza fosse, ao passo que a humanidade é fim, não meio, em respeito à dignidade humana, pelo simples fato de qualquer humano ser capaz de boa vontade, significa que todas as pessoas têm por si só valor. (KANT, 1788, P. 30)

Ocorre que, todo ser dotado de vontade e razão, entendida como “pensamento da causalidade”, isto é, toda ação ou omissão gera resultado, ainda que ínfimo como a locomoção, mas impossível afastar os princípios dessa causalidade, sob pena de viver sob puro impulso, sendo assim, um ser não livre. A liberdade, em si, é o fato de que o próprio ser cria e respeita suas “leis morais”, isso provém da vontade de ser livre, sendo assim, da moral. (HERRERO, 2001, p. 13)

“Ora, eu digo: todo ser que não pode agir senão sob a idéia de liberdade é, por isso mesmo, realmente livre em sentido prático, isto é, para ele valem todas as leis que estão inseparavelmente ligadas à liberdade, exatamente como se a sua vontade fosse declarada livre em si mesma e válida na filosofia teórica” (HERRERO, 2001, p. 29)

Dessarte, através da liberdade de auto legislar o homem, temos que a moral é autônoma do Direito, que inclusive reconhece a referida autonomia ao passo que protege direitos individuais e fundamentais.

“A legislação ética só admite o dever como móbil para a execução das exigências da razão e, como tal, ‘afeta a todo o que é dever em geral’. A legislação jurídica, pelo contrário, permite outros móbiles externos para a realização das exigências da razão. Ela exige o cumprimento dos deveres, não por respeito à lei, mas pelo motivo externo da coação.” (HERRERO, 2001, p. 17). 5

Assim, “o Direito, como experiência humana, situa-se no plano da Ética, referindo-se a toda a problemática da conduta humana subordinada a normas de caráter obrigatório”. (REALE, 2017, p. 36)

3 ATUAL ESTÁGIO DA NORMATIZAÇÃO DA INTELIGÊNCIA ARTICIAL

Em que pese o referido avanço desenfreado pela tecnologia da IA, não há, ainda, nos estudos aprofundados sobre a responsabilização no mundo jurídico para qualquer dano causado por uma IA, ainda que possamos utilizar de meios de interpretação, como a responsabilização pelo como o fabricante, o operador, o proprietário ou o utilizador.

Porém, em 2017, o Parlamento Europeu aprovou recomendações legais (2015/2103(INL)) a serem seguidas ao dispor legalmente de Direito Civil sobre Robótica, que ainda precisa ser aprovado pela Comissão Europeia. Prevê, contudo, diversas considerações sobre a regulamentação em código, no qual destaca-se o tópico quanto à responsabilidade civil. (PARLAMENTO EUROPEU, 2017)

“AF. Considerando que, perante o cenário em que um robô pode tomar decisões autónomas, as normas tradicionais não serão suficientes para suscitar problemas de responsabilidade jurídica pelos danos causados por um robô, uma vez que não seria possível identificar a parte responsável para prestar a indemnização e para lhe exigir que reparasse os danos causados;

AG. Considerando que as insuficiências do atual quadro jurídico são evidentes também no domínio da responsabilidade contratual, na medida em que as máquinas concebidas para escolher as suas contrapartes, para negociar as condições contratuais, para celebrar contratos e para decidir se e como os aplicam, invalidam a aplicação das normas tradicionais; considerando que isto sublinha a necessidade de novas normas, eficientes e mais atualizadas, que correspondam ao desenvolvimento tecnológico e às inovações recém-surgidas e utilizadas no mercado;” (PARLAMENTO EUROPEU, 2017)

Destaca-se o item AF. do texto, em que se traduz a insuficiência do sistema jurídico europeu, que muito influencia na legislação brasileira, para a responsabilização de outro ser senciente, apto a tomar decisões, senão o humano.

Destarte, surge a preocupação sobre o ponto de vista antropológico, pois ao assumir que um robô possa ser responsabilizado, é atribuir também personalidade, ainda que não cidadania. (CHELIGA; TEIXEIRA, 2020, p. 67) 6

Acerca da supracitada controvérsia, o Parlamento Europeu considerou três leis básicas da robótica criadas por Isaac Asimov, autor de “Eu, Robô” e “O Homem Bicentenário”, quais sejam:

“As Três Leis da Robótica:

1. Um robô não pode ferir um humano ou permitir que um humano sofra algum mal;

2. Um robô deve obedecer a qualquer ordem dada por um ser humano, desde que essa ordem não interfira com a execução da Primeira Lei.

3. Um robô deve proteger a sua existência, desde que esta proteção não interfira com a Primeira e a Segunda Leis.” (ASIMOV, 1997, p. 7)

O referido Parlamento consignou que “considerando que as Leis de Asimov têm de ser encaradas como dirigindo-se aos criadores, aos produtores e aos operadores de robôs, incluindo robôs com autonomia integrada e autoaprendizagem, uma vez que não podem ser convertidas em código de máquina”. (PARLAMENTO EUROPEU, 2017)

Desta maneira, considerando as recomendações supra, que poderão servir de norte para o Poder Legislativo de Estados do mundo inteiro, os desenvolvedores e operadores deverão incluir no sistema, de alguma forma, as três leis da robótica para segurança humana, um problema não tão somente legal, mas ético.

4 TECNOÉTICA

Consoante explicitado, não há na atualidade legislação específica a tratar sobre o tema da inteligência artificial e robótica, motivo pelo qual, em casos concretos, os juristas precisam e precisarão utilizar-se de outras fontes do Direito.

Ocorre que, consoante exposto em tópico próprio, anteriormente a qualquer raciocínio puramente legal, no sentido da busca pela solução no Direito Positivado, devemos voltar sim para fontes primárias do Direito, inclusive da própria experiência humana, ocasionando na obrigatoriedade das leis morais.

Nesse sentido, vale citar o dr. Eduardo Amin Menezes Hassan, procurador do Município de Salvador/BA, que brilhantemente associa como a ética influencia no Direito:

“Observa-se que os valores éticos impregnam o direito. E isto rompe com a ideia de que o direito pode existir independentemente da ética. 7

Os direitos fundamentais possuem conteúdo ético e estão ligados à ideia de dignidade da pessoa humana e limitação do poder.” (HASSAN, 2014, p. 144)

Outrossim, após o período da Segunda Guerra Mundial, ao momento em que ocorreu o chamado positivismo, já demonstrado no presente trabalho, houve um período conhecido como pós-positivismo, que por sua vez fora atribuído na ciência jurídica os valores éticos indispensáveis para a proteção da dignidade da pessoa humana, remetendo-nos ao capítulo do imperativo categórico de Kant. (HASSAN, 2014, p. 144)

“[…] jusfilosófica que está sendo chamada de pós-positivismo, que poderia muito bem ser chamado de positivismo ético, já que seu propósito principal é inserir na ciência jurídica os valores éticos indispensáveis para a proteção da dignidade humana. Percebeu-se que, se não houver na atividade jurídica um forte conteúdo humanitário, o direito pode servir para justificar a barbárie praticada em nome da lei.” (MARMELSTEIN, 2011, p. 11)

Ademais, nítido é o caráter ético dos princípios constitucionais e civilistas, o qual possibilita a manutenção da justiça, ainda que na omissão de norma escrita.

Nesta senda, com o avanço da IA, surgem preocupações éticas acerca de seu desenvolvimento e, principalmente, do seu autoaprendizado, isto é, da capacidade de capturar dados e com isso atribuir novos sentidos e associá-los, simulando a cognição humana de maneira a formar conceitos e expô-los conforme a ética humana e do Direito. (CHELIGA; TEIXEIRA, 2020, p. 84-85)

No mais, as IA’s mais desenvolvidas até o momento utilizam da internet das coisas e da big data como ferramentas de funcionamento. A internet das coisas é o mesmo de que o sistema recebe dados do mundo sensível, interagindo com ele de modo ativo e passivo. A big data é a análise de um banco de dados de grande volume e sua interpretação, de modo a apresentar resultados de maneira mais eficiente. (CHELIGA; TEIXEIRA, 2020, p. 78-82)

Assim, caso a IA tenha autonomia para captura de dados livres na rede e de resposta, é completamente plausível que apresente resultados preconceituosos e racistas, por exemplo. Dessa forma, pode, inclusive, em casos de utilização para emitir decisões judiciais, prejudicar determinada pessoa por sua origem. (GAZETA DO POVO, 2023) 8

Em artigo publicado no Jornal da USP, do campus de Ribeirão Preto/SP, de autoria de Julia Valeri, discorre sobre um teste realizado por um grupo de conscientização sobre distúrbios alimentares, em que IA’s como Dall-E 2, Stable Diffusion e Mifjourney foram demandados para criar corpos “perfeitos”.

“De acordo com o resultado obtido, 40% das imagens mostravam mulheres loiras, 30% mulheres de olhos castanhos e mais de 50% tinham pele branca, enquanto quase 70% dos homens “perfeitos” tinham cabelos castanhos e 23% olhos castanhos. Semelhante às mulheres, a grande maioria dos homens tinha pele branca e quase metade tinha pelos faciais.” (JORNAL DA USP, 2023)

Outra polêmica envolvendo o sistema da Dall-E 2, IA que possibilita a geração de imagens, foi a acusação pela deputada estadual do Rio de Janeiro, Renata Souza, de que o algoritmo seria racista, pois ao demandar por uma imagem de uma mulher negra em uma favela colocou uma arma na mão da pessoa gerada via IA. (GAZETA DO POVO, 2023)

Em contraponto, o professor de desenvolvimento de sistemas e autor do livro “A era da inteligência artificial” (2023), Elzo Brito, explica que a acusação é equivocada por conceito, tendo em vista que esses sistemas de IA e geração de imagens tem o que chamamos de “censura” em seu algoritmo, que impossibilita o usuário de criar determinadas imagens que associam violência explícita, por exemplo, sendo que para a geração de uma imagem que associasse uma arma a uma pessoa criada teria de haver demanda específica. Logo, não seria o algoritmo racista, mas a demanda ou os dados coletados pela IA. (GAZETA DO POVO, 2023)

De todo modo, o que vemos é uma nítida preocupação ética da utilização da tecnologia, sendo necessária uma conduta e habilidade do desenvolvedor ao passo que deve criar parâmetros na origem do sistema para que tenha um prisma da legalidade e da ética ao entregar resultados, sob pena de responsabilização civil e criminal.

Segundo o professor da University of Ottawa, Rocci Luppicini:

“[…] A Tecnoética ajuda a conectar bases de conhecimento distintas em torno de um tema comum (tecnologia). Para esse fim, a tecnoética é holística em sua orientação e fornece um guarda-chuva para fundamentar todas as subáreas da ética aplicada focadas em áreas relacionadas à tecnologia da atividade humana, incluindo negócios, 9

política, globalização, saúde e medicina, e pesquisa e desenvolvimento.” – Tradução nossa 2

2 “Efforts to reach an understanding of ethical aspects of the various types of technology are challenged by the tendencies within academia to create silos of information in separate elds and disciplines. Technoethics helps connect separate knowledge bases around a common theme (technology). To this end, technoethics is holistic in orientation and provides an umbrella for grounding all sub-areas of applied ethics focused on technology related areas of human activity including, business, politics, globalization, health and medicine, and research and development.” (NETTO, OLIVEIRA, 2018)

Assim, a aplicação dessa tecnologia na prática jurídica exige de forma vigorosa a aplicação da chamada tecnoética, campo de estudo inovador que busca exatamente o prisma pelos desenvolvedores, usuários e, inclusive, a própria IA deve ter consigo em seu algoritmo, sob pena dos juristas não estarem mais trabalhando na manutenção da justiça, mas da injustiça.

Não obstante, a proteção de dados e privacidade devem ser incorporados às IA’s, de modo a respeitar princípios constitucionais e infraconstitucionais, bem como a legislação vigente, em destaque para a LGPD, que considera como personalidade capaz de responsabilização pessoas jurídicas de direito e pessoas naturais, não se referindo de forma alguma a ser senciente capacitados para tomar decisões que viriam a influir no mundo físico. (CHELIGA; TEIXEIRA, 2020, p. 89-91)

5 CONSIDERAÇÕES FINAIS

Considerando todo o exposto, pode-se constatar que o problema da aplicabilidade das atuais IA’s no meio jurídico é exatamente a falta de normatização e a rasa tecnoética para os fins que se espera dessa ferramenta.

Com o aprimoramento e com o desenvolvimento de um algoritmo que possa codificar a ética humana (salienta-se a palavra “humana”, haja vista a ética estar diretamente ligada à ideia de liberdade, a qual se atribuída à seres sencientes poderia pôr em risco a ideia do homem como único ser capaz da razão), limitando assim a atuação e a conduta desses sistemas a fim de enquadrarem-se nos preceitos legais e éticos, talvez alcançaremos uma revolução tecnológica, principalmente na justiça como conhecemos atualmente. 10

Porém, até a garantia de que teremos a segurança necessária para a implementação dessa tecnologia, através do estudo teórico e prático da tecno ética, colocamos em risco um dos pilares de nossa sociedade, que é a justiça.

REFERÊNCIAS

CHELIGA, Vinicius; TEIXEIRA, Tarcisio. Inteligência artificial: aspectos jurídicos. 2 ed. Salvador: Editora Juspodivm, 2020.

REALE, Miguel. Filosofia do direito. 20 ed. São Paulo: Saraiva, 2002.

KANT, Immanuel. Crítica da Razão Prática. Porto: Edições 70, 2017

MORRISON, Wayne. Filosofia do Direito: dos gregos ao pós-modernismo. São Paulo: Martins Fontes, 2006. 676 p. Reflexão, [S. l.], v. 31, n. 90, 2015. Disponível em: https://seer.sis.puc-campinas.edu.br/reflexao/article/view/3092. Acesso em: 2 mar. 2024.

HASSAN, E. A. M. A ÉTICA COMO DIREITO FUNDAMENTAL. Revista do Programa de Pós-Graduação em Direito, [S. l.], v. 24, n. 26, 2014. DOI: 10.9771/rppgd.v24i26.11928. Disponível em: https://periodicos.ufba.br/index.php/rppgd/article/view/11928. Acesso em: 6 mar. 2024.

NETTO, Mauro; OLIVEIRA, Márcio. Singularidade Tecnológica, Convergência Nbic E A Inteligência Coletiva Como Bases Para Um Sincretismo Tecnoético Sob O Paradigma Jusfilosófico Da Teoria Da Integridade De Ronald Dworkin. Revista Brasileira de Filosofia do Direito, Salvador. V. 4; N. 1; P. 116-137, jan/jun. 2018. Disponível em: https://repositorio.ufmg.br/handle/1843/40464. Acesso em: 19 fev. 2024.

Qual é a origem da inteligência artificial? Onde tudo começou? ZENDESK, 18 fev. 2024. Disponível em: https://www.zendesk.com.br/blog/qual-e-a-origem-da-inteligencia-artificial/#:~:text=A%20origem%20da%20IA%20data,possibilitaram%20o%20crescimento%20deste%20campo. Acesso em: 28 fev. 2024.

PENATTI, Giovana. Um computador passou pela primeira vez no teste de Turing, TECNOBLOG, 19 jun. 2014. Disponível em: 11

https://tecnoblog.net/noticias/2014/06/09/computador-passou-primeira-vez-teste-de-turing/. Acesso em 19 fev. 2024.

Inteligência Artificial: os desafios de ética e os perigos no setor jurídico, INVENIS, 19 jun. 2023. Disponível em: https://invenis.com.br/blogs/advocacia40/inteligencia-artificial-os-desafios-de-etica-e-os-perigos-no-setor-juridico/#:~:text=Os%20sistemas%20de%20IA%20podem,%C3%A1reas%20como%20a%20justi%C3%A7a%20criminal. Acesso em: 28 fev. 2024

VALERI, Julia. Inteligência artificial utiliza base de dados que refletem preconceitos e desigualdades, JORNAL DA USP, 7 jul. 2023. Disponível em: https://jornal.usp.br/atualidades/inteligencia-artificial-utiliza-base-de-dados-que-refletem-preconceitos-e-desigualdades/. Acesso em: 6 mar. 2024.

PARLAMENTO EUROPEU, Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (2015/2103(INL)), 2017. Disponível em: https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_PT.html. Acesso em: 6 mar. 2024.

DESIDERI, Leonardo. Deputada do PSOL acusa IA de “racismo algorítmico” e suscita dúvidas em internautas, GAZETA DO POVO, 27 out. 2023. Disponível em: https://www.gazetadopovo.com.br/vida-e-cidadania/deputada-do-psol-acusa-ia-de-racismo-algoritmico-e-suscita-duvidas-em-internautas/. Acesso em: 6 mar. 2024.