SciELO - Scientific Electronic Library Online

 
vol.6 número2Os Juízes criam Direito? Uma reflexão sobre ativismo Judicial e Direitos Fundamentais índice de autoresíndice de assuntosPesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Journal

Artigo

Indicadores

Links relacionados

  • Não possue artigos similaresSimilares em SciELO

Compartilhar


e-Pública: Revista Eletrónica de Direito Público

versão On-line ISSN 2183-184X

e-Pública vol.6 no.2 Lisboa set. 2019

 

 

DIREITO PÚBLICO

O uso da inteligência artificial na aplicação do direito público – o caso especial da cobrança dos créditos tributários – um estudo objetivado nos casos brasileiro e português

The use of artificial intelligence in the application of public law - the special case of the collection of tax credits - a study objectified in the Brazilian and Portuguese cases

 

Marcus Abraham I 1 , João Ricardo Catarino II 2 .

I Universidade do Estado do Rio de Janeiro, Av. São Francisco Xavier, Maracanã, Rio de Janeiro, RJ, 21941-901, Brasil . E-mail:mabraham@uol.com.br

II Instituto Superior de Ciências Sociais e Políticas, R. Almerindo Lessa, Lisboa, 1300-666, Portugal . E-mail: jcatarino@iscsp.ulisboa.pt

 

RESUMO

O objetivo deste estudo é realizar uma breve discussão sobre os impactos da tecnologia de inteligência artificial (IA) no mundo do Direito, mais especificamente sobre o tema da cobrança dos créditos tributários, tanto na vertente do processo judicial como da fiscalização tributária. Serão apresentados exemplos práticos de como a inteligência artificial tem sido aplicada em matéria jurídica e fiscal no caso objeto de estudo, o Brasil e em Portugal, bem como outras partes do mundo. Efetuamos uma reflexão sobre os desafios éticos do uso de tal tecnologia em face da moralidade humana e algorítmica.

Palavras-Chave: Inteligência artificial; Processo judicial; Fiscalização tributária; Parâmetros éticos; Elaboração de sentenças judiciais./font>

 

ABSTRACT

This paper aims to make a brief discussion about the impacts of artificial intelligence (AI) technology in the legal world, specifically on the subject of collection of taxes, both in the judicial process and in tax inspection. We will present practical examples of how artificial intelligence is applied in legal and fiscal matters in Brazil and Portugal, as well as in other parts of the world. A reflection on the ethical challenges of using such technology regarding human and algorithmic morality is also made.

Keywords: Artificial intelligence; Judicial process and tax inspection; Ethical parameters; Ethical parameters; Production of court rulings.

Sumário: Resumo; Palavras Chave; Introdução; Inteligência artificial e sua aplicação concreta no direito brasileiro; A (pouco eficaz) cobrança judicial do crédito tributário no Brasil e as contribuições da inteligência artificial; Desafios jurídicos e éticos no uso da inteligência artificial pela Administração Pública portuguesa; Desafios éticos na aplicação da inteligência artificial ao direito; Conclusões;

 

1. Introdução

A revolução da tecnologia da informação, da biotecnologia e da inteligência artificial já começa a alterar os paradigmas que conhecemos. O festejado autor Yuval Noah Harari, na sua recente obra “21 Lições para o Século 21” , afirma:

«No século XXI, o desafio apresentado ao ser humano pela tecnologia da informação e pela biotecnologia é indubitavelmente muito maior do que o desafio que representaram, em época anterior, os motores a vapor, as ferrovias e a eletricidade. […] Com a evolução da Inteligência Artificial, talvez cheguemos a um ponto em que as finanças não farão sentido nenhum para os humanos. Dá para imaginar um governo que aguarda humildemente um algoritmo aprovar o seu orçamento ou sua reforma fiscal? Enquanto isso redes peer-to-peer de blockchain e criptomoedas, como a bitcoin, poderão renovar completamente o sistema monetário»3.

Basta lembrar que o Netflix e a AppleTV vêm devastando o mercado de locadoras de vídeo; que o Spotify, TuneIn e AppleMusic estão prejudicando as rádios FM; que o Google acabou com as boas e velhas enciclopédias em papel; que o Airbnb está concorrendo fortemente com os hotéis; que o Whatsapp está prejudicando substancialmente as operadoras de telefonia fixa e móvel; que os Smartphones vêm eliminando as câmeras fotográficas e respetivas revelações em papel; que o Uber está revolucionando o sistema de transportes urbanos e rivalizando com os táxis; que sites como Mercado Livre eliminaram os tradicionais classificados de jornal; que o armazenamento de dados em nuvem praticamente acabou com a necessidade de pendrives; que os aplicativos bancários estão extinguindo agências físicas; que as criptomoedas colocam em xeque o sistema bancário tradicional; e que assistentes virtuais como SIRI (Apple), Google Assistent Assistant (Google) e Alexa (Amazon) têm nos tornado dependentes de suas facilidades.

Mas, apesar de tudo, não podemos nos olvidar de que estes aplicativos e a própria Inteligência Artificial existem para nos servir e não ao revés. Caso contrário, viveremos em um mundo em que o Waze decidirá para onde devemos ir; o Facebook escolherá nossos amigos e o Tinder com quem casar.

Diante de tal panorama, [o] objetivo deste estudo é realizar uma breve discussão sobre os impactos da tecnologia de inteligência artificial (IA) no mundo do direito, com especial destaque para o direito público, mais especificamente sobre o tema da cobrança dos créditos tributários, tanto na vertente do processo judicial como da fiscalização tributária do procedimento tributário. Serão apresentados exemplos práticos de como a inteligência artificial tem sido aplicada em matéria jurídica e fiscal no Brasil e em outras partes do mundo, bem como reflexões sobre os desafios éticos do uso de tal tecnologia em face da moralidade humana e algorítmica.

2. Inteligência artificial e sua aplicação concreta no direito brasileiro

Quando tratamos de inteligência artificial, é necessário brevemente mencionar o que são algoritmos. Algoritmos, em termos populares, nada mais são do que sequências de passos para realizar uma tarefa específica (por exemplo, uma receita de tarte é um algoritmo; uma coreografia é um algoritmo). Na computação, podem ser entendidos como séries de comandos que indicam a um computador algo a ser realizado, seguindo-se os comandos indicados. No modelo computacional tradicional, existem os chamados algoritmos programados, que trabalham na sistemática de inputs-outputs:

«Inicialmente, é necessário estabelecer o mecanismo de entrada de dados (input). Um algoritmo deve ter um ou mais meios para recepção dos dados a serem analisados. Em uma máquina computacional, a informação deve ser passada para o computador em meio digital (bits). Do mesmo modo, é necessário ter um mecanismo para a saída ou retorno dos dados trabalhados (output). Um algoritmo deve ter um ou mais meios para retorno dos dados, os quais devem estar relacionados de modo específico com o input. Por exemplo, um algoritmo de uma calculadora que receba as informações para somar 2+2 (input) irá retornar como resultado o número 4 (output). O output decorre do input, sendo papel do algoritmo fornecer o retorno dos dados corretos a partir dos dados de entrada»4.

Contudo, ao falarmos de algoritmos inteligentes, referimo-nos a outra realidade: aos sistemas que são capazes de simular o raciocínio humano, o aprendizado e a nossa tomada de decisões. Esses algoritmos “não programados” criam novos algoritmos a partir do algoritmo raiz, sem a necessidade da intervenção humana. Antes, os computadores compilavam e processavam; hoje eles treinam e aprendem com a própria experiência5.

A tecnologia da informação de agora, que une a biotecnologia e a inteligência artificial, através de tecnologias como a Machine Learning e Natural Language Processing, é capaz de ir além do mero processamento de dados, conseguindo, de maneira autônoma, auto ajustar-se para resolver problemas novos dentro de cenários imprevisíveis, a partir da seleção e compreensão de dados a serem coletados no Big Data6.

A partir dos dados colhidos, a ferramenta de inteligência artificial é capaz de analisar e compreender o significado do objeto da sua tarefa. Isso lhe permite aprender com suas próprias experiências, deduzir autonomamente e até criticar, possibilitando estabelecer uma conversa, criar uma sinfonia, jogar xadrez, e até mesmo identificar personalidades, desejos e sentimentos humanos7.

Uma das grandes possibilidades da IA será no auxílio ao sistema judicial para facilitar a tomada de decisão pelo juiz-humano com o auxílio do juiz-robô, acelerando o julgamento dos milhões de processos judiciais que abarrotam os tribunais brasileiros (recorde-se de que o Brasil conta com uma população de cerca de 200 milhões de habitantes). Ou participando da tomada de decisões públicas que envolvam nossas Administrações públicas, na atividade de aplicar o direito ao apreciar pretensões dos cidadãos.

Tal assistência ao magistrado realizado realizada por um algoritmo inteligente dar-se-á não apenas para ler as peças processuais e elaborar um preciso relatório, mas também para identificar a legislação e a jurisprudência aplicáveis ao caso concreto, oferecendo, também, um relatório de tendências de resultados em casos similares.

Passemos a elencar alguns exemplos práticos dessa aplicação na esfera jurídica.

Na Corte constitucional brasileira, no Supremo Tribunal Federal (STF), o robô de inteligência artificial se chama VICTOR, em homenagem ao Ministro do STF Victor Nunes Leal, responsável no passado pela sistematização das Súmulas do STF, as quais, historicamente, criaram uma maior facilidade de aplicação das teses fixadas por aquela Corte.

Este robô analisa as petições de recursos extraordinários que chegam ao STF com o objetivo de identificar se tratam de temas que já foram decididos pela Corte no âmbito da repercussão geral, para fins de aplicação da solução ao caso concreto, com a devolução do processo ao Tribunal de origem ou a rejeição do recurso extraordinário.

A ideia é que, nos próximos anos, o sistema VICTOR seja implantado nos Tribunais locais, de modo a evitar que recursos subam ao STF desnecessariamente, sendo aplicada localmente a decisão dada em repercussão geral8.

No Superior Tribunal de Justiça (STJ), mais alta Corte brasileira para interpretação do direito federal infraconstitucional, está sendo desenvolvido um sistema de inteligência artificial chamado de SÓCRATES, com o objetivo de produzir um exame automatizado do recurso e do acórdão recorrido, apresentando a legislação aplicável, uma lista de casos similares já julgados pelo tribunal e uma sugestão de decisão. O intuito é facilitar a tomada de decisão pelo relator do processo, com a expectativa de que tal sistema traga um incremento de 10% nos processos julgados em relação ao volume protocolizado em cada período9.

A propósito, é importante noticiar que, por meio da Portaria nº 25, de 19/02/2019, o Conselho Nacional de Justiça decidiu criar um laboratório de inovações tecnológicas e um centro de inteligência artificial para o processo judicial eletrónico, com o objetivo de pesquisar, produzir e atuar na incorporação de inovações tecnológicas e produção de modelos de inteligência artificial10.

Outra iniciativa no Poder Judiciário vem do Tribunal de Justiça do Estado de Minas Gerais (TJ-MG), com o seu robô chamado Radar, ferramenta que tem a capacidade de identificar recursos com idênticos pedidos no âmbito do TJ-MG, e que já foram objeto de decisões com eficácia vinculante por tribunais superiores, ou mesmo já pacificadas no âmbito do TJ-MG. A partir da identificação, é elaborada pelo próprio sistema uma minuta de voto padrão para aquele tema, aplicando a jurisprudência adequada em todos os recursos identificados em um julgamento conjunto11.

A advocacia brasileira também já pode contar com alguns sistemas de inteligência artificial, tal tais como:

a) o Looplex, para gestão de processos de contencioso de massa em escritórios e automação de documentos jurídicos como petições e contratos12;

b) o Justto, para a solução amigável de litígios, realizando arbitragem e negociação13; e

c) a Dra. Luiza, sistema de inteligência artificial desenvolvido para utilização por órgãos da advocacia pública que necessitam gerenciar processos jurídicos de massa. Este sistema já está sendo utilizado pela Procuradoria Geral do Distrito Federal. Relata-se que a robô-procuradora é capaz de entender os processos, o seu andamento e quais suas possíveis soluções, podendo também ser usada para cruzar dados e encontrar endereços ou bens dos envolvidos nos processos14.

Por sua vez, o Tribunal de Contas da União (TCU), instituição constitucionalmente responsável por exercer a fiscalização contábil, financeira, orçamentária, operacional e patrimonial da União e das entidades da administração direta e administração indireta, possui a robô ALICE – acrônimo de Análise de Licitações e Editais. Trata-se de uma ferramenta automatizada que analisa editais de licitações e atas de pregão eletrônico, com objetivo preventivo de evitar possíveis irregularidades.

Diariamente, ALICE acessa o Comprasnet, o portal eletrônico de compras do Governo Federal brasileiro. A partir daí, colige dados dos diversos editais de licitação e atas de pregão publicados e testa parâmetros para verificar eventuais irregularidades. Identificando algum caso suspeito, envia e-mail para a secretaria responsável pela fiscalização com o alerta respectivo15.

Este robô também é utilizado pela Controladoria Geral da União (CGU), que inicialmente o lançou em 2015 e depois o cedeu ao TCU em 2016. A expectativa é a de que, nos próximos anos, o sistema seja cedido a Estados e Municípios, para auxílio em suas próprias fiscalizações.

Para dar exemplos de outras nações, os Estados Unidos já contam com várias ferramentas de inteligência artificial, tais como o COIN – Contract Intelligence16, que assessora instituições financeiras na análise de crédito para concessão de empréstimos; o ROSS Intelligence da IBM17, que foi considerado o primeiro advogado de inteligência artificial, consistindo num sistema que auxilia o usuário ao oferecer-lhe soluções jurídicas, a partir da análise das leis, precedentes e documentos.

Também merece registro a existência do sistema COMPAS – Correctional Offender Management Profiling for Alternative Sanctions18, utilizado nos EUA para avaliar o risco de reincidência dos acusados, cujos resultados são utilizados para a fixação da sentença criminais.

Em recente iniciativa, Daniel Katz, Michael Bommarito II e Josh Blackman construíram um robô capaz de prognosticar os resultados de julgamentos da Suprema Corte americana. A taxa de sucesso da ferramenta beirou os 70%, ao analisar 7.700 julgados proferidos entre os anos de 1816 a 201519.

No Reino Unido, encontramos o Luminance da Universidade de Cambridge, plataforma de inteligência artificial disponibilizada para profissões jurídicas, que lê e compreende contratos e outros documentos jurídicos – em qualquer língua –, de modo a encontrar informação e eventuais inconsistências20.

Na Estônia, está sendo desenvolvido um juiz-robô para decidir conflitos judiciais mais simples em matéria contratual cujo valor seja de até € 7 mil. Demandante e demandado enviarão por meio eletrônico os documentos que reputarem relevantes para a solução da causa, e o juiz-robô dará a decisão, sem necessidade da presença das partes (mas podendo a decisão ser revista por um juiz humano)21.

Os exemplos poderiam ser multiplicados exaustivamente, mas cremos que, com aqueles acima formulados, já foi possível ilustrar a preponderância que a inteligência artificial vêm vem assumindo na prática jurídica ao redor do mundo. Passemos agora a algumas concisas reflexões sobre possíveis desafios éticos que podem ser colocados pelo uso de tais tecnologias.

3. A (pouco eficaz) cobrança judicial do crédito tributário no Brasil e as contribuições da inteligência artificial

Nos 30 anos de vigência da Constituição brasileira de 1988, nem o Poder Judiciário, nem o sistema processual brasileiro foram capazes de absorver o avassalador volume de demandas judiciais ajuizadas como consequência da ampliação do acesso ao Judiciário. O congestionamento e a morosidade excessiva têm sido considerados hoje como as grandes deficiências do aparelho judicial brasileiro.

Nada mais injusto que ter o seu direito violado e ver o seu processo judicial estagnado em um oceano de litígios, sem esperança de um célere desfecho. E a nefasta consequência disso é o desrespeito aos princípios previstos na Constituição brasileira da duração razoável do processo, da efetividade da prestação jurisdicional, da igualdade e da eficiência.

Nesse cenário de litigiosidade de massa, o direito tributário destaca-se, dentro do direito público, como um dos principais responsáveis pelo grande volume de processos, decorrência da sempre presente tensão entre o poder estatal de tributar e o exercício dos direitos do contribuinte.

A forte presença do Direito Tributário nos processos judiciais que tramitam nos tribunais brasileiros revela-se claramente, uma vez que o assunto corresponde, no Supremo Tribunal Federal brasileiro (STF - Corte Constitucional), a 25% das Súmulas Vinculantes22 emitidas e a 20% das repercussões gerais23, e, no Superior Tribunal de Justiça brasileiro, a quase 30% dos recursos repetitivos24 julgados.

Dentre algumas razões para este fenómeno, destacamos duas: 1º) a natureza do poder de tributar, que cria relações jurídicas de caráter compulsório para todas as pessoas físicas ou jurídicas que a elas se submetem; 2º) a complexidade do sistema tributário brasileiro, caracterizado por um emaranhado de normas jurídicas de difícil compreensão e cumprimento.

Em decorrência disso, surge um grave problema na seara processual: o excessivo número de cobranças judiciais dos créditos tributários da Fazenda Pública, as quais se caracterizam pela baixa probabilidade de pagamento do crédito tributário pelo devedor. Essa cobrança judicial dos créditos tributários constitui, até ao presente momento, a forma principal de cobrança de dívidas dessa natureza no Brasil, ocorrendo por meio da ação de execução fiscal, uma medida judicial específica prevista na Lei nº 6.830/1980 (Lei de Execuções Fiscais) para recuperação do crédito tributário.

O Relatório “Justiça em Números 2018” (ano base 2017), publicado anualmente pelo Conselho Nacional de Justiça brasileiro (CNJ), indica que os processos de execução fiscal são os principais responsáveis pela alta taxa de congestionamento do Poder Judiciário brasileiro. O relatório afirma que:

«Os processos de execução fiscal representam, aproximadamente, 39% do total de casos pendentes e 74% das execuções pendentes no Poder Judiciário, com taxa de congestionamento de 91,7%. Ou seja, de cada cem processos de execução fiscal que tramitaram no ano de 2017, apenas 8 foram baixados»25.

Este elevado percentual de execuções fiscais, chegando a quase 40% do total das ações que tramitam, sem incluir outras ações judiciais de natureza tributária, mostra-nos claramente que o maior cliente do Poder Judiciário, individualmente considerado, é o próprio Estado brasileiro, que busca cobrar sua dívida ativa por meio da execução fiscal, sobretudo aquela de natureza tributária.

A partir dos números constantes do relatório do CNJ, combinado com um estudo do Instituto de Pesquisa Económica Aplicada (IPEA)26 sobre a velocidade e custo da ação de execução fiscal federal (promovida pela Procuradora-Geral da Fazenda Nacional - PGFN), foi identificado o tempo médio total de tramitação de 9 anos, 9 meses e 16 dias, e que apenas cerca de 1/3 das execuções fiscais federais são bem sucedidas, deixando a maior parte - 2/3 delas - sem qualquer tipo de pagamento.

O mesmo relatório do CNJ identificou o valor de R$ 90.846.325.16027 como a despesa total com o Poder Judiciário em 2017. E, se adotarmos os mesmos percentuais anteriormente mencionados – de que 40% dos processos são execuções fiscais, sendo 2/3 delas infrutíferas –, chega-se ao montante de 24,2 bilhões de reais gastos com a movimentação de ações de execuções fiscais desnecessárias naquele ano.

Ou seja, nos últimos 10 anos, gastou-se em todo o Poder Judiciário nacional erca de mais de 240 bilhões de reais com processos ineficazes ao seu propósito.

E o que esse sombrio cenário nos revela?

Primeiro, que o Estado brasileiro terá que repensar a forma de cobrar seus créditos. Isso não apenas contribuirá com a redução do abarrotamento do Judiciário, auxiliando-o a cumprir o mandamento constitucional de prestar jurisdição de maneira célere, mas também propiciará maior racionalidade, economicidade e eficiência na arrecadação.

Segundo, que os seres humanos – juízes, advogados públicos e privados, auditores fiscais e demais atores na cena processual fiscal – não dão mais conta do elevado número de processos tributários em tramitação. Por isso, é inevitável dizer que não há outro caminho que não contemple a Inteligência Artificial (IA) como sendo, no futuro próximo, uma das protagonistas nas relações entre Fisco e Contribuinte. A presença de “robôs” , ou seja, ferramentas dotadas de inteligência artificial já começa a despontar.

É sobre esse segundo aspecto que passaremos a apresentar agora exemplos de uso concreto de inteligência artificial no âmbito tributário.

Na área jurídico-fiscal já podemos identificar algumas possibilidades da inteligência artificial em nossos dias: 1.º) advogados-robôs que auxiliam o cidadão na defesa dos seus direitos, assim como colaboram com outros advogados em suas tarefas jurídicas; 2.º) mediadores-robôs que colaboram na intermediação em conciliações; 3.º) juízes-robôs capazes de identificar e sugerir ao magistrado a melhor decisão para o caso concreto, ou mesmo, substitui-lo no julgamento do processo; 4.º) auditores-robôs com competência para auxiliar e realizar o controle e a fiscalização das contas públicas e dos créditos tributários.

Inequivocamente, a computação cognitiva também poderá colaborar em milhares de cobranças de créditos tributários pendentes em nossos sistemas judiciais. Será capaz não apenas de intermediar uma solução amigável antes do ajuizamento da ação, como também de localizar o próprio devedor e seus bens (inclusive por suas manifestações em redes sociais ou vínculos com concessionárias de serviços públicos). A partir destas tarefas iniciais, a ferramenta de inteligência artificial poderá sugerir à Fazenda Pública a medida de cobrança mais adequada diante das circunstâncias fáticas identificadas - seja uma mera notificação de cobrança, o protesto administrativo ou mesmo o ajuizamento da ação executiva.

É razoável imaginar que a própria ação de execução fiscal poderá ser elaborada e interposta através de um sistema robotizado e movimentado por um fluxo automatizado por algoritmos, sendo interligado com os Correios, Banco Central, Departamento de Trânsito (Conservatória do registo de automóveis), Registro de Imóveis, Receita Federal e cadastro de registro de inadimplentes, o que permitirá que o próprio robô possa realizar as medidas constritivas para a recuperação do crédito tributário.

Nos casos de interrupção da ação de execução por um pedido de parcelamento da dívida fiscal pelo contribuinte, o juiz-robô poderá avaliar automaticamente o cumprimento pelo devedor das condições para a respectiva adesão ao parcelamento, bem como acompanhar o adimplemento das parcelas para que continue suspensa a exigibilidade do crédito tributário (e restaurando também automaticamente a exigibilidade do crédito caso o devedor fique em mora com o pagamento).

Outra utilidade importante seria a do acompanhamento automatizado dos casos de prescrição e decadência tributárias, bem como do caso de prescrição intercorrente (ocorrida no curso do processo de execução fiscal), podendo-se extinguir milhares de cobranças que restam esquecidas nas prateleiras físicas ou virtuais do Poder Judiciário.

Ou seja, podemos em breve vir a ter uma execução fiscal cobrada por procuradores-robôs e julgada por juízes-robôs.

De maneira mais restrita, uma experiência recente, implementada no ano de 2018, pela 12.ª Vara de Fazenda Pública do Tribunal de Justiça do Estado do Rio de Janeiro, dizia respeito ao uso de inteligência artificial para acionar o sistema de bloqueio de bens de devedores de tributos municipais.

Enquanto pela forma tradicional um servidor de vara judicial leva em média 30 minutos para acionar os sistemas de bloqueio de bens BACENJUD (sistema eletrónico de comunicação entre o Poder Judiciário e as instituições financeiras), RENAJUD (canal de comunicação com o Departamento de Trânsito para cumprir as ordens judiciais de restrição de veículos) e INFOJUD (sistema que permite ao Judiciário aceder ao cadastro de contribuintes na Receita Federal), a ferramenta de inteligência artificial da 12.ª Vara implementou - de uma só vez - ordens de bloqueios em 6.619 execuções fiscais, obtendo a penhora integral em 1.512 processos, e parcial em 1.15728.

O Tribunal de Justiça do Estado de Pernambuco desenvolveu um sistema de inteligência artificial batizado de ELIS voltado aos processos executivos fiscais em Recife. Em um projeto-piloto realizado em novembro passado, o sistema ELIS avaliou 5.247 processos, classificando de forma precisa a competência das ações, as divergências cadastrais, erros no cadastro e prescrições. De todas as ações ajuizadas, identificou que 4.447 poderiam continuar tramitando, 640 estavam prescritas, 160 continham erro no cadastro da dívida ativa, 16 eram de competência estadual e 14 tinham dados divergentes.

Em 15 dias o sistema ELIS é capaz de realizar a triagem de 80 mil processos, enquanto que esta mesma quantidade de processos leva em média 18 meses para ser feita por servidores do tribunal. Noticia-se que em breve o ELIS já possa inserir minutas no sistema e até assinar os despachos29.

Por sua vez, a Receita Federal do Brasil iniciou recentemente o uso de inteligência artificial, diante do abarrotamento de processos administrativos tributários em primeira instância. Apenas em 2017, eram mais de 250 mil aguardando decisão nas delegacias especializadas da Receita Federal, cujos valores ultrapassavam os 100 bilhões de reais. O robô da Receita propõe-se realizar a leitura dos autos administrativos, a identificação da defesa do contribuinte e, ao final, redigir um relatório acompanhado de uma proposta de minuta de decisão30.

Ainda quanto à Receita Federal, já há a utilização de um sistema cognitivo inteligente chamado de SISAM – Sistema de Seleção Aduaneira por Aprendizagem de Máquina – aplicado na fiscalização na entrada e saída de bens comerciais em portos e aeroportos. Já para fins de fiscalização de pessoa física viajante, noticia-se que a receita possui um sistema de inteligência artificial capaz de:

i) identificar a relação de passageiros que aterram por voo; ii) comparar o peso da bagagem de cada um na ida com o peso de suas malas na volta; iii) e realizar o cruzamento de dados com os gastos de seu cartão de crédito e aquisição de papel moeda nas suas operações de câmbio.

Tudo isso auxiliado por um sistema de reconhecimento facial instalado no setor de desembarque em alguns aeroportos brasileiros.

Apresentados esses exemplos mais específicos da área tributária, passemos agora a algumas breves ponderações sobre certos desafios éticos que se afiguram, cujas respostas ainda estão por construir.

4. Desafios jurídicos e éticos no uso da inteligência artificial pela Administração Pública portuguesa

A matéria referente ao uso da inteligência artificial em Portugal segue o ritmo e o foco estabelecido pela OCDE e pela União Europeia, em linha com as suas orientações para os Estados-membros. No caso, as linhas orientadores para o recurso à inteligência artificial assentam num conjunto de ideias-força, que se passam a indicar:

. Facilitar o acesso aos dados administrativos para os centros ou institutos de investigação, públicos e privados, garantindo um acesso seguro, no pleno respeito pelas questões de privacidade pessoal;

. Incrementar a colaboração entre entidades do setor público, empresas e centros de investigação científica sobre a utilização da AI, para a tornar mais utiliszável;

. apostar na simplificação administrativa, nomeadamente no Programa (nacional) SIMPLEX;

. Reforçar as capacidades do setor público com respeito à utilização da IA para o desenvolvimento de políticas e de serviços públicos específicos;

. Assegurar o uso ético da IA na administração pública portuguesa, nomeadamente, para garantir o respeito pelos princípos da igualdade, da dignidade, da reserva e da intimidade da vida privada, entre outros;

Evidentemente que, para o efeito, há objetivos específicos que devem ser prosseguidos:

. Apostar no financiamento de projetos conjuntos, entre as entidades dos subsetores da administração pública e os centros de investigação científica nacionais, para desenvolver soluções inovadoras que façam uso da inteligência artificial;

. Permitir o desenvolvimento de habilidades transferíveis da academia para as atividades económicas em geral;

. Desenvolver uma base de dados administrativos nacional, de amplo acesso, para a produção de conhecimento científico aplicado;

. Reforçar a colaboração entre a Administração Pública e as Instituições de Ensino Superior para o reforço das qualificações em matéria de AI, no quadro do que agora se designa de “ciência dos dados” ;

. Criar um comité de ética para AI, dotando-o de uma missão, competências e atribuições claras e alinhadas com as necessidades e aumentar os recursos qualificados para trabalhar com a AI.

No caso específico de Portugal, a incorporação destas guidelines foi efetivada por meio da Resolução do Conselho de Ministros n.º 22/2018, através da qual o Estado português criou o Centro de Competências Digitais da Administração Pública, um projeto com duração inicial de 36 meses (podendo ser prorrogado) que cria um centro de competências no domínio da transformação digital da Administração Pública.

O seu objetivo é dotar a Administração Pública de recursos humanos especializados que lhe permitam gerir melhor os seus projetos no domínio digital, melhorando, em simultâneo, a contratação de serviços externos nas áreas das tecnologias de informação e comunicação, com os correspondentes ganhos em eficiência e eficácia. Busca, portanto, atrair talentos na área de tecnologia da informação para prestar os seus serviços ao Estado.

Uma das suas atribuições reside no desenvolvimento das ferramentas no âmbito da inteligência artificial: a de desenvolver modelos quantitativos e preditivos que permitam utilizar os dados disponíveis na Administração Pública para apoiar processos de decisão política e administrativa.

É justamente na gestão da imensa quantidade de dados gerada pela Administração Pública que se encontra um dos gargalos da eficiência: é necessário que estas informações “dialoguem” eletronicamente entre si de modo que a sua utilização pelo serviço público e pelos cidadãos seja rápida, eficiente e segura.

Portugal está ainda a desenvolver uma nova plataforma para magistrados judiciais em que a Inteligência Artificial baseada na plataforma Watson da IBM, uma das tecnologias mais avançadas que permitirá a pesquisa de inúmera informação em vista a auxiliar na tramitação dos processos e na decisão judicial. Embora já existam diretrizes políticas sobre o que fazer31, não se tem conhecimento, todavia, do seu emprego no quotidiano da atividade da magistratura e, mais especificamente, na produção de sentenças. Na europa, o projeto LEDA a ser desenvolvido para as autoridades holandesas, está a ser projetado para oferecer um acesso fácil às Diretivas Holandesas, assumindo a dupla funcionalidade de protótipo de projeto legislativo e de sistema consultivo das bases de dados (VERBAREN, 1993).

No plano europeu e internacional, a Inteligência Artificial no setor da justiça inspira o desenvolvimento de inúmeros projetos, desde logo no âmbito do sistema judicial, mas também no âmbito da produção legislativa e regulamentar32.

A partir destes, podem ser montados sistemas de inteligência artificial (robôs) capazes de prever tendências ou mesmo propor modelos de decisão para todas as esferas de poder, poupando trabalho às autoridades decisoras, como já tem começado a ocorrer no Brasil em relação a certas decisões judiciais e administrativas, conforme acima mencionado. Caberia, portanto, à autoridade pública revisar o modelo elaborado pelo robô, fazendo as alterações que reputar necessárias, mas com grande economia de tempo decorrente de se trabalhar com um modelo previamente estabelecido.

Por sua vez, a Resolução do Conselho de Ministros portugês n.º 108/2017 aprovou a Estratégia das Tecnologias de Informação e Comunicação (TIC 2020) do setor público português para os próximos anos, com seu respetivo Plano de Ação. A Estratégia TIC 2020 assenta-se em três eixos específicos - integração e interoperabilidade; inovação e competitividade e partilha de recursos - que consagram doze medidas concretas.

No EIXO II (Inovação e Competitividade), consta a medida de disponibilizar a informação produzida pela Administração Pública de um modo transparente com vista ao desenvolvimento de serviços inovadores, pela própria Administração Pública e pela sociedade civil. Tal medida é essencial, pois sem dados que possam alimentar os sistemas de inteligência artificial (input), não será possível produzir nenhum resultado a partir de tais dados (output).

Ademais, também se tem em vista, neste eixo, o desenvolvimento de ações de inovação setorial específicas que visem ganhos de eficiência e a melhoria dos serviços prestados em cada área governamental, o que é um dos principais resultados da automação levada a cabo por sistema de inteligência artificial, como já mencionado ao tratar da experiência brasileira de ganho de celeridade em processos administrativos e judiciais.

Evidentemente que todas estas transformações emergentes do uso das novas tecnologias de inteligência artificial terão implicações jurídicas relevantes. Com efeito, o Relatório da Comissão de Assuntos Jurídicos do Parlamento Europeu que contém recomendações à Comissão Europeia sobre disposições de Direito Civil sobre Robótica33 veicula uma série de interessantes questões e reflexões propriamente jurídicas acerca do uso da inteligência artificial.

Em primeiro lugar, o Relatório reflete sobre a necessidade de se implementar um sistema de registo formal dos robôs inteligentes, de modo a garantir a rastreabilidade das ações do robô, com a respetiva possibilidade de imputação de responsabilidade individual pelas ações por ele desenvolvidas. Do mesmo modo que, tradicionalmente, foi necessário criar um registo de veículos automóveis, em razão tanto dos danos que são capazes de causar, bem como da necessidade de aplicação de sanções administrativas e penais aos condutores pelo mau uso do sistema rodoviário, também agora se coloca o mesmo desafio perante a possibilidade de danos causdados pelos robôs inteligentes.

Outra discussão no domínio do direito diz respeito à modalidade de responsabilidade civil a ser aplicada, inclinando-se para uma do tipo objetivo (isto é, sem necessidade de demonstração de culpa que, no caso, seria mais díficl difícil de demostrar) e sem que haja limitação ou tarifação prévia dos valores indemnizatórios referentes aos danos de natureza extrapatrimonial. Para contrabalançar tal modalidade, poderia estabelecer-se o dever de contratação obrigatória de seguro para os robôs, com a criação de um fundo que garanta a indemnização dos danos nos casos em que não exista qualquer cobertura de seguro.

Quanto ao direito à privacidade, o Relatório indica que as informações privadas coletadas e processadas devem ser mantidas em segurança e utilizadas apenas de forma adequada, sob pena de responsabilização civil, administrativa e mesmo criminal pelo seu uso indevido. Deve-se garantir que os indivíduos cujos dados são usados não sejam identificáveis pessoalmente, exceto em circunstâncias excecionais. Mesmo no caso da identificação, esta deveria ser precedida pelo livre consentimento esclarecido e informado do identificado. Além disso, deve haver um mecanismo para o processamento e deferimento de pedidos de destruição de quaisquer dados conexos e da respetiva eliminação dos conjuntos desses dados.

Como resultado deste Relatório (bem como dos pareceres sobre o Relatório exarados por diversas outras Comissões especializadas do Parlamento europeu), foi aprovada a Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, que contém recomendações à Comissão Europeia sobre disposições de Direito Civil sobre Robótica34. A Resolução desenvolve um pouco mais a questão da responsabilidade civil dos robôs.

Com a sofisticação cada vez maior da inteligência artificial, os robôs vêm ganhando cada vez mais autonomia na tomada de decisões e na sua aplicação concreta no mundo externo. Diante disso, as categorias tradicionais de responsabilização civil parecem insuficientes. Qual é o grau efetivo de responsabilidade do fabricante, do operador, do proprietário ou do utilizador, quando o robô é capaz de tomar certas decisões por si mesmo, às vezes de modo até incontrolável por um ser humano? Haverá a necessidade de se pensar em novos modelos de responsabilidade civil pensados especificamente para a atividade dos robôs?

A proposta da Resolução do PE é a de que, primeiro, se tente identificar o nível de participação do ser humano (ou de sua omissão) na atuação do robô. A partir daí, a responsabilidade deve ser proporcional ao “nível efetivo de instruções dadas ao robô e ao nível da sua autonomia, de modo a que quanto maior for a capacidade de aprendizagem ou de autonomia de um robô, e quanto mais longa for a ‘educação’ do robô, maior deve ser a responsabilidade do ‘professor’ ” .

Ao se fazer esta análise para imputação de responsabilidades, a Resolução sugere que não devem ser confundidas as competências resultantes da “formação” dada a um robô com aquelas competências que o robô desenvolveu por si mesmo como decorrência de sua capacidade de autoaprendizagem (machine learning process). Tal distinção é essencial para aferir o nível de responsabilidade da pessoa humana mas, como se compreende, não será sempre fácil de determinar.

Contudo, a Resolução do PE admite que, na fase jurídica atual, a responsabilidade civil deve ser imputada a um ser humano, e não a diretamente um robô, por ausência de instrumentos jurídicos que criem novas espécies de responsabilidade adaptadas a esta nova realidade de inteligência artificial.

A seguir-se esse paradigma atual, o máximo que se poderia fazer seria reduzir o quantum indemnizatório, caso a responsabilidade pessoal do agente humano fosse muito diminuta ou praticamente nula. Ou, como propõe a Resolução do PE, instituir a sistemática de seguro obrigatório ou permitir que o fabricante, o programador, o proprietário ou o utilizador adiram a um fundo de compensação ou subscrevam conjuntamente um seguro para garantir a indemnização quando o dano for causado por um robô, obtendo como efeito dessa conduta a limitação da sua responsabilidade pessoal.

Contudo, a sugestão de longo prazo mais ousada da Resolução tem que ver com a criação de um estatuto jurídico específico para os robôs, a fim de que, pelo menos para os robôs dotados de inteligência artificial mais avançada, seja reconhecido o status de “pessoas jurídicas eletrónicas” . Assim, eles seriam “pessoalmente” responsáveis por sanar os danos que possam causar e, eventualmente, inclusive poder-se-ia aplicar a personalidade eletrónica a casos em que os robôs tomem decisões autónomas ou em que interagem com terceiros de forma independente. Esta proposta jurídica, que parece saída diretamente das páginas de um livro de ficção científica, desafia uma série de perguntas ainda não respondidas pelos métodos tradicionais de imputação de penas a seres humanos e que constituirão temas para debate nos anos à frente.

5. Desafios éticos na aplicação da inteligência artificial ao Direito

Antes de expor alguns desafios éticos que a aplicação da inteligência artificial pode apresentar, devemos primeiramente considerar, ainda que brevemente, uma polémica referente às diferenças entre a estrutura do ser humano e de seu modo de conhecer e interagir com o mundo que o rodeia e aquela outra, das máquinas, por mais “inteligentes” que sejam.

Tradicionalmente, formula a filosofia que nós, os humanos, estamos dotados de alma racional (entendida aqui em sentido filosófico, não teológico). Se a alma é o princípio vital do movimento e da sensibilidade de todos os animais35, a alma racional é a diferença específica que separa os seres humanos dos demais membros do reino animal, precisamente por estar dotado também das faculdades intelectivas36. Dentre elas, desponta a consciência de si mesmo, sendo capaz da autorreflexão acerca de sua própria existência, o que foi imortalizado pela frase de Descartes “Cogito, ergo sum” (“Penso, logo existo” )37.

Portanto, no ser humano existe uma capacidade ou aptidão intrínseca para o conhecimento racional, aí incluído o autoconhecimento, embutida em seu próprio modo de ser, chamada pela filosofia tradicional de alma racional. A interrogação atual que se coloca diz respeito a se essa capacidade intelectiva propriamente humana decorre da alma como princípio e base imaterial do pensamento ou se, na verdade, o conhecimento humano configura apenas um produto de causas materiais biológicas neurais.

Na segunda opção, descartando-se a imaterialidade do conhecimento humano, e fundando-o integralmente em causas materiais, seria apenas uma questão de tempo para que os materiais e técnicas artificiais, cada vez mais sofisticados, fossem capazes de mimetizar os materiais biológicos neurais humanos – ou mesmo superá-los –, alcançando assim qualquer capacidade humana intelectiva e de autoconhecimento (ou mesmo ultrapassando-a). Se, ao contrário, a base da intelecção humana é imaterial (alma racional), então as máquinas, por mais complexas que sejam, não terão jamais condições de replicar perfeitamente o modo humano de pensar, por serem os robôs de origem necessariamente material.

Na própria filosofia contemporânea, esta questão se coloca na oposição entre a nomenclatura alma e mente (mind), havendo uma preferência atual pela palavra mente de modo a evitar qualquer afirmação definitiva acerca de uma base transcendental ou imaterial para o conhecimento humano que suplante a análise meramente biológica38. Mas, como advertido acima, esta questão está longe de ser respondida satisfatoriamente, sendo aqui exposta como mera provocação.

Um outro tema a este correlacionado diz respeito ao modo de conhecer humano. Em primeiro lugar, o ser humano conhece a realidade que o cerca por meio dos seus cinco sentidos. São eles que irão recolher da realidade os dados que serão objeto posterior do ato mental de intelecção, como enuncia Tomás de Aquino: “nada está no entendimento que não tenha estado primeiro no sentido” 39. São os sentidos que captam os objetos externos na sua concretude e singularidade, como por exemplo, o cheiro de uma comida específica, a cor verde de um automóvel à minha frente, a voz grave de uma pessoa a meu lado.

Contudo, depois do estímulo externo, o processo de apreensão intelectual humano não para na mera colheita de dados: forma imagens mentais dos objetos e das interações externas, através da imaginação, faculdade que permite reter a percepção das coisas captadas pelos sentidos, bem como combiná-las em novas formas na mente40.

Posteriormente, este conhecimento aprofunda-se ainda mais, pelo qual abstraímos (processo de abstração) as notas características concretas e individualizantes daquilo que foi captado pelo sentido e forjado na mente como imagem, para se chegar ao conceito ou essência da coisa41. Exemplificando: se vejo um homem concreto jovem, alto e forte, identifico este ser humano posto na realidade com as imagens mentais prévias que tenho de seres humanos e, por fim, abstraindo mentalmente das características concretas e reais de aquela pessoa ser jovem, alta e forte, passo à captação da essência (conceito) de ser humano, que é predicável de todos os seres humanos, independentemente de suas características físicas.

A pergunta é se este processo de conhecimento se dá sob a mesma forma nos robôs de inteligência artificial, ou se estes apenas conhecem um número absurdamente elevado de dados individuais e particulares, ainda que em profusão muito maior que a mente humana. A resposta só pode ser negativa.

Certamente, um supercomputador pode ter acesso a um banco de dados com milhões de fotos de pessoas, muito maior do que o número de pessoas que um ser humano poderia ver em toda a sua vida. E pode também repassar todas estas fotos em poucos instantes, traçando comparações precisas a partir da medição dos rostos e permitindo identificar num átimo uma pessoa no meio da multidão, tal como já o fazem certos sistemas de segurança.

Contudo, será que este mesmo computador é capaz de formular o conceito unitário de humano, de fazer esta abstração para chegar a uma compreensão propriamente sua de humanidade? Ou simplesmente compara rostos e proporções, de modo matemático? As fronteiras entre a forma humana de conhecer e aquela outra das máquinas inteligentes ainda está por ser esclarecida, constituindo um verdadeiro desafio filosófico de teoria do conhecimento (gnoseologia).

Esta discussão teórica apresenta-se também com viés prático para a atuação da inteligência artificial no direito: no processo decisório, não será suficiente dotarmos os algoritmos da capacidade de aceder e processar todo o acervo legislativo e jurisprudencial e também conhecer e articular os valores e princípios jurídicos constitucionalmente previstos.

Mais do que isso, será necessário capacitá-los para realizar raciocínios de ponderação e razoabilidade – tipicamente humanos – quando se deparem com um conflito normativo em um caso concreto. E será, ainda, necessário, tomar em conta nessas ponderações, a ordem de valores instituída, isto é, o ideal de justiça prevalecente, posto que não há interações humanas dele despidas, já que a justiça traz consigo valores pois ela “ordena o homem para outrem” 42. A eficiência e a capacidade de realizar as tarefas que a inteligência artificial nos oferece precisa ser dotada de critérios sólidos e transparentes de justiça na tomada das decisões, sobretudo diante dos chamados hard cases, em que surgem conflitos de normas, e em que a filosofia jurídica é uma ferramenta importante para quem toma a decisão.

No que respeita aos conflitos, a realidade é, em si mesma complexa, com várias tentativas de superação que não obtiveram, até hoje, consenso, como é o caso, por exemplo, da proposta de Alexy na sua Teoria dos Direitos Fundamentais43, entre vários outros. Na verdade, é possível identificar múltiplos modelos puros de princípios e de regras. A discussão sobre a superabilidade das normas jurídicas, na tradição ibérico-latinoamericana, parece levar a uma solução de um modelo puro de princípios, como é o caso da proposta de Alfonso García Figueroa44, ou, então, um modelo puro de regras, como o que é proposto por García Amado45. O primeiro dos modelos nega a distinção clara entre princípio e regras, defendendo que todas as normas jurídicas se podem comportar como princípios. Já o segundo modelo, por seu lado, acredita que todas as normas têm a estrutura de regras jurídicas e, com isso, parece rejeitar a ponderação como fator interpretativo.

Seja como for, e para além da difícil superabilidade do conflito entre regra/regra, princípio/princípio, regra/princípio, parece claro que a inteligência artificial não se poderá quedar pela mera de algoritmos nem da “simples” da capacidade de aceder e processar todo o acervo legislativo e jurisprudencial como também conhecer e articular os valores e princípios jurídicos constitucionalmente previstos, para uma boa consecução do processo decisório. O adensamento desta temática levaria a discussão para campos que não constituem o escopo deste estudo, pelo que não adentramos nela46/47.

Importa, por isso refletir no facto de que, sendo embora verdade que os sistemas informáticos podem ser mais precisos e, se quisermos, mais despidos de emoções, e se é verdade que os algoritmos são neutros do ponto de vista dos valores sociais e humanos, não será errado assumir que a forma como eles processam e o modo como os treinamos já não o será. A realidade de base com que trabalham (a informação que consta das nossas bases de dados) já é o produto da ação da história humana e podem apresentar enviesamentos relevantes.

Propostas do editor tratadas no texto que antecede:

(Outro ponto ainda será o de saber quais os benefícios que a máquina apresenta face ao decisor humano para além da óbvia gestão de tempo e recursos. A este propósito, poderá ser interessante aprofundar um pouco a investigação na área dos vieses cognitivos que são mencionados mais à frente)

(a questão dos conflitos normativos é das questões mais complexas, atualmente, na teoria do direito. Penso que poderia estar um pouco mais aprofundada aqui, nomeadamente com referências a doutrina sobre os temas abordados – conflitos regra/regra, princípio/princípio, regra/princípio – e soluções propostas pela doutrina).

A solução para as situações em que haja um conflito de regras é simples e prevista nos nossos ordenamentos por critérios como o cronológico, hierárquico ou da especialidade. Mas, para solucionar um caso concreto que comporte um conflito entre princípios, deverá o algoritmo ser capaz de realizar a ponderação entre eles, isto é, à luz dos factos concretos, será necessário impor “compressões” recíprocas sobre os bens jurídicos protegidos pelos princípios em disputa, objetivando encontrar um ponto ideal, onde a restrição a cada bem seja a mínima indispensável à sua convivência com o outro.

Ou seja, precisará ser capaz de identificar qual deles deverá ceder em relação ao outro, num processo de ponderação entre pesos e valores, prevalecendo a afirmação de que um deles é mais adequado àquele determinado caso concreto do que o outro.

Assim, a solução do conflito terá de ser casuística, pois estará condicionada pelo modo com que se apresentarem os interesses em disputa e pelas alternativas pragmáticas viáveis para o equacionamento do problema, não estando em jogo grandezas quantitativamente mensuráveis. Por isso, a ponderação de bens não pode ser controlada exclusivamente mediante o uso de critérios de lógica formal, uma vez que o que impera no caso é a denominada “lógica do razoável” .

A razoabilidade permite a verificação da adequação dos meios empregues e dos fins pretendidos, a partir do conhecido teste do balanceamento. Neste caso, a inteligência artificial deverá verificar:

i) se há relação de adequação entre o fim visado e o meio empregado;

ii) se a medida adotada é exigível ou necessária, ou se há meio alternativo para chegar ao mesmo resultado com menor ónus dos direitos individuais; e,

iii) se o que se ganha com a medida é de maior relevo do que aquilo que se perde.

Serão os juízes-robôs / funcionarios públicos-robôs capazes de realizar o tipo de raciocínio acima descrito ou, na verdade, apenas empreenderão o aproveitamento do raciocínio humano previamente feito e registrado em milhares de casos similares decididos por juízes / funcionários humanos? Sua decisão será tomada apenas com base numa comparação estatística do número de vezes que juízes humanos julgaram num determinado sentido (optando pela decisão que tiver o maior número de casos em seu favor), ou será capaz de descer à medula do caso concreto e de suas peculiaridades únicas? Tudo isto ainda está em aberto, como objeto para meditação.

Além disso, não se pode esquecer a dimensão ética ao considerar a atuação das máquinas inteligentes. Os seres humanos estão dotados de liberdade, uma qualidade da vontade humana que confere capacidade de autodeterminação, dentro, obviamente, das limitações de sua aptidão para operar (o homem, por exemplo, não é livre para voar sem auxílio de aparelhos técnicos). Então, num primeiro sentido, o ser humano terá a responsabilidade do uso que faz de sua liberdade ao programar uma máquina inteligente e ao definir as finalidades que esta buscará.

Daí a importância da neutralidade, da transparência e da auditabilidade dos códigos-fonte do algoritmo, uma vez que são requisitos para garantir e controlar a legitimidade e bom funcionamento dos algoritmos. Aqui estamos diante da chamada “moralidade algorítmica” , que deverá parametrizar os desenvolvedores da inteligência artificial.

Não se pode deixar de ressaltar a necessidade de que não sejam inseridas nas suas operações lógicas e escolhas, ideologias ou preconceitos inadequados que decorrem da visão pessoal de mundo do programador do algoritmo (os chamados vieses cognitivos ou, em inglês, cognitive biases). Com efeito, uma das maiores vantagens que a inteligência artificial nos apresenta é a sua neutralidade. Daí a necessidade da abertura dos seus códigos-fontes. Caso contrário, como um réu poderá se defender numa decisão tomada por um juiz-robô sem que tenha acesso ao seu modus decidendi? A opacidade nestas operações pode ser equiparada à violação ao due process of law.48

Com efeito, os humanos têm preconceitos, enviesamentos, fragilidades e as incertezas próprias da natureza e do caráter da natureza humana: os juízes, como seres humanos, podem ter preconceitos raciais ou de género ao passo que os algoritmos serão impermeáveis a estas contingências. Esta forma de ver as coisas aproxima-nos da corrente do realismo jurídico, defendidas por Oliver Wendell Holmes49, Karl N. Llewellyn, Jerome Frank ou Felix Cohen HYPERLINK "https://pt.wikipedia.org/wiki/Realismo_jur%C3%ADdico" \l "cite_note-2" , entre outros. Esta remonta à primeira metade do século XX, colocando o enfoque  estudo do direito como ciência, na ação do magistrado e considerando o direito por ele concretamente aplicado em cada caso o objeto central de pesquisa do jurista. Esta corrente estuda o Direito, não como uma expressão humana dotada de valores, mas como uma realidade, como um produto de experiências e de realizações de uma sociedade. Assim, para poder compreender o direito, bastaria compreender como o juiz pensa e decide: "direito é o que o juiz diz que é".– e não a moral ou a justiça nem as normas do sistema jurídico50.

Nota do editor, adensada no texto conforme sugerido:

[será possível a um programador humano programar sem ter em conta a sua visão pessoal do mundo? Será que o juiz não decide também com base na sua posição pessoal? Talvez pudesse analisar um pouco o realismo jurídico, sobretudo americano, pelo menos para fornecer alguma bibliografia que permita ao leitor aprofundar a temática da ‘suposta’ neutralidade do decisor jurídico]

Ademais, é necessário refletir sobre outro risco: certos dados não devem ser coletados do Big Data para servirem de base para análise algorítmica em algumas situações51, pois “a qualidade dos dados fornecidos aos sistemas de inteligência artificial também impactará os resultados, pois os dados são coletados da sociedade que é permeada por desigualdades, exclusões e discriminações.52” Por exemplo, critérios étnicos ou raciais não devem ser usados para a seleção de concessão de crédito, devendo ser criado um comando para que nem sequer haja coleta automática de dados dessa natureza para posterior análise com fins que não guardam nenhuma adequação com a etnia da pessoa53.

E, em casos em que os vieses dos algoritmos não ficam claros, existe um outro risco associado: por ser o trabalho de uma máquina, pode-se tender a crer que o resultado seria mais preciso e objetivo que aquele realizado por uma mente humana. Contudo, se o próprio robô estiver programado para reproduzir um determinado padrão de injustiça ou discriminação, o que se terá, na verdade, sob o manto e pretexto de uma “neutralidade científica” , será a perpetuação desta situação não ideal de coisas.

Por fim, outra observação que pode ser feita: com o processo automático de aprendizado dos robôs, nem sempre é possível saber de antemão qual será o caminho a ser por eles trilhados a partir da programação original. Partindo da construção original do programador, as novas conexões criadas pela própria inteligência artificial não são plenamente previsíveis, colocando-se a mesma discussão que, em filosofia, sempre foi atribuída ao tema da liberdade. E, assim como a liberdade humana, esta poderia se prestar a um mau uso ou uso lesivo. O tema é que, desde Aristóteles – primeiro principal sistematizador dos estudos éticos –, as elucubrações sobre ética tomaram por base o comportamento humano, não o de entes artificiais54.

Não é à toa que o Parlamento Europeu, através da sua Comissão de Assuntos Jurídicos, haja elaborado um relatório55 sobre robótica e as preocupações éticas que ela suscita na área do direito. Este relatório propõe um código de conduta para os engenheiros de robótica e um código para os comités de ética em investigação quando analisam protocolos de robótica e licenças de modelos para criadores e utilizadores.

Na vertente dos programadores (engenheiros de robótica), o código diz que devem ser respeitados os seguintes princípios: 1. beneficência: os robôs criados devem atuar para promover interesses dos seres humanos; 2. não-maleficência: os robôs não podem causar danos a um ser humano; 3. autonomia: capacidade de tomar decisão informada e não coagida sobre as condições de interação com robôs; 4. justiça: distribuição equitativa dos benefícios da robótica, sobretudo o acesso a robôs de cuidados domésticos e de cuidados de saúde.

Além disso, as atividades de investigação robótica devem também se pautar pelos seguintes princípios: respeitar os direitos fundamentais; serem conduzidas de acordo com o princípio da precaução; garantia da transparência e respeito pelo legítimo direito de acesso às informações por todas as partes interessadas; responsabilização pelos impactos sociais, ambientais e para a saúde humana que a robótica possa ter nas gerações presentes ou futuras; respeitar o bem-estar físico, a segurança, a saúde e os direitos das pessoas; a reversibilidade, indicando ao robô quais as ações que são reversíveis e como as reverter, caso seja possível; respeito ao direito à privacidade, de modo que as informações privadas sejam mantidas em segurança e utilizadas apenas de forma adequada56; a maximização do benefício e minimização do dano.

Destacamos abaixo, pela sua grande relevância, as diretrizes para que as comissões de ética em matéria de investigação possam conceder licenças para criadores de robôs:

«– Devem ter em conta os valores europeus de dignidade, autonomia e autodeterminação, liberdade e justiça antes, durante e após o processo de conceção, desenvolvimento e fornecimento dessas tecnologias, incluindo a necessidade de não prejudicar, lesar, enganar ou explorar utilizadores (vulneráveis).

– Devem introduzir princípios fidedignos de conceção do sistema em todos os aspetos do funcionamento do robô, tanto em termos de conceção de hardware como de software, e para o processamento de quaisquer dados, na plataforma ou fora desta, para efeitos de segurança.

– Devem introduzir elementos de privacidade desde a conceção, de modo a assegurar que as informações privadas sejam mantidas em segurança e utilizadas apenas de forma adequada.

– Devem integrar mecanismos óbvios de autoexclusão («kill switches») que devem ser compatíveis com objetivos de conceção razoáveis.

– Devem garantir que um robô funciona em conformidade com os princípios éticos e jurídicos locais, nacionais e internacionais.

– Devem garantir que as etapas do processo de tomada de decisão do robô sejam suscetíveis de reconstrução e rastreabilidade.

– Devem garantir que seja exigida transparência máxima na programação de sistemas de robótica, bem como a previsibilidade do comportamento de robótica.

– Devem analisar a previsibilidade de um sistema entre seres humanos e robôs, atendendo à incerteza na interpretação e na ação e a possíveis falhas robóticas ou humanas.

– Devem desenvolver ferramentas de rastreabilidade na fase de conceção do robô. Estas ferramentas irão facilitar a responsabilização e a explicação do comportamento robótico, mesmo que limitado, nos vários níveis pretendidos por peritos, operadores e utilizadores.

– Devem elaborar protocolos de conceção e de avaliação e reunir com potenciais utilizadores e partes interessadas quando avalia os benefícios e os riscos da robótica, incluindo os de natureza cognitiva, psicológica ou ambiental.

– Devem garantir que os robôs possam ser identificados como robôs ao interagirem com humanos.

– Devem salvaguardar a segurança e a saúde dos que interagem e entram em contacto com robótica, uma vez que os robôs, enquanto produtos, devem ser concebidos com processos que garantem a sua segurança e proteção. Um engenheiro de robótica tem de preservar o bemestar da humanidade e, simultaneamente, respeitar os direitos humanos e não pode disponibilizar um robô sem salvaguardar a segurança, a eficácia e a reversibilidade do funcionamento do sistema.

– Devem obter um parecer favorável da Comissão de Ética em matéria de Investigação antes de testar um robô em ambiente real ou de envolver humanos nos seus procedimentos de conceção e desenvolvimento.»

Voltando para a seara fiscal, é importante lembrar que a eticidade dos atos da Administração Tributária é objeto constante de apreciação, sobretudo no que se refere à aplicação da boa-fé objetiva e do princípio da confiança legítima, buscando-se preservar a segurança jurídica em matéria tributária. Se o desafio que enfrentamos hoje é o da convivência com tantos sistemas de inteligência artificial no nosso cotidiano, certamente o desafio de amanhã será, para o direito tributário, buscar a certeza de que a inteligência artificial saiba respeitar, republicanamente, os direitos fundamentais dos contribuintes.

6. Conclusões

A tecnologia da informação inundou as nossas vidas quotidianas, alterando o modo como interagimos com a realidade que nos circunda. Uma de suas aplicações específicas ocorre no âmbito do direito, em que as máquinas inteligentes conseguem auxiliar sobremaneira no dia a dia dos profissionais jurídicos ou no âmbito das rotinas da Administração Pública, por meios cada vez mais complexos e sofisticados, como exemplificado ao longo deste estudo.

Também fizemos um breve diagnóstico daquele que é o maior gargalo do Poder Judiciário um pouco por toda a parte, inclusive no Brasil: a cobrança dos créditos tributários por meio da ação de execução fiscal, indicando como a inteligência artificial pode auxiliar no futuro a sanar o problema. Assim como outros, no domínio do direito, privado ou público, como acima se evidenciou.

Além disso, apresentamos, uma reflexão inicial – sem qualquer pretensão de oferecer, ainda, respostas mais prontas e acabadas – sobre algumas questões éticas colocadas pelo desenvolvimento destas novas tecnologias, tais como as questões da diferença do modo de conhecimento humano e robótico, a necessidade de replicação do pensamento humano baseado na ponderação de princípios, dos vieses cognitivos e suas possibilidades de perpetuação de injustiças. Relevamos o tema da necessidade de garantia da justiça nas decisões e nas interações dos órgãos do poder público com os cidadãos, da liberdade de escolha das máquinas learners e, por fim, a profunda preocupação de necessidade de regulamentação desse campo, ilustrada por exemplo, no relatório com diretrizes éticas claras e fortes (códigos de conduta) assentes no ideal de justiça prevalecente, como o salienta a Comissão de Assuntos Jurídicos do Parlamento Europeu.

Como consideração final, recordemos o relato bíblico da Torre de Babel, em que os povos queriam construir uma torre tão alta que chegasse até os Céus, representação não apenas da morada de Deus, Autor da Criação, mas do desejo do homem de a Ele se igualar. Hoje, vivemos um novíssimo dilema, posto entre um novo criador e uma nova criatura: podem as máquinas se igualar ao ser humano seu artífice? Ainda não o sabemos. Somente o tempo poderá nos responder quais serão os rumos deste “admirável mundo novo” .



Bibliografia

A. CUNHA, I. KLIN e O. PESSOA (coord.), Custo e Tempo do Processo de Execução Fiscal promovido pela Procuradoria Geral da Fazenda Nacional, Brasília, Instituto De Pesquisa Econômica Aplicada, 2011, disponível em http://www.ipea.gov.br/portal/images/stories/PDFs/nota_tecnica/111230_notatecnicadiest1.pdf (acedido em 29 de março de 2019).         [ Links ]

A. LLANO, Gnosiologia realista, Trad. Fernando Marquezini, São Paulo, Instituto Brasileiro de Filosofia e Ciência Raimundo Lúlio, 2004.         [ Links ]

B. FER, D. BATCHELOR e P. WOOD, Realismo, racionalismo, surrealismo: a arte no entre-guerras, Trad. Cristina Fino, São Paulo, Cosac & Naify, 1998.         [ Links ]

B. MONDIN, O homem: quem é ele? Elementos de antropologia filosófica, Trad. R. Leal Ferreira e M. Ferrari, São Paulo, Paulinas, 1980.         [ Links ]

C. I. MASSINI, Sobre el realismo jurídico: el concepto de derecho, su fundamento, su concrecion judicial, Buenos Aires, Abeledo-Perrot, 1978.         [ Links ]

CONSELHO NACIONAL DE JUSTIÇA. Justiça em Números 2018: ano-base 2017. Brasília, CNJ, 2018.         [ Links ]

D. HOLMES, Big data: a very short introduction, Oxford, Oxford University Press, 2017, Electronic edition.         [ Links ]

D. KATZ, M. J. BOMMARITO II e J. BLACKMAN, General Approach for Predicting the Behavior of the Supreme Court of the United States, 2017, disponível em https://ssrn.com/abstract=2463244 (acedido em 29 de março de 2019).         [ Links ]

D. NUNES e A. L. MARQUES, “Inteligência artificial e direito processual: vieses algorítmicos e os riscos de atribuição de função decisória às máquinas” , Revista de Processo, 285, 2018.

E. GARCÍA MAYNEZ, Positivismo jurídico, realismo y iusnaturalismo, 3.ª ed, Mexico, Fontamara, 1999.         [ Links ]

E. WOLKART et al., “Arbitrium ex machina: panorama, riscos e a necessidade de regulação das decisões informadas por algoritmos” , Revista dos Tribunais, CMXCV, 2018.

F. COREA, An Introduction to Data: Everything You Need to Know About AI, Big Data and Data Science, 1.ª ed., Cham, Springer, 2019.         [ Links ]

F. S. COHEN, El metodo funcional en el derecho, Buenos Aires, Abeledo-Perrot, 1935.         [ Links ]

G. FIGUEROA ALFONSO, “¿Existen diferencias entre reglas y principios en el Estado Constitucional? Algunas notas sobre la teoría de los principios de Robert Alexy” , in R. ALEXY, Derechos sociales y ponderación, Madrid, Fundación Coloquio Jurídico Europeo, 2007, pp. 333-370.

“Neoconstitucionalismo y derrotabilidad: el Derecho a través de los derechos” , in P. BONORINO RAMÍREZ (org.), Teoría jurídica y decisión judicial. Madrid, Bubok, 2010, pp. 147-177.

J. A. GARCIA AMADO, “El juicio de ponderación y sus partes. Crítica de su escasa relevancia” , in T. BUSTAMANTE (org.), Teoria do direito e decisão racional: Temas de teoria da argumentação jurídica, Rio de Janeiro, Renovar, 2008, pp. 15-71.

“Sobre la derrotabilidad de las normas jurídicas” , in P. BONORINO RAMÍREZ (org.), Teoría jurídica y decisión judicial, Madrid, Bubok, 2010, pp. 179-204.

J. CUETO RÚA, Una vision realista delderecho: los jueces y los abogados, Buenos Aires, Abeledo-Perrot, 2000.         [ Links ]

J. FINNIS, Fundamentals of ethics, New York, Oxford University Press, 1985.         [ Links ]

J. RAWLS, A Theory of Justice, Cambridge, MA, Belknap Press, 1971.         [ Links ]

J. RAZ, The Authority of Law, 2.ª ed., Oxford, OUP, 2009.         [ Links ]

J. RICARDO CATARINO, Para Uma Teoria Política do Tributo, 188, 2.º ed., Lisboa, Cadernos de CTF, 1999, p. 218.         [ Links ]

K. DAVIS e D. PATTERSON, Ethics of Big Data. Sebastopol, O’Reilly, 2012.

L. DE CABRAL MONCADA et al., El hecho dei derecho, Buenos Aires, Losada, 1957.         [ Links ]

L. S. GRUBBA e K. F. MONTEIRO, “Realismo jurídico Norte-Americano e realismo jurídico escandinavo: o problema da metafísica” , Prisma Jurídico - Universidade Nove de Julho, XVII, 2, 2018, disponível em  https://doi.org/10.5585/prismaj.v17n2.8704.

M. ABRAHAM e V. PIMENTEL PEREIRA, Jurisprudência tributária vinculante – teoria e precedentes, 1.ª ed., São Paulo, Quartier Latin, 2015.         [ Links ]

M. ATIENZA, As Razões do Direito – Teorias da argumentação jurídica, Trad. Maria Cristina Guimarães Cupertino, São Paulo, Landy, 2000.         [ Links ]

M. D. BOERI, Y. KANAYAMA e J. MITTELMANN, Soul and Mind in Greek Thought. Psychological Issues in Plato and Aristotle, Cham, Springer, 2018.         [ Links ]

M. SETTE LOPES, “O realismo jurídico: o discurso jurídico e a apreensão da realidade pontual” . Revista da Faculdade de Direito da Universidade Federal de Minas Gerais, 45, 2004, pp. 297-340.

O. W. HOLMES, The Common Law, Edit. Paulo J. S. Pereira & Diego M. Beltran, University of Toronto Law School Typographical Society, 2011.         [ Links ]

PARLAMENTO EUROPEU, Relatório que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica, Comissão dos Assuntos Jurídicos, 2017, disponível em http://www.europarl.europa.eu/doceo/document/A-8-2017-0005_PT.pdf?redirect (acedido em 01 de abril de 2019).         [ Links ]

R. ALEXY, Teoría de los derechos fundamentales, Trad. Carlos Bernal Pulido, Madrid, Centro de Estudios Políticos y Constitucionales, 2007.         [ Links ]

“Law and Correctness” , Current Legal Problems, Londres, LI, 1998, pp. 205-221.

“Epílogo a la Teoría de los derechos fundamentales” , Trad. Carlos Bernal Pulido, Revista Española de Derecho Constitucional, Madrid, XXII, 66, 2002, pp. 13-64.

R. DESCARTES, Discours de la méthode pour bien conduire sa raison, et chercher la vérité dans les sciences, Leyde, Imprimerie de Jan Maire, 1637, disponível fac-símile eletrônico da editio princeps no sítio eletrônico da Biblioteca Nacional de França, em https://gallica.bnf.fr/ark:/12148/btv1b86069594.image (acedido em 03 de abril de 2019).         [ Links ]

R. DWORKIN, “Is law a system of rules?” , in R. SUMMERS (org.), Essays in Legal Philosophy, Berkeley, University of California Press, 1968, pp. 38-65.

Law’s Empire, Cambridge, MA, Belknap, 2000, reimpr.

R. JOLIVET, Vocábulo “alma” , in Vocabulário de filosofia, Rio de Janeiro, Agir, 1975.

R. SOARES VALENTINI, “Julgamento por computadores? As novas possibilidades da juscibernética no século XXI e suas implicações para o futuro do direito e do trabalho dos juristas” , PhD Thesis, Belo Horizonte, Faculdade de Direito, Universidade Federal de Minas Gerais, 2017.

S. STROMHOLM e H. H. VOGEL, Le “realisme Scandinave” dans la philosophie du droit, Preface de M. Villey, Paris, LGDJ, 1975.

T. AQUINO, De veritate, Cuestión 2, Artículo 3, arg. 19, Trad. Ángel Luis González, Pamplona, Universidad de Navarra, 2000.         [ Links ]

T. BUSTAMANTE, Princípios, regras e conflitos normativos: uma nota sobre a superabilidade das regras jurídicas e as decisões contra legem, Revista Direito, Estado e Sociedade, 37, 2010, pp. 152-180.         [ Links ]

V. MOSCO, To the cloud: big data in a turbulent world, London, Paradigm, 2014.         [ Links ]

W. VOERMANS e E. VERBAREN, “Leda: a Semi-Intelligent Legislative Drafting-Support System” , in J. S. SVENSSON, J. G. J. WASSINK E B. VAN BUGGENHOUT (eds.), Legal knowledge based systems JURIX 93: Intelligent Tools for Drafting Legislation, Computer - Supported Comparison of Law, Lelystad, Koninklijke Vermande, 1993, pp. 81-94.

Y. HARARI, 21 Lições para o Século 21, São Paulo, Companhia das Letras, 2018.         [ Links ]

 

1 Professor Associado de Direito Financeiro e Tributário – Universidade do Estado do Rio de Janeiro – Brasil. Pós-Doutor em Finanças Públicas (Universidade de Lisboa). Doutor em Direito Público – Universidade do Estado do Rio de Janeiro – Brasil. Mestre em Direito Tributário – Universidade Candido Mendes – Brasil. Desembargador Federal do Tribunal Regional Federal da 2a Região – Brasil. Ex-Procurador da Fazenda Nacional – Brasil. Diretor da Escola da Magistratura Regional Federal da 2a Região – EMARF – Brasil. Membro Coordenador do Núcleo de Estudos em Finanças e Tributação da UERJ – NEFIT. Marcus Abraham mabraham@uol.com.br

2 Doutor em Ciências Sociais na especialidade de Administração Pública e Agregado em Finanças Públicas pela Universidade de Lisboa - Instituto Superior de Ciências Sociais e Políticas. Coordenador científico das disciplinas de Finanças Públicas, de Fiscalidade e de Políticas Financeiras e Gestão Orçamental. Investigador integrado do CAAP - Centro de Administração e Políticas Públicas. Professor Catedrático no ISCSP da Universidade de Lisboa. João Ricardo Catarino (jcatarino@iscsp.ulisboa.pt)

3 Y. HARARI, 21 Lições para o Século 21, São Paulo, Companhia das Letras, 2018, pp. 25-

4 R. SOARES VALENTINI, Julgamento por computadores? As novas possibilidades da juscibernética no século XXI e suas implicações para o futuro do direito e do trabalho dos juristas. Tese. (Doutorado em direito) – Faculdade de Direito, Universidade Federal de Minas Gerais, Belo Horizonte, 2017, p. 42.

5 “O que é um algoritmo? […] algoritmo é uma sequência de instruções que diz a um computador o que fazer. Como na metáfora da escada, o algoritmo divide determinada tarefa (chegar até o topo) em tarefas menores (passar por cada um dos degraus). Quanto ao seu funcionamento, podemos dividir os algoritmos em duas espécies: os programados e os não programados. Algoritmos programados seguem as operações (“o caminho” ) definidas pelo programador. Assim, a informação “entra” no sistema, o algoritmo faz o que está programado para fazer com ela, e o resultado (output) “sai” do sistema. Referindo à operação de algoritmos programados, Alan Turing, no seminal Computing Machinery and Intelligence, escrito em 1950, propunha que, no lugar de se imitar o cérebro de um adulto, programando todas as operações a serem realizadas, seria mais produtivo adotar estratégia diversa: simular o cérebro de uma criança, com capacidade randômica de aprendizado. É mais ou menos isso que fazem os algoritmos não programados, chamados learners. Esses algoritmos criam outros algoritmos. Nesse caso, os dados e o resultado desejado são carregados no sistema (input), e este produz o algoritmo (output) que transforma um no outro. Como destaca Pedro Domingos, o computador escreve a própria programação, de forma que humanos não tenham que fazê-lo” . (E. NAVARRO WOLKART et al, Arbitrium ex machina: panorama, riscos e a necessidade de regulação das decisões informadas por algoritmos, Revista dos Tribunais, CMXCV, 2018.

6 “Originally, the term ‘big data’ simply referred to the very large amounts of data being produced in the digital age. These huge amounts of data, both structured and unstructured, include all the Web data generated by emails, websites, and social networking sites. Approximately 80 per cent of the world’s data is unstructured in the form of text, photos, and images, and so it is not amenable to the traditional methods of structured data analysis. ‘Big data’ is now used to refer not just to the total amount of data generated and stored electronically, but also to specific datasets that are large in both size and complexity, with which new algorithmic techniques are required in order to extract useful information from them.” (D. HOLMES, Big data: a very short introduction, Oxford, Oxford University Press, 2017. Electronic edition).

7 “An artificial intelligence is a system that can learn how to learn, or in other words a series of instructions (an algorithm) that allows computers to write their own algorithms without being explicitly programmed for.” (F. COREA, An Introduction to Data: Everything You Need to Know About AI, Big Data and Data Science, Cham, Springer, 2019, p. 16).

8 Disponível em http://www.stf.jus.br/portal/cms/verNoticiaDetalhe.asp?idConteudo=380038
http://www.stf.jus.br/portal/cms/verNoticiaDetalhe.asp?idConteudo=388443

9 Disponível em (acedido em 08 de abril de 2019).

10 Disponível em http://www.cnj.jus.br/atos-normativos?documento=2829(acedido em 29 de março de 2019).

11 Disponível em http://www.tjmg.jus.br/portal-tjmg/noticias/tjmg-realiza-primeiro- julgamento-virtual-de-recursos.htm#.XHb9_1F96Uk; https://www.tjmg.jus.br/portal- tjmg/noticias/tjmg-utiliza-inteligencia-artificial-em-julgamento-virtual.htm#.XHbzN1F96Uk (acedido em 29 de março de 2019).

12 Maiores informações em https://looplex.com.br/ (acedido em 29 de março de 2019).

13 Maiores informações em https://justto.com.br/ (acedido em 29 de março de 2019).

14 Disponível em https://canaltech.com.br/robotica/dra-luzia-primeira-robo-advogada-do-brasil-ja-tem-sua-primeira-missao-96658/ (acedido em 29 de março de 2019).

15 Mais informações sobre ALICE podem ser conferidas em https://g1.globo.com/economia/tecnologia/noticia/como-as-robos-alice-sofia-e-monica-ajudam-o- tcu-a-cacar-irregularidades-em-licitacoes.ghtml (acedido em 29 de março de 2019).

16 Maiores informações em https://www.startse.com/noticia/mundo/28971/software-do-jpmorgan (acedido em 29 de março de 2019).

17 Maiores informações em http://rossintelligence.com/ (acedido em 29 de março de 2019).

18 Maiores informações em http://www.northpointeinc.com/files/downloads/Risk-Needs-Assessment.pdf (acedido em 29 de março de 2019).

19 D. KATZ, M. J. BOMMARITO II, J. BLACKMAN, A General Approach for Predicting the Behavior of the Supreme Court of the United States (January 16, 2017), Disponível em https://ssrn.com/abstract=2463244 (acedido em 29 de março de 2019).

20 Disponível em https://www.luminance.com/ (acedido em 29 de março de 2019).

21 Disponível em https://epocanegocios.globo.com/Tecnologia/noticia/2019/04/estonia- quer-substituir-os-juizes-por-robos.html (acedido em 05 de abril de 2019).

22 “Súmulas são, portanto, o resumo do entendimento de um Tribunal sobre um assunto específico de determinada matéria de sua competência, sobre a qual foram aplicadas decisões em um mesmo sentido, que servem de referencial a todo o universo jurídico nacional. As súmulas vinculantes, por sua vez, podem ser compreendidas como ‘o enunciado judicial com força de lei’. Tais súmulas, portanto, vinculam a decisão dos juízes de instâncias inferiores ao entendimento do Supremo Tribunal Federal, obrigando-os a seguirem o entendimento daquele, uma vez que estão dotadas de força de lei por expressa disposição constitucional.” (M. ABRAHAM e V. PIMENTEL PEREIRA, Jurisprudência tributária vinculante – teoria e precedentes, São Paulo, Quartier Latin, 2015, p. 100).

23 Atualmente, para que um recurso extraordinário versando sobre matéria constitucional seja analisado pelo Supremo Tribunal Federal (STF), o recorrente deverá demonstrar a repercussão geral, isto é, a existência de questões relevantes do ponto de vista econômico, político, social ou jurídico que ultrapassem os meros interesses subjetivos da causa. Reconhecida a repercussão geral da matéria, a decisão dada pelo Plenário do STF, em razão desta repercussão geral do assunto, terá efeitos vinculantes para os outros tribunais brasileiros na mesma matéria.

24 A sistemática de recursos repetitivos é aquela em que o STJ, sempre que houver multiplicidade de recursos com fundamento em idêntica questão de direito, pode julgar um único recurso representativo da controvérsia como paradigma para uniformização do direito federal. Assim, a decisão paradigma do STJ será aplicada a todos os processos com a mesma questão.

25 CONSELHO NACIONAL DE JUSTIÇA. Justiça em Números 2018: ano-base 2017, Brasília, CNJ, 2018, p. 125.

26 INSTITUTO DE PESQUISA ECONÔMICA APLICADA, Custo e Tempo do Processo de Execução Fiscal promovido pela Procuradoria Geral da Fazenda Nacional. Responsáveis: Alexandre dos Santos Cunha (coordenador), Isabela do Valle Klin e Olívia Alves Gomes Pessoa. Brasília, novembro de 2011, Disponível em http://www.ipea.gov.br/portal/images/stories/PDFs/nota_tecnica/111230_notatecnicadiest1.pdf (acedido em 29 de março de 2019).

27 CONSELHO NACIONAL DE JUSTIÇA. op. cit. p. 31.

28 Notícia disponível em http://www.tjrj.jus.br/noticias/noticia/-/visualizar- conteudo/5111210/5771753 (acedido em 29 de março de 2019).

29 Disponível em http://www.tjpe.jus.br/noticias/- /asset_publisher/ubhL04hQXv5n/content/id/2079372 (acedido em 29 de março de 2019).

30 Disponível em https://www.valor.com.br/legislacao/5473359/receita-federal-usa-robos-para-elevar-arrecadacao (acedido em 29 de março de 2019).

31 Resolução do Conselho de Ministros n.o 108/2017, Diário da República n.o 143/2017, Série I de 2017-07-26.

32 Veja-se, por exemplo, a Agenda digital para a Europa, a estratégia para o mercado único digital e o mercado único digital com os seus objetivos de Melhor acesso dos consumidores e empresas a bens e serviços digitais em toda a Europa, de criar condições de concorrência equitativas para o desenvolvimento de redes digitais e de serviços inovadores e de otimização do potencial de crescimento da economia digital.

33 PARLAMENTO EUROPEU. Relatório que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica, Comissão dos Assuntos Jurídicos, Relatora: Mady Delvaux, 27/01/2017, disponível em http://www.europarl.europa.eu/doceo/document/A-8-2017- 0005_PT.pdf?redirect (acedido em 01 de abril de 2019).

34 PARLAMENTO EUROPEU. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica. Disponível em http://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_PT.html (acedido em 01 de abril de 2019).

35 A palavra “animal” em português provém do latim anima, que significa “alma” . Portanto, “animal” é o ente dotado de “anima” , isto é, de um princípio intrínseco de movimento e de sensibilidade.

36 R. JOLIVET, Vocábulo “alma” . Vocabulário de filosofia. Trad. Gerardo Dantas Barretto. Rio de Janeiro: Agir, 1975. p. 15.

37 R. DESCARTES. Discours de la méthode pour bien conduire sa raison, et chercher la vérité dans les sciences. Leyde: Imprimerie de Jan Maire, 1637. p. 33. Disponível fac-símile eletrônico da editio princeps no sítio eletrônico da Biblioteca Nacional de França, em https://gallica.bnf.fr/ark:/12148/btv1b86069594.image (acedido em 03 de abril de 2019).

38 “One of the main reasons why contemporary philosophers of mind talk about mind, not about ‘soul’, surely is that they see a potential danger in speaking of the ‘soul’, due to its theological and ‘transcendent’ implications, which are generally removed from the contemporary materialistic view of the mind. Thus they do not talk about the soul-body problem, but about the mind-body problem, this way avoiding the potentially misleading view that, when one refers to the ‘item’ that allows processes such as breathing, reproducing, thinking, perceiving, desiring, feeling pain or pleasure, fear, rage or joy, one is speaking of a vital principle going beyond the sphere of what is strictly bodily, embedded in the bodily existence of an organism. This being so, the word ‘mind’ would be a more neutral term to describe the psychological experiences just mentioned.” (M. D. BOERI, Y. KANAYAMA e J. MITTELMANN (Ed.). Soul and Mind in Greek Thought . Psychological Issues in Plato and Aristotle, Cham, Springer, 2018, p. 3).

39 T. AQUINO, De veritate, Cuestión 2. Artículo 3, arg. 19, Trad. Ángel Luis González. Pamplona: Universidad de Navarra, 2000, p. 28.

40 B. MONDIN, O homem: quem é ele? Elementos de antropologia filosófica, Trad. R. Leal Ferreira e M. Ferrari, São Paulo, Paulinas, 1980, p. 67.

41 “O conhecimento sensitivo ocupa-se das qualidades sensíveis exteriores, mas o conhecimento intelectual penetra até onde a coisa é em si mesma, até à essência (o que é de cada realidade), que os acidentes iluminam porque nela inerem. O objeto da inteligência é aquilo que é (id quod est), a essência atuada pelo ser.” (A. LLANO, Gnosiologia realista, Trad. Fernando Marquezini, São Paulo, Instituto Brasileiro de Filosofia e Ciência Raimundo Lúlio, 2004, p. 153)

42 T. AQUINO, Summa Teológica, cit. Por J. RICARDO CATARINO, Para Uma Teoria Política do Tributo, Cadernos de CTF, n.o 188, p. 218, Lisboa, 2.a ed. 1999.

43 R. ALEXY, Teoría de los derechos fundamentales, Trad. Carlos Bernal Pulido, Madrid, Centro de Estudios Políticos y Constitucionales, 2007.

44 G. FIGUEROA ALFONSO, “¿Existen diferencias entre reglas y principios en el Estado Constitucional? Algunas notas sobre la teoría de los principios de Robert Alexy” , in R. ALEXY, Derechos sociales y ponderación, Madrid, Fundación Coloquio Jurídico Europeo, 2007, pp. 333- 370.

45 J. A. GARCIA AMADO, “El juicio de ponderación y sus partes. Crítica de su escasa relevancia” , in T. BUSTAMANTE (org.), Teoria do direito e decisão racional: Temas de teoria da argumentação jurídica, Rio de Janeiro, Renovar, 2008, pp. 15-71.

46 Para mais desenvolvimentos veja-se, por exemplo, M. ATIENZA, As Razões do Direito – Teorias da argumentação jurídica, Trad. Maria Cristina Guimarães, Cupertino, São Paulo, Landy, 2000; R. DWORKIN, “Is law a system of rules?” , in R. SUMMERS (org.), Essays in Legal Philosophy, Berkeley, University of California Press, 1968, pp. 38-65; R. DWORKIN, Law’s Empire, Cambridge, MA, Belknap, 2000, reimpr; J. RAWLS, A Theory of Justice, Cambridge, MA, Belknap Press, 1971.

47 T. BUSTAMANTE, Princípios, regras e conflitos normativos: uma nota sobre a superabilidade das regras jurídicas e as decisões contra legem. Revista Direito, Estado e Sociedade, 37, 2010, pp. 152-180.

48 “Dessa forma, imprescindível que se reconheça a existência dos vieses algorítmicos, porquanto as máquinas muitas vezes se comportam de modo a refletir os valores humanos implícitos envolvidos na programação. Ao somar tal fator à opacidade dos algoritmos – indecifráveis para a maior parte da população –, verificam-se os riscos que tais mecanismos acarretam para o devido processo constitucional, por impossibilitar o exercício da garantia do contraditório e da ampla defesa, violando, também, o acesso à Justiça.” (D. NUNES e A. L. MARQUES, “Inteligência artificial e direito processual: vieses algorítmicos e os riscos de atribuição de função decisória às máquinas” , Revista de Processo, CCLXXXV, nov. 2018).

49 O. W. Holmes, O. W. Holmes, The Common Law, Edit. Paulo J. S. Pereira & Diego M. Beltran, University of Toronto Law School Typographical Society, 2011., Edit. Paulo J. S. Pereira & Diego M. Beltran, University of Toronto Law School Typographical Society, 2011.

50 M. SETTE LOPES, “O realismo jurídico: o discurso jurídico e a apreensão da realidade pontual” . Revista da Faculdade de Direito da Universidade Federal de Minas Gerais, 45, 2004. pp. 297-340. F. S. COHEN, El metodo funcional en el derecho, Buenos Aires, Abeledo-Perrot, 1935. J. CUETO RÚA, Una vision realista delderecho: los jueces y los abogados, Buenos Aires, Abeledo-Perrot, 2000. B. FER, D. BATCHELOR e P. WOOD, Realismo, racionalismo, surrealismo: a arte no entre-guerras, Trad. Cristina Fino, São Paulo, Cosac & Naify, 1998. E. GARCÍA MAYNEZ, Positivismo jurídico, realismo y iusnaturalismo, 3.a ed, Mexico, Fontamara, 1999. C. I. MASSINI, Sobre el realismo jurídico: el concepto de derecho, su fundamento, su concrecion judicial, Buenos Aires, Abeledo-Perrot, 1978. L. DE CABRAL MONCADA et al., El hecho dei derecho, Buenos Aires, Losada, 1957. S. STROMHOLM e H. H. VOGEL, Le “realisme Scandinave” dans la philosophie du droit, Preface de M. Villey, Paris, LGDJ, 1975. L. S. GRUBBA e K. F. MONTEIRO, “Realismo jurídico Norte-Americano e realismo jurídico escandinavo: o problema da metafísica” , Prisma Jurídico - Universidade Nove de Julho, XVII, 2, 2018, disponível em https://doi.org/10.5585/prismaj.v17n2.8704.

51 “While big-data technology offers the ability to connect information and innovate new products and services for both profit and the greater social good, it is, like all technology, ethically neutral. That means it does not come with a built-in perspective on what is right or wrong or what is good or bad in using it. Big-data technology has no value framework. Individuals and corporations, however, do have value systems, and it is only by asking and seeking answers to ethical questions that we can ensure big data is used in a way that aligns with those values.” (K. DAVIS E D. PATTERSON, Ethics of Big Datak, Sebastopol, O’Reilly, 2012, p. 8).

52 D. NUNES e A. L MARQUES, op. cit.

53 “Também é possível verificar vieses algorítmicos no sistema de concessão de crédito europeu e norte-americano, na medida em que diversas companhias utilizam modelos de IA para análise do risco do empréstimo. Muitos desses modelos utilizam até mesmo dados das redes sociais do solicitante para o cálculo do credit score, baseando-se, assim, nas conexões sociais do indivíduo. Dessa forma, o resultado vincula-se diretamente ao grupo social no qual o solicitante está inserido. Corroborando tal fato, um relatório de 2007, apresentado pela Federal Reserve ao Congresso dos Estados Unidos, apontou que negros e hispânicos têm um credit score significativamente inferior ao de brancos e asiáticos.” (D. NUNES e A. L MARQUES, op. cit.)

54 Aristotle just meant that the subject-matter studied in ethics is human action (praxis), or opinions about human action, or opinions about right human action, or right opinions about human action, or all of these topics” . (J. FINNIS, Fundamentals of ethics, New York, Oxford University Press, 1985, p. 1).

55 PARLAMENTO EUROPEU, Relatório que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica. Comissão dos Assuntos Jurídicos. Relatora: Mady Delvaux. 27/01/2017. Disponível em http://www.europarl.europa.eu/doceo/document/A-8-2017- 0005_PT.pdf?redirect (acedido em 01 de abril de 2019).

56 “[…] privacy and security are significant means of providing the space, the breathing room, or the buffer between ourselves and the world that is necessary for self-development. They offer an essential space between the individual and the world, including those elements of the world that might benefit from taking, purchasing, or otherwise carrying out surveillance that violates this space and makes it more difficult to safely develop a self and an identity. In this reading, privacy violations are attacks on our capacity for self-development. […] for Michael Lynch, privacy is essential for the growth of human autonomy; putting it in strong terms, he insists, “However we resolve these issues, we would do well to keep the connections between self, personhood and privacy in mind as we chew over the recent revelations about governmental access to Big Data. The underlying issue is not simply a matter of balancing convenience and liberty. To the extent we risk the loss of privacy we risk, in a very real sense, the loss of our very status as subjective, autonomous persons” (V. MOSCO, To the cloud: big data in a turbulent world, London, Paradigm, 2014, pp. 139- 140).