A TUTELA DOS DIREITOS DE EXPLICAÇÃO E REVISÃO DAS DECISÕES AUTOMATIZADAS NO BRASIL

André Jobim de Azevedo
Vitor Kaiser Jahn.

 

INTRODUÇÃO

Presenciamos o desenvolvimento de novas tecnologias
classificadas como disruptivas, dado o seu considerável potencial de modificação abrupta da realidade e da sociedade. Elas têm afetado a forma como as pessoas se comunicam e relacionam, as fontes de energia, as relações de trabalho e o processo produtivo como um todo, os transportes, além do modo de consumo de bens e serviços.
Nesse novo contexto, os dados pessoais são compreendidos
como um dos principais ativos empresariais da sociedade
contemporânea, uma vez que o seu refinamento permite a segmentação dos consumidores para os quais é dirigida a oferta e uma maior precisão na análise dos riscos de contratação. 

Tais dados, porém, são extremamente extensos e numerosos, de modo que o seu tratamento se apresenta como tarefa muito
custosa, senão impossível, para ser realizada exclusivamente por pessoas humanas. Afinal, nem se cogita quantas horas de
trabalho uma pessoa levaria para apurar e analisar todos os dados relevantes em correlação até refiná-los para o propósito
desejado. Assim, a tecnologia tem se mostrado fundamental
para o tratamento de dados, de modo que não é “hiperbólico”
afirmar que nossa sociedade depende, e tende a cada vez tornar-se mais dependente, de algoritmos de machine learning
vinculados à inteligência artificial.
A Inteligência artificial, segundo a engenharia da computação,
corresponde a máquinas autônomas que possam conduzir
tarefas complexas sem intervenção humana, requerendo que
estas sejam capazes de perceber e de raciocinar. Inteligência artificial seria, então, a construção de agentes que se comportam de maneira inteligente, como respostas racionais aos dados recebidos.
Segundo Martínez Devia, a inteligência artificial trabalha com
dois elementos fundamentais: o poder da computação, que inclui o desenvolvimento de sistemas que permitem o processamento e as operações de dados; e o big data, grande conjunto de dados produzidos por diferentes fontes (humanas, biométricas, máquinas, transações macro, uso da web, redes sociais, entre outros), que alimenta a inteligência. A autora observa que o uso contínuo de diferentes tecnologias (sites, aplicativos, serviços, sensores embutidos em dispositivos, pesquisas na Internet, redes sociais, notebooks, smartphones, dispositivos GPS, entre outros) aumentou em grande escala a quantidade de diária de informações armazenadas.
Essa conjugação de sistemas de inteligência artificial com a
capacidade de machine learning no tratamento de dados em
massa permite o desenvolvimento da tomada de decisões
absolutamente autônomas em relação à interferência humana,
especialmente para fins de criação de perfis dos titulares dos dados.
Ora, sendo machine learning a ciência dos algoritmos que visa
detectar padrões nos dados para fazer previsões precisas para
dados futuros, Kamarinou et al apontam ser apropriado usar
algoritmos de aprendizado de máquina para fins de criação de
perfil, tendo em vista que estes são padrões resultantes de um
processamento probabilístico de dados, os quais, porém, não
representam necessariamente a realidade, mas uma versão
derivada da mineração de dados, incluindo os algoritmos e dados utilizados e os possíveis vieses humanos e preconceitos refletidos nos dados, no algoritmo ou no modelo aprendido.

Conforme Caitlin Mulholland e Isabella Frajhof, a partir da capacidade de machine learning, o próprio sistema alcança resultados por meio de processos dedutivos e análises estatísticas que vão sendo determinados com base em
correlações realizadas pela inteligência artificial e, nesse cenário, o controle sobre os inputs e outputs dos sistemas torna-se ainda mais precário. De fato, se o próprio código está em constante mutação, não se sabe em que medida será possível compreender a relação entre inputs e outputs, ainda que haja auditagem e transparência.

Ocorre que, na medida em que o tratamento de dados tem crescido exponencialmente e que as decisões correspondentes passam a ser delegadas à inteligência artificial em processos decisórios automatizados, eventuais falhas podem causar severos prejuízos à pessoa titular dos dados, afetando diversos
aspectos da sua vida, além de haver elevado potencial de ocorrerem discriminações.
Afinal, dentro do grande conjunto de dados que são coletados mediante a técnica de big data, encontra-se principalmente dados pessoais, o que desencadeia risco para o titular, se não for feito um tratamento responsável, ético e transparente que
proteja seus direitos e liberdades.
Por esses motivos, a Lei Geral de Proteção de Dados Pessoais
(LGPD) brasileira tutela a proteção do titular dos dados mediante a previsão de direitos de “explicação” e de “revisão” de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais. Contudo, a LGPD revela-se pouco objetiva quanto ao ponto, trazendo dúvidas acerca da forma como deverá ser explicada a decisão automatizada, ou mesmo como deverá se dar o procedimento de revisão, o que se propõe investigar através do presente artigo.


REGULAÇÃO DAS DECISÕES AUTOMATIZADAS


É notório que a Lei Geral de Proteção de Dados Pessoais (LGPD)
brasileira foi em muito inspirada pelo Regulamento Europeu de
Proteção de Dados (General Data Protection Regulation – GDPR), aprovado no ano de 2016.
Assim, analisaremos, ainda que sumariamente, o regramento europeu acerca das decisões automatizadas para, após, apreciar
a forma como a matéria é disciplinada pela legislação brasileira.


DECISÕES AUTOMATIZADAS NO GDPR EUROPEU


O artigo 22 do GDPR14 assegura ao titular dos dados, como regra geral, o direito de recusar-se a ser submetido a decisões exclusivamente automatizadas, incluindo a definição de perfis (item “1”) 15, mas ressalva que, caso venha a submeter-se por necessidade contratual, em virtude de autorização legal, ou por consentimento explícito (item “2”), o titular dos dados poderá exigir a revisão da decisão automatizada por pessoa humana, podendo assim manifestar sua opinião acerca da decisão e contestá-la (item “3”), viabilizando o ajuste de eventuais erros.
Conforme Ferrari e Becker, suscita-se, então um direito à intervenção humana:

A revisão de decisões algorítmicas por humanos já é bastante
debatida na doutrina estrangeira a ponto de ter sido suscitada a
existência de um “direito a uma intervenção humana” (right to a
human in the loop). De um lado, especialistas defendem que a
intervenção humana é imprescindível para proteger a dignidade do usuário, cujos dados são utilizados para alimentar os algoritmos de tomada de decisões, e mitigar seus efeitos
deletérios. Do outro, doutrinadores acreditam que, com uma pessoa natural no processo decisório, ele poderá restar contaminado por vieses humanos.
Outrossim, o artigo 15, alínea “h”, do GDPR17, outorga ao titular
dos dados que venha a ser submetido a decisões automatizadas o direito de obter do responsável pelo tratamento informações
atinentes à lógica subjacente à decisão18 e das consequências envolvidas.
Cita-se, ainda, o considerando nº 71 do GDPR19, o qual indica a garantia de o titular dos dados obter uma explicação sobre a decisão tomada. Contudo, para o direito comunitário, os considerandos não são dotados de força vinculativa, apenas fornecendo orientações sobre a interpretação dos artigos da norma que antecedem. Assim, os considerandos não poderiam criar direitos que não estejam previstos nos artigos do GDPR.

Constituiu-se, então, interessante divergência doutrinária a respeito de o GDPR assegurar ou não ao titular de dados um direito à explicação da decisão automatizada. Isso porque, como visto, o artigo 15, alínea “h”, do GDPR, prevê o direito a “informações úteis sobre a lógica subjacente”, apenas estando  xpressamente referido o direito à “explicação da decisão” no
Considerando.
Por essa razão, Watcher, Mittelstadt e Floridi defenderam não haver no GDPR um direito à explicação, mas, apenas, à informação sobre a funcionalidade do sistema, restrito por interesses de controladores de dados (art. 15). Sugerem, então,
uma série de modificações a serem adotadas no RGPD, dentre as quais a de acrescentar o direito de explicação ao artigo 22, item “3”, de modo a torná-lo juridicamente vinculativo.
Ou seja, no GDPR é inegavelmente assegurado o direito de revisão da decisão automatizada por pessoa humana, havendo, porém, divergência doutrinária quanto à vinculatividade do direito à explicação da decisão automatizada.


DECISÕES AUTOMATIZADAS NA LGPD BRASILEIRA


A primeira manifestação do direito à explicação no Brasil se deu
na polêmica Lei do Cadastro Positivo22, a qual regula o credit scoring, que consiste na técnica utilizada por instituições financeiras para, de forma estatística, avaliar a concessão de crédito a uma pessoa com base em variáveis predeterminadas. Essa previsão encontra-se no artigo 5º, incisos IV e VI, da Lei nº 12.414/2011, que arrola dentre os direitos do cadastrado: “IV – conhecer os principais elementos e critérios considerados para a análise de risco, resguardado o segredo empresarial”; e “VI – solicitar ao consulente a revisão de decisão realizada exclusivamente por meios automatizados”.

Jurisprudencialmente, o Superior Tribunal de Justiça, soberano
na análise da legislação infraconstitucional, sedimentou o
entendimento de que o titular dos dados possui o direito de
solicitar esclarecimentos sobre as informações valoradas e as
fontes dos dados considerados na apuração do score, ensejando a edição da Súmula 550, in verbis:


Súmula 550 do STJ: A utilização de escore de crédito, método
estatístico de avaliação de risco que não constitui banco de dados, dispensa o consentimento do consumidor, que terá o direito de solicitar esclarecimentos sobre as informações pessoais valoradas e as fontes dos dados considerados no
respectivo cálculo.


Após, aprovada em agosto de 2018, mas com vacatio legis de 24
meses definida pela Lei nº 13.853/2019, a LGPD prevê tanto o
direito de revisão de decisões tomadas com base em tratamento
automatizado de dados (art. 20, caput), assim como o direito de
explicação a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada, resguardando, porém, os segredos comercial e industrial (art. 20, § 1º).

Veja-se que, enquanto o artigo 22 do GDPR estabelece que o titular de dados tem o direito de não estar sujeito a nenhuma decisão tomada exclusivamente com base no tratamento automatizado que produza efeitos em sua esfera jurídica ou que o afete significativamente, o artigo 20 da LGPD afirma que o
titular de dados tem “direito a solicitar a revisão de decisões
tomadas unicamente com base em tratamento automatizado de
dados pessoais que afetem seus interesses”. Feita essa distinção, Mulholland e Frajhof defendem que no ordenamento europeu a norma tem “natureza proibitiva”, vedando a tomada de decisões totalmente automatizada, enquanto no ordenamento brasileiro, a norma tem “natureza atributiva de direito”.


PROBLEMAS QUANTO À REVISÃO E EXPLICAÇÃO DAS DECISÕES AUTOMATIZADAS NA LEGISLAÇÃO BRASILEIRA PROCEDIMENTALIZAÇÃO DO PROCESSO DE REVISÃO


Na redação original da Lei nº 13.709/2018, o caput do artigo 20
da LGPD26 previa o direito de o titular dos dados solicitar a revisão da decisão automatizada por pessoa natural, assim como previsto no item “3” do artigo 22 do GDPR.
Contudo, através da Medida Provisória nº 869/2018, o então Presidente da República Michel Temer modificou a redação do
caput do artigo 20 da LGPD para suprimir o trecho “pessoa natural” do dispositivo, afastando, assim, a necessidade de intervenção humana no processo de revisão.
Quando votada a conversão da Medida Provisória nº 869/2018
na Lei nº 13.853/2019, o Poder Legislativo optou por reestabelecer a necessidade de revisão por pessoa humana mediante a inclusão do parágrafo 3º ao artigo 20 da LGPD27, no qual, porém, diferentemente da redação original, outorgou-se à autoridade nacional o dever de regulamentar o procedimento levando em consideração a natureza e o porte da entidade ou o volume de operações de dados, ou seja, indicando um tratamento diferenciado a fim de não inviabilizar os negócios envolvidos.
Contudo, nos termos do art. 66, § 1º, da Constituição da República, o Presidente Jair Bolsonaro optou por vetar a inclusão do § 3º ao artigo 20 da LGPD, apresentando na Mensagem 288/2019, endereçada ao Presidente do Senado Federal, suas razões de veto fundamentadas em suposta contrariedade da revisão por pessoa humana ao interesse público:


A propositura legislativa, ao dispor que toda e qualquer decisão baseada unicamente no tratamento automatizado seja suscetível de revisão humana, contraria o interesse público, tendo em vista que tal exigência inviabilizará os modelos atuais de planos de negócios de muitas empresas, notadamente das startups, bem como impacta na análise de risco de crédito e de novos modelos de negócios de instituições financeiras, gerando efeito negativo na oferta de crédito aos consumidores, tanto no que diz respeito à qualidade das garantias, ao volume de crédito contratado e à composição de preços, com reflexos, ainda, nos índices de inflação e na condução da política monetária.
Ocorre que essa supressão da figura humana traz dúvida razoável sobre como, então, deverá ser procedimentalizado o processo revisório.
Ora, na redação original da Lei nº 13.709/2018 a questão era mais clara: haveria, primeiro, o tratamento dos dados através da inteligência artificial, que faria a correlação dos dados e tomaria uma decisão automatizada. Uma vez solicitada a revisão pelo titular dos dados, este apresentaria suas razões, as quais
deveriam ser submetidas ao crivo humano que, então, poderia
confirmar ou modificar a decisão adotada pela inteligência
artificial.
No entanto, agora que suprimida a exigência da pessoa humana no processo revisor, surge o seguinte problema: em que, de fato, se traduz o direito à revisão? Significa simplesmente recolocar os mesmos dados antes tratados, no mesmo sistema de inteligência artificial anteriormente adotado e obter uma segunda decisão (o que não seria irrazoável frente à supressão normativa da obrigação humana de fazê-lo)? À toda evidência a decisão será idêntica à primeira; afinal, um mesmo algoritmo não chegaria a conclusões (outputs) diversas a respeito dos mesmos dados (inputs). Ou, então, significa que todos os controladores de dados necessitarão possuir duas distintas ferramentas de inteligência artificial, sendo uma a instância de primeiro grau e uma de segundo grau com competência revisora? De igual modo, dificilmente haverá êxito na revisão das decisões de uma máquina pela outra, ao passo que terão a mesma programação e, portanto, os mesmos problemas, a não ser que, propositadamente, o programador inserisse vícios em uma que não na outra, mas isso não seria dotado de qualquer lógica. 

Vislumbra-se, pois, que a legislação brasileira, em descompasso
com a GDPR, anda mal ao retirar a pessoa humana do protagonismo do ato revisório, tornando ao menos nebulosa a forma de como, então, essa revisão deverá ser feita.
Ao que parece, diferentemente de uma “revisão” propriamente dita, a retirada da figura da pessoa humana indica que a lei está tratando, na verdade, de “retificação”, assim como já era previsto
no artigo 43, § 3º, do CDC28. Isto é, diferentemente do que viabilizar um segundo juízo decisório sobre os dados, a lei parece permitir que os dados (inputs) sejam retificados e, assim, possibilitar não uma revisão, mas sim uma nova decisão (output) pela máquina. Por exemplo, a inteligência artificial atribui um score baixo a alguém em virtude de o titular dos dados ter ficado negativado por longa data. No entanto, este solicita a revisão com a apresentação de sentença transitada em julgado que reconhece a inexigibilidade da dívida inscrita. Com essa “retificação” do dado antes desabonatório será possível à
máquina chegar a uma nova conclusão.
O problema é que, o principal motivo de se assegurar um direito
à revisão não diz apenas com a mera retificação do banco de dados, mas sim com buscar a correção do mérito da decisão, que pode ter sido influenciada por concepções discriminatórias. Ora, a neutralidade algorítmica é apenas aparente, uma vez que as máquinas herdam compreensões de seus programadores, ou
mesmo as recebem por aprendizado (machine learning) na
interação humana.
De qualquer modo, a questão está longe de ser resolvida e, ao
que tudo indica, necessitará ser aclarada pela autoridade nacional de proteção de dados através de seu poder regulamentar incluído no seu vasto rol de competências previsto
no artigo 55-J da LGPD, a fim de esclarecer de que modo deverá
ser procedimentalizada a revisão das decisões automatizadas.


EXTENSÃO DO DIREITO À EXPLICAÇÃO


De igual modo, a LGPD não é clara sobre em quais situações a explicação poderá ser necessária e em qual extensão deverão ser prestadas informações a respeito da decisão automatizada.

Ora, o artigo 20, § 1º, limita-se a estabelecer, em linhas gerais,
que o controlador deverá fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada, observados os segredos comercial e industrial.
Embora a doutrina esteja convergindo sobre a importância de
assegurar formas de explicação dos algoritmos, não há consenso sobre como esta deve se dar.
No que pertine às hipóteses em que explicações são necessárias, constitui-se o primeiro problema em questão. Afinal, toda e qualquer decisão automatizada que envolver interesses do titular dos dados deverá ser objeto de explicação, ou haveria algum filtro limitador, alguma justificativa inerente?
Doshi-Velez et al30 apontam que o pedido de explicações sobre
uma decisão automatizada pode ser justificado por três distintas
razões: entradas (inputs) não confiáveis ou inadequadas; resultados (outputs) inexplicáveis; e desconfiança quanto à integridade do sistema.
Destacam os autores que se há o conhecimento de que um tomador de decisão tem acesso a informações irrelevantes ou proibidas, há justificativa para o pedido de explicação pela razoável suspeita de que a decisão foi imprópria. A entrada (dado interpretado pela inteligência artificial) pode ser suspeita quando se acredita que ela é logicamente irrelevante; e proibida,
como é o caso de certas características, como raça, gênero e
identidade ou orientação sexual, que não devem ser levadas em consideração na decisão sobre o acesso de uma pessoa a
emprego, moradia e outros bens sociais. Da mesma forma, existem certas características que, como apontado pelos autores, devem ser necessariamente levadas em consideração para uma decisão específica, por exemplo, se um empréstimo é negado a uma pessoa, mas é sabido que o relatório de crédito da pessoa jamais fora consultado, podemos suspeitar que a decisão foi tomada com informações incompletas e, portanto, errôneas.
Quanto aos resultados inexplicáveis, os autores apontam casos em que a crença de que ocorreu um erro provém da saída (output) do processo de tomada de decisão, ou seja, reside na própria decisão. Se o mesmo tomador automatizado de decisão tornar diferentes decisões para dois assuntos aparentemente
idênticos, podemos suspeitar que a decisão foi baseada em recurso não relacionado ou mesmo aleatório. Da mesma forma, se um tomador de decisão produz a mesma decisão por dois assuntos marcadamente diferentes, podemos suspeitar que ele
não levou em consideração uma característica importante.

Por fim, a respeito da desconfiança sobre a integridade do sistema, afirmam os autores que podem ser exigidas explicações a respeito de uma decisão mesmo que as entradas (inputs) e saídas (outputs) pareçam adequadas por causa do contexto em que a decisão é tomada. Isso geralmente acontece quando está em questão decisões altamente consequentes e com capacidade ou incentivo para fazê-lo de uma maneira que seja pessoalmente benéfica, mas socialmente prejudicial.
Vistas as hipóteses de necessidade de informações, analisar-seá, a seguir, o problema quanto à extensão em que a explicação deverá ser outorgada. Segundo Watcher, Mittelstadt e Floridi, em se tratando de decisões automatizadas, há dois tipos viáveis
de informação: aquela que diz respeito à a) funcionalidade do sistema, isto é, à lógica, ao significado, às consequências previstas, às especificações de requisitos, às ramificações de
decisões possíveis, aos modelos predefinidos, critérios e estruturas de classificação; e àquela que diz respeito às b) razões da decisão tomada, isto é, à justificativa, aos motivos e circunstâncias individuais de uma decisão automatizada específica, como, por exemplo, ponderação de recursos, às regras de decisão específicas, informações sobre grupos de referência ou perfil34.
Os autores destacam, ainda, ser possível distinguir entre explicações quanto ao tempo: a) uma explicação ex ante, seria aquela que ocorreria antes da tomada de decisão automatizada, ou seja, apenas poderia apresentar a funcionalidade do sistema; ou b) uma explicação ex post, seria aquela que ocorreria após
uma decisão automatizada, podendo abordar tanto a funcionalidade do sistema como os fundamentos específicos da decisão. 

Exemplos auxiliam a esclarecer como essas distinções interagem.
Conforme Watcher et al, em se tratando de sistema de pontuação de crédito automatizado, antes de uma decisão ser tomada, o provedor do sistema pode informar os dados sobre a funcionalidade do sistema, incluindo a lógica geral (como tipos de dados e características consideradas, categorias na ramificação de decisões), objetivo ou significado (neste caso, para atribuir uma pontuação de crédito) e as consequências previstas (por exemplo, a pontuação de crédito pode ser usada pelos credores para avaliar o valor do crédito, afetando os termos de crédito, como taxa de juros). Por outro lado, depois
que uma decisão foi tomada, uma explicação da funcionalidade do sistema ainda pode ser fornecida ao titular dos dados. No entanto, o provedor também poderá explicar a lógica e as circunstâncias individuais de sua decisão específica, como sua
pontuação de crédito, os dados ou recursos que foram considerados em seu caso particular e sua ponderação na árvore de decisão ou modelo. Em outras palavras, o controlador poderá explicar como uma pontuação específica foi atribuída. Quando modelos simplistas ou lineares predefinidos são usados e divulgados integralmente, previsões sobre a lógica de uma decisão específica são possíveis, em princípio, ex ante. No entanto, em ambos os casos, a capacidade do fornecedor de oferecer uma explicação da lógica de uma decisão específica pode ser limitada por vários fatores jurídicos e técnicos, incluindo o uso de probabilística complexa e métodos de tomada de decisão.
Ferrari e Becker destacam que ao usuário não interessa receber
o código-fonte do algoritmo, mas sim entender de forma clara os
critérios que foram utilizados para a decisão, o que deve ser,
portanto, levado em conta pelos programadores no momento da
concepção da aplicação:

O usuário, ao pedir explicação sobre decisões automatizadas, não deseja receber o código-fonte do algoritmo, mas entender
os critérios que foram utilizados, pois, para ele, como leigo, é
irrelevante o número de linhas de programação utilizadas para
que se chegue àquela decisão, por vezes, duvidosa. Para o titular, é fundamental receber informações consistentes e compreensíveis para que ele, querendo, possa contestar a
decisão automatizada. Muito mais do que apenas um direito exclusivo do titular, o direito à explicação impacta a programação, a prototipagem e a utilização de sistemas de processamento de dados. Por isso, deve-se pensar em técnicas para garantir compreensão, transparência e legibilidade, ou, ainda, um conceito de “explicação por design” (explanation by design) ou “explicação por padrão” (explanation by default) no momento da concepção da aplicação.
Nesse mesmo sentido, Doshi-Velez et al38 destacam que a explicação se distingue da transparência, uma vez que a explicação não exige o fluxo de bits através um sistema de inteligência artificial, assim como uma explicação por seres humanos não exige o conhecimento sobre fluxo de sinais através dos neurônios, uma vez que nenhum dos dois seria interpretável para um humano.
Em vez disso, segundo os autores, a explicação significa responder como certos fatores foram usados para chegar ao resultado em uma situação específica.
A esse respeito, apontam que, assim como nos requisitos relacionados à explicação humana, precisaremos pensar sobre o
porquê e quando explicações são úteis o suficiente para compensar o custo. Destacam que exigir que todo sistema de inteligência artificial explique todas as decisões pode resultar em sistemas menos eficientes, escolhas forçadas de projeto e uma tendência a explicações abaixo do resultado ideal. Citam, como exemplo, que a sobrecarga de forçar uma torradeira a explicar por que ela acha que o pão está pronto pode impedir que uma
empresa implemente um recurso inteligente. Por outro lado, afirmam que podemos estar dispostos a aceitar o custo monetário de um sistema de aprovação de empréstimos explicável, mas um pouco menos preciso, em prol do benefício social de poder verificar se não é discriminatório. Assim, DoshiVelez et al sustentam que exigir explicações dos sistemas de inteligência artificial é razoável e que devemos começar perguntando aos nossos sistemas de inteligência artificial aquilo que pediríamos aos humanos caso estivessem participando do processo decisório. Isso evitaria, segundo os autores, que os sistemas obtenham um “passe livre” para evitar os tipos de escrutínio que podem chegar aos seres humanos, e evita pedir muito dos sistemas, o que dificultaria a inovação e o progresso.
Para os autores, a necessidade de explicação pode ser formalizada por duas ideias técnicas: “explicação local” e “fidelidade contrafactual”. Explicação local diz com os fatores importantes para a tomada da decisão, como, por exemplo, o histórico de pagamento para a negação de empréstimo. Por sua
vez, fidelidade contrafactual significa que, se uma pessoa soubesse que sua renda era o fator determinante para a negativa de crédito, e então sua renda vier a aumentar, poderá ter uma justa expectativa de que o sistema agora considere-as dignas de obter o empréstimo.

Vislumbra-se, pois, que o direito à explicação faz com que informações devam ser prestadas de acordo com o horizonte de compreensão do destinatário, ao passo que ao consumidor, que possui na hipossuficiência técnica um de seus traços característicos, não interessa receber a sequência de códigos
que regem a inteligência artificial, mas sim compreender os fatos que foram determinantes para a decisão automatizada, o que deverá ser observado e viabilizado desde a programação da
inteligência artificial.


CONSIDERAÇÕES FINAIS


Tecer considerações sobre o futuro sempre é uma tarefa um tanto quanto difícil e arriscada, pois não se sabe, efetivamente, quais serão os impactos que as novas tecnologias, talvez algumas que ainda nem sequer conhecemos, produzirão na sociedade.
Embora acredite-se que no futuro a inteligência artificial será ainda mais aprimorada, de modo a amplificar a gama de aplicação, na atualidade já se pode perceber claramente a sua implementação em processos de tomada de decisões absolutamente automatizadas, em diferentes segmentos, inclusive no âmbito do tratamento de dados pessoais.
Tanto o direito comunitário europeu (GDPR), assim como o direito brasileiro (LGPD), têm se preocupado com a regulamentação do tratamento de dados pela inteligência artificial, dado o seu grande potencial de promover prejuízos e discriminações aos titulares dos dados. Reconhece-se que, enquanto pessoas, não podemos restar submetidos a julgamentos exclusivamente automatizados que, por mais evoluídas/desenvolvidas que sejam as máquinas, podem apresentar resultados incompatíveis com a realidade, mormente
ao estabelecer perfis generalizantes. Assim, consagrou-se na doutrina o reconhecimento de direitos à revisão e à explicação de decisões tomadas pela inteligência artificial.

Contudo, como vislumbra Veronese, a efetividade das prescrições jurídicas sobre proteção de dados, no contexto atual de big data, em grande parte depende dos meios técnicos disponíveis para o monitoramento e auditoria. A afirmação de direitos subjetivos na legislação é muito importante, certamente.
Não obstante, é evidente que a falta de capacidade técnica pode
configurar um empecilho para a efetividade do direito.
Embora estejamos caminhando em um sentido de atualização legislativa para o atendimento das novas demandas que se apresentam pela introdução do uso da inteligência artificial, o que é digno de aplauso, o presente artigo apurou que, com a
retirada do elemento humano no procedimento revisório, esvaziou-se a sua principal razão de ser, parecendo restar sem qualquer eficácia o direito previsto no artigo 20 da LGPD. Assim, como abordado no capítulo 2.1, conclui-se pela necessidade de a autoridade nacional de proteção de dados esclarecer o procedimento a ser seguido para viabilizar a efetiva revisão da decisão automatizada, avocando para si a ampla competência regulamentar que lhe fora outorgada pelo artigo 55-J da LGPD.
Outrossim, fora objeto deste estudo a dúvida razoável que se
estabelece doutrinariamente a respeito de quais as informações
que o controlador dos dados deve fornecer com fulcro no artigo 22, § 1º, da LGPD. Quanto ao assunto, no capítulo 2.2 conclui-se que as informações asseguradas na LGPD devem ser prestadas de acordo com o horizonte de compreensão do destinatário, ao passo que ao consumidor, que possui na hipossuficiência técnica um de seus traços caracterizadores, não interessa receber a sequência de códigos que regem a inteligência artificial, mas sim compreender os fatos e os critérios que foram determinantes para a decisão automatizada.
Assim como apontam os estudos de Doshi-Velez et al, o essencial está em assegurar um elemento de fidelidade contrafactual, isto é, a partir do momento em que houver a compreensão da pessoa titular dos dados a respeito das razões pelas quais recebeu determinada decisão, possa ela adequar seu perfil com a justa expectativa de, então, receber uma decisão favorável.
Para tanto, as diretrizes advindas da LGPD deverão ser levadas
em conta desde a programação dos equipamentos de inteligência artificial, a fim de que seja viabilizada a explicação efetiva e clara ao titular dos dados como algo inerente às decisões automatizadas, inserindo-se a função no próprio design da máquina.
Fato é que as relações sociais têm sido constantemente modificadas pela introdução de tecnologias disruptivas. Ao direito, pois, incumbe atualizar-se para outorgar a devida resposta jurídica às demandas que surgem a partir das novas tecnologias, sempre com cuidado redobrado para não perder de
foco o principal: a dignidade da pessoa humana e a proteção de
seus direitos fundamentais.

 


REFERÊNCIAS


ANDRÉ, Q.; CARMON, Z.; WERTENBROCH, K.; CRUM, A.; DOUGLAS, F.; GOLDSTEIN, W.; HUBER, J.; VAN BOVEN, L.; WEBER, B.; YANG, H. Consumer Choice and Autonomy in the Age of Artificial Intelligence and Big Data. Johns Hopkins Carey Business School Research Paper, n. 18-03, 2018.

BIONI, Bruno R. Proteção de dados pessoais: a função e os limites do consentimento. Rio de Janeiro: Forense, 2019.

BROOKSHEAR, J. Glenn. Ciência da computação: uma visão
abrangente. Tradução de Eduardo Kessler Piveta. 11ª ed. Porto
Alegre: Bookman, 2013.

DOSHI-VELEZ, F.; KORTZ, M.; BUDISH, R.; BAVITZ, C.; GERSHMAN, S. J.; O’BRIEN, D.; SHIEBER, S.; WALDO, J.; WEINBERGER, D.; WOOD, A. Accountability of AI Under the Law: The Role of Explanation. Harvard Public Law Working Paper, n. 18/2007.

FERRARI, Isabela; BECKER, Daniel. O direito à explicação sobre decisões automatizadas: uma análise comparativa entre a
União Europeia e o Brasil. Revista de direito e as novas tecnologias, vol. 1, 2018.

KAMARINOU, D.; MILLARD, C.; SINGH, J. Machine Learning with Personal Data. Queen Mary School of Law Legal Studies Research Paper, n. 247, 2016.

MARTÍNEZ DEVIA, A. La inteligencia artificial, el big data y la
era digital: ¿una amenaza para los datos personales? La Propiedad Inmaterial, n. 27, 2019.

MENDES, Laura S. Privacidade, proteção de dados e defesa do
consumidor: linhas gerais de um novo direito fundamental. São
Paulo: Saraiva, 2014.

MIRAGEM, Bruno. A Lei Geral de Proteção de Dados (Lei 13.709/2018) e o direito do consumidor. Revista dos Tribunais, vol. 1009/2019, p. 173-222, 2019.


VERONESE, Alexandre. Os direitos de explicação e de oposição frente às decisões totalmente automatizadas: comparando o RGPD da União Europeia com a LGPD brasileira. In: FRAZÃO, A.; TEPEDINO, G.; OLIVA, Milena Donato (coord.). Lei geral de proteção de dados pessoais e suas repercussões no Direito Brasileiro. São Paulo: Thomson Reuters Brasil, 2019, p. 385-415.


MULHOLLAND, C.; FRAJHOF, I. Z. Inteligência Artificial e a Lei
Geral de Proteção de Dados Pessoais: breves anotações sobre o direito à explicação perante a tomada de decisões por meio de machine learning. In: FRAZÃO, A.; MULHOLLAND, C. (coord.) Lei geral de proteção de dados pessoais e suas repercussões no direito brasileiro. São Paulo: Thomson Reuters Brasil, 2019.

WACHTER, S.; MITTELSTADT, B; FLORIDI, L. Why a right to explanation of automated decision-making does not exist in the
General Data Protection Regulation. International Data Privacy Law, 2017, p. 10.

Deixe um comentário

O seu endereço de e-mail não será publicado.