Direito à explicação em inteligência artificial
Tipo
Dissertação
Data de publicação
2025-02-10
Periódico
Citações (Scopus)
Autores
Santos, Marcelo Fonseca
Orientador
Pinto, Felipe Chiarello de Souza
Título da Revista
ISSN da Revista
Título de Volume
Membros da banca
Moreira, Diogo Rais Rodrigues
Barreto Júnior, Irineu Francisco
Barreto Júnior, Irineu Francisco
Programa
Direito Político e Econômico
Resumo
A Inteligência Artificial (IA) é um campo que visa criar sistemas capazes de realizar tarefas
que normalmente requerem inteligência humana, como reconhecimento de padrões, raciocínio
lógico e tomada de decisão automatizada. A pesquisa analisa como os dados de forma
exponencial se correlacionam com as aplicações envolvendo Inteligência Artificial. As
decisões automatizadas proferidas por esses sistemas são muitas vezes denominadas e
consideradas como caixas pretas, pois não fornecem uma explicação clara e compreensível
sobre como chegaram às suas decisões automatizadas, as denominadas Black Box. A pesquisa
aborda os sistemas de IA, como eles sã afetados peas decisões humanas e perfilamento de
dados de comportamento, e como podem gerar problemas éticos, jurídicos, econômicos e
sociais, bem como na economia de mercado. O objetivo é apresentar uma visão geral sobre a
Inteligência Artificial, as decisões humanas, e como influenciam as decisões automatizadas,
como regulações contemporâneas e ex ante podem auxiliar na concretização do Direito à
Explicação em Inteligência Artificial, e melhorar sobremaneira os mecanismos de
Explicabilidade. A pesquisa e dissertação utilizam metodologia baseada em leitura e análise
bibliográfica e de artigos científicos, ou seja, método Hipotético-Dedutivo: “o pesquisador
elege o conjunto de proposições hipotéticas que acredita serem viáveis como estratégia de
abordagem para se aproximar de seu objeto”. A análise crítica permite examinar os desafios e
as limitações das técnicas existentes, bem como as implicações éticas, jurídicas e sociais do
Direito à Explicação em Inteligência Artificial. A pesquisa têm desafios, como: (i) Decisões
Automatixadas e relação das Decisões Humanas, discutindo os benefícios e os riscos de
delegar ou compartilhar dados pessoais e comportamentais com as máquinas e seus sistemas;
(ii) a Neuroeconomia em virtude do Perfilamento de Dados; (iii) Regulamentações Ex Ante e
Mecanismos Positivos; (iv) Existência e concretização do Direito à Explicação; (v)
Explicabilidade em Inteligência Artificial. Dessa maneira, a pesquisa procurou responder ao
problema: Existe Direito à Explicação em Inteligências Artificiais? Os capítulos foram
desenvolvidos com o escopo de expor ao leitor compreensão sobre o que são, como funcionam
e aprendem os sistemas de Inteligência Artificial, como humanos tomam decisões, e essas
Decisões influenciam (Direitos de Personalidade) o Aprendizado e as Decisões da Inteligência
Artificial. Como os seres humanos são influenciados pela neuroeconomia, e posteriormente a
dissertação trata da importância das regulações Ex Ante como governança de dados, o
compliance digital e a governança de inteligência artificial como mitigadores de risco, atuando
na prevenção e produção de documentos que permitem maior capacidade de explicar (Direito
à Explicação) a automatização decisória, permitindo sua revisão ou confirmação, e também
tratando dos sistemas específicos possam atuar na Explicabilidade da Inteligência Artificial,
proporcionando maior confiança, ética e transparência para a inteligência artificial, e, também,
a Inteligência Artificial Explicável (XAI).
Descrição
Palavras-chave
inteligência artificial , neurociências , decisões , explicação , explicabilidade