Como o Sandbox Regulatório explora as noções de Transparência Algorítmica?
Por Pedro Gabriel de Souza Silva e Eduarda Chacon
Não é novidade, em plena sociedade algorítmica, a grande importância da privacidade. A Constituição Federal prevê em seu art. 5º, X que são invioláveis a intimidade, a vida privada, a honra e a imagem das pessoas. A Lei Geral de Proteção de Dados (LGPD), em seu art. 2º, IV; que são direitos dos titulares dos dados pessoais a inviolabilidade da intimidade, da honra e da imagem. A Declaração Americana dos Direitos e Deveres do Homem; a Declaração Universal dos Direitos Humanos; o Pacto Internacional sobre Direitos Civis e Políticos; e o Pacto de San José da Costa Rica. É unanime.
A Carta Portuguesa de Direitos Humanos na Era Digital”, de vanguarda, estabelece no art. 9º que “A utilização da inteligência artificial deve ser orientada pelo respeito dos direitos fundamentais, garantindo um justo equilíbrio entre os princípios da explicabilidade, da segurança, da transparência e da responsabilidade”; mas sabiamente ressalva que o dever de que sejam consideradas as “circunstâncias de cada caso concreto” e que se “estabeleça processos destinados a evitar quaisquer preconceitos e formas de discriminação.”
Sempre atenta aos anseios da sociedade, a ANPD resolveu colher subsídios para futura realização de sandboxes que se voltem ao desenvolvimento responsável de sistemas de IA transparentes, com vistas ao melhor interesse dos titulares de dados pessoais.
Nesta linha, se compreende que a transparência assume importante papel porque contribui com o letramento digital e com a tomada de decisões informadas. Mas é importante distinguir entre transparência e opacidade, explicabilidade e interpretabilidade. Igualmente, é necessário ponderar que a transparência de que trata a LGPD não é a mesma, precipuamente, da algorítmica.
O princípio da transparência da LGPD pode ser encontrado tanto no art. 6º, como as disposições do art. 20 da LGPD, sobre direito de obter informações claras, precisas e acessíveis sobre o tratamento de seus dados pessoais. Ou, seja, para fins de proteção de dados, em se tratando de titulares (e não da própria ANPD, fiscal da lei), a transparência não é universal porque nem todo dado é pessoal: o titular, a princípio, tem direito de saber apenas sobre os seus próprios dados, não todos os dados em tratamento.
Nesta toada, o art. 20 da LGPD determina que os controladores devem informar aos titulares de dados sobre os critérios de decisão automatizada (que lhes afetem), incluindo a lógica utilizada, a importância do tratamento para a tomada de decisão e as consequências potenciais do tratamento para os titulares de dados. Além disso, nem toda decisão automatizada:
“O titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade.”
A transparência algorítmica, a seu turno, é um princípio importante para a regulação de sistemas de inteligência artificial, tanto que, neste sentido, o Projeto de Emenda à Constituição, de nº 29/23, propõe sua inclusão como direito fundamental no rol do art. 5º da CF88.
A transparência algorítmica garante que os usuários (e à sociedade como um todo) o acesso às informações claras, objetivas e honestas que estejam disponíveis a respeito de como os sistemas de IA e/ou decisão automatizada funcionam, resguardados os segredos comercial e industrial. Assim, as pessoas podem tomar decisões informadas sobre como interagir com eles e de que modo afetam suas vidas.
Neste panorama, o sandbox regulatório da ANPD é uma oportunidade importante para promover o desenvolvimento de sistemas de IA que sejam transparentes sobre seus processos e decisões – na medida em que isso seja factível, considerando as black boxes.
Além disso, as regras dos sandboxes podem variar de acordo com o contexto e o tipo de certame, que pode ser operacional (testar tecnologias) ou regulatório (testar soluções normativas). Por isso, cada contrato funciona como uma espécie de edital e tem regras próprias que podem até mesmo suspender a incidência de regras vigentes, inclusive para suspender a aplicação de normas efetivamente aplicáveis.
É possível, portanto, que seja pontualmente estabelecido um conjunto de requisitos mínimos de transparência algorítmica em dado contexto, para fins de análise e experimentações. Esses requisitos podem incluir, para ilustrar, i) auditabilidade dos algoritmos; ii) acervo de treinamento; iii) imputs e outputs (esperados) ou iv) processos automatizados de decisão envolvidos e seus funcionamentos.
A ANPD, com isso, se anuncia importante aliada dos desenvolvedores e stakeholders na busca por soluções aos desafios regulatórios e a serviço do fomento à inovação. É louvável a iniciativa da instituição que atuará, certamente, nos limites de seu regimento interno e das leis que a instituíram. Com efeito, a ressalva é importante para que não haja conflitos e sobreposição de competências ou – pior – regulamentação concorrente entre a autoridade de dados pessoais e eventual autoridade central de IA ou agências reguladoras.
Constata-se (mais uma vez) que a cultura de privacidade e o futuro da tecnologia dependem em certa medida do Estado, mas em grande parte da sociedade e da iniciativa privada – possuímos todos um dever de colaboração mútua em prol de um futuro melhor para a humanidade.