No dia 24 de abril deste ano, a Comissão Temporária Sobre Inteligência Artificial (CTIA) do Senado Federal** recebeu do relator da Comissão, Senador Eduardo Gomes, o relatório preliminar sobre a regulação da Inteligência Artificial (IA) no Brasil. Dado ao seu caráter preliminar, o documento está, portanto, aberto a críticas e sugestões.
Uma forma legítima e eficaz da sociedade participar do debate em torno da regulamentação de um tema tão impactante na vida de todos, é fazer suas críticas e sugestões de aprimoramentos por meio de associações representativas de setores privados da economia. E a Abrapp tem a oportunidade de fazê-lo como integrante do Fórum Empresarial da LGPD – união de várias entidades associativas voltadas para a busca de sinergia do setor privado tanto para segurança jurídica, quanto para a promoção da cultura da proteção de dados no Brasil.
Por entender que o uso da IA e a proteção de dados pessoais são assuntos intrinsecamente relacionados, em novembro de 2023 o Fórum Empresarial da LGPD enviou sugestões de alteração ao Projeto de Lei nº 2.338/23 e passou a considerar a IA em sua pauta prioritária de discussões no ano em curso. Nesse diapasão, ao avaliar o texto preliminar apresentado pela CTIA no dia 24/04/24, o Fórum identificou que inúmeras novidades e alterações foram introduzidas no referido projeto de lei, várias delas ainda não debatidas.
Considerando a necessidade de estabelecimento de prazo compatível com a profundidade requerida para os debates, o Fórum encaminhou à referida comissão do Senado Federal, em 03/05/24, nota intitulada “Marco Regulatório da IA: É preciso cautela, debate aprofundado e avaliação de impacto para regular tema tão complexo e relevante para o desenvolvimento econômico e social do Brasil”, com seu posicionamento em prol da manutenção da prudência e da ampliação do prazo da consulta pública iniciada. A Nota foi assinada por 24 entidades associativas, dentre as quais a Abrapp.
Seguem os pontos de atenção mais relevantes que justificam o posicionamento do Fórum:
- Cuidados com a responsabilidade civil
Os cuidados a serem tomados com relação ao uso de tecnologias, bem como a segurança jurídica necessária ao desenvolvimento e emprego da IA no Brasil, podem ser alcançados pelas normas já existentes. Afinal de contas, o instituto da responsabilidade objetiva já está contemplado, por exemplo, no Código Civil e no Código de Defesa do Consumidor. E tudo isso é reforçado por autorregulação, trazendo parâmetros mínimos de governança no desenvolvimento, emprego e monitoramento dos sistemas de IA. O Fórum teme que “… se prevalecer a proposta de um novo regime de responsabilidade civil objetiva (para IA de alto risco) e com culpa presumida e inversão do ônus da prova (para os demais sistemas de IA)”, isto pode desestimular o desenvolvimento e emprego da tecnologia.
- Riscos com a introdução de novas sanções administrativas para situações já existentes
Este é um outro tema que pode provocar desestímulo ao desenvolvimento e emprego da tecnologia de IA – afastando o consequente benefício que pode trazer para o desenvolvimento econômico do país –, uma vez que já existem sanções administrativas emanadas de diversas legislações e relativas a práticas indevidas de gestão de tecnologias aplicáveis por órgãos reguladores e fiscalizadores setoriais competentes, dentre as quais a LDGP, o Marco Civil da Internet e, mais especificamente no nosso caso, normas de governança, gestão e controles internos do sistema fechado de previdência complementar. O Fórum teme que “…qualquer novo regime de sanções criaria um temerário bis in idem”, ou seja, ninguém pode ser julgado mais do que uma vez pela prática do mesmo crime.
- Necessidade de se evitar sobreposição regulatória
O texto preliminar publicado pela CTIA no dia 24/04/24 prevê, com relação à regulação do uso da IA, a criação de um Sistema Nacional de Regulação e Governança de IA (SIA). Por se tratar de assunto que envolve vários segmentos já regulamentados pelos seus respectivos órgãos competentes, o Fórum defende que o SIA seja um órgão colegiado e sem preponderância de uma agência reguladora sobre outra, viabilizando a interoperabilidade e harmonia regulatória no que tange ao tratamento de todos os tipos de dados, inclusive com as atribuições da ANPD, no que tange a regulação de dados pessoais (LGPD). O Fórum teme que ao se “… estabelecer a preponderância de uma Autoridade Competente sobre os demais no SIA, a solução acaba por trazer insegurança jurídica no que diz respeito a conflitos de competências entre o suposto órgão competente e as agências e órgãos regulatórios já existentes” e recomenda que sejam excluídos os artigos que normatizam as atribuições e poderes da autoridade competente, passando para o aprimoramento do arranjo regulatório do colegiado do SIA.
- Insegurança jurídica decorrente da criação de novos direitos.
É previsível que, no médio prazo, praticamente todas as organizações brasileiras, em seus variados portes e complexidades, terão aplicações de IA em suas rotinas de trabalho. Isto abre um rol de direitos trazidos pela regulação em questão, inclusive em relação à governança dessas organizações, que podem gerar insegurança jurídica no setor privado da economia. O Fórum teme a possibilidade de ações judiciais em massa e sem precedentes.
- Carga excessiva de governança.
Por fim, vale destacar a exigência contida no relatório preliminar da CTIA de práticas de governança complexas, tais como avaliação preliminar, avaliação de impacto algorítmico, medidas de monitoramento para sistemas de IA de alto risco, dentre outras, e que somadas a tantas outras obrigações atuais exigidas, por exemplo, pela LGPD (relatório de impacto), CDC, BACEN, ANVISA etc, para mitigação dos riscos em questão, irão resultar em onerosos recursos humanos e financeiros. O Fórum teme que o futuro marco legal da IA não seja flexível o suficiente para permitir que as autoridades reguladoras competentes possam buscar mecanismos adequados de supervisão em um ambiente de rápido avanço tecnológico, com as medidas de mitigação disponíveis até o momento. Há risco de estabelecimento de uma relação esforço resultado pouco favorável na supervisão.
Assim como as demais entidades associativas integrantes do Fórum, a Abrapp espera que os pleitos de setores privados da economia relacionados à regulamentação do uso da IA sejam não apenas ouvidos, mas sobretudo considerados pelo legislador.
Mais importante do que a sociedade ser ouvida, é ser considerada pelo legislador.
*Antônio Carlos Bastos d’AlmeidaÉ gerente de riscos, ARGR e DPO da Forluz e coordenador da Comissão Técnica Regional Leste de Governança e Riscos da Abrapp
**Fonte: Agência Senado