Os avanços da Inteligência Artificial (IA), com vídeos, imagens e áudios fakes, mas hiper-realistas, acendeu a luz amarela no mundo político. As eleições municipais, marcadas para outubro, serão as primeiras que se realizam com a possibilidade de uso, em larga escala, do "deep fake". Esta técnica utiliza IA para alterar rostos e falas em vídeos, com potencial para influenciar o cenário eleitoral nas disputas regionais.
Diante desta possibilidade, o presidente da Câmara dos Deputados, Arthur Lira (PP-AL) definiu que a regulamentação da Inteligência Artificial no Brasil será um tema central para 2024. A ideia é ter um arcabouço regulatório que coíba práticas que resultem em manipulação de fisionomias e declarações para fins políticos.
Lira não quer que o Congresso perca o protagonismo neste tema para o Tribunal Superior Eleitoral (TSE), uma vez que seu presidente, o ministro Alexandre de Moraes, já demonstrou preocupação com o uso da Inteligência Artificial nas eleições.
O Senado já marcou posição com um projeto de lei apresentado pelo presidente da casa, Rodrigo Pacheco (PSD-MG). Ele incorporou ideias e sugestões de uma comissão de juristas que estudou o assunto e elaborou um relatório final após mais de 70 audiências públicas.
A proposta de Pacheco, que já agregou outros três projetos apresentados, traz diretrizes gerais para o desenvolvimento, implementação e uso de sistemas de Inteligência Artificial no Brasil. Tem como objetivo o mapeamento e o entendimento dos impactos econômicos e sociais que esta tecnologia pode provocar no país.
Uma das dificuldades em relação à Inteligência Artificial é a rapidez com que a tecnologia avança. As propostas podem ficar defasadas muito rapidamente e aquém das necessidades da sociedade. Outra questão é que esta tecnologia já está incorporada no nosso dia-a-dia, seja no sistema financeiro, na saúde, na educação, na propaganda, entre outros. Não há como, simplesmente, dar marcha ré.
Além disso, ninguém quer conter o progresso. Os países querem fomentar a pesquisa, incentivar o surgimento de startups e o desenvolvimento tecnológico. Portanto, a grande pergunta é: como se proteger do uso inadequado desta incrível tecnologia sem impedir seu avanço?
A União Europeia acredita que encontrou respostas e saiu na frente. Em junho, o parlamento aprovou um projeto de lei sobre o tema, o AI Act e, no mês passado, os 27 países do bloco finalizaram um acordo político para implementação do texto, que deverá influenciar o arcabouço legal do Brasil e de outras nações.
Em linhas gerais, a legislação europeia é fundamentada em uma matriz de avaliação de riscos. Aplicações consideradas de risco excessivamente alto estão vetadas por serem consideradas incompatíveis com os direitos e valores fundamentais.
Isso inclui a utilização de IA, por exemplo, em social scoring, em que o sistema manipula os usuários para alcançar certos resultados. Também foi proibido o policiamento preditivo, ou seja, o uso de software que avalia a probabilidade de um indivíduo cometer crimes no futuro com base em suas características pessoais, pois contraria a presunção de inocência.
O Brasil precisa se debruçar sobre este tema o quanto antes. Ao mesmo tempo em que devemos garantir espaço para a inovação, é preciso reduzir os riscos de mau uso, evitar a discriminação de grupos minoritários da população, bem como garantir privacidade e transparência aos usuários. Encontrar este ponto de equilíbrio é o desafio colocado diante de nós.
Vandermir Francesconi Júnior é 2º vice-presidente do CIESP e 1º diretor secretário da FIESP (vfjunior@terra.com.br)