SUA VIDA DIGITAL

IA pode matar produção científica e jornalística, alega governo

Por Pedro S. Teixeira/FolhaPress |
| Tempo de leitura: 4 min
Lei brasileira não define “fair use”, e, sim, determina exceções que não abrangem o treinamento de modelos de inteligência artificial
Lei brasileira não define “fair use”, e, sim, determina exceções que não abrangem o treinamento de modelos de inteligência artificial

Sem a imposição de regras que protejam o direito de autor por parte do Estado, "os sistemas de inteligência artificial tendem no longo prazo a matar a produção de conhecimento, representação e informação profissional", diz o secretário de Políticas Digitais da Secretaria de Comunicação da Presidência, João Brant.

Brant representa o governo nas negociações sobre o projeto de lei 2338/2023, que propõe uma regulação sobre o uso de inteligência artificial no Brasil. Ele compareceu nesta quinta-feira (11) ao Fórum Internacional do Marco Regulatório da IA, realizado na Campus Party em São Paulo.

Com o adiamento da votação na terça-feira, após intervenção da CNI (Confederação Nacional da Indústria) em favor das big techs, o governo avalia que não há condições de votar o projeto antes do recesso parlamentar, com início em 18 de julho. "Ficou claro, que a apreciação do projeto ficaria para agosto", disse Brant à reportagem.

O trecho da proposta que trata da proteção de direitos autorais de empresas jornalísticas, escritores e criadores é um dos que geram mais discórdia, uma vez que o desenvolvimento de sistemas de IA demanda quantidades massivas de dados. Até agora, as empresas de tecnologia, na maioria dos casos, adquiriram essas informações sem pedir autorização ou propor remuneração aos donos.

"O que está acontecendo é que os jornais, designers e artistas estão perdendo espaço na internet, e ficando sem ter como pagar até um cafezinho. A discussão é sobre a sustentabilidade da integridade da informação", diz o secretário.

O governo, segundo Brant, quer traçar um modelo de microrremuneração compensatória pelo uso de dados, em que cada artigo ou arte usado gere um pequeno pagamento por parte da empresa de tecnologia.

Dessa forma, haveria um equilíbrio, de acordo com o governo: as startups poderiam desenvolver modelos menores com menos dinheiro, e as big techs poderiam desembolsar mais para treinar grandes modelos de linguagem, como o Gemini do Google e o ChatGPT da OpenAI. Além disso, o modelo garantiria remuneração de criadores de conteúdo de menor escala.

Hoje, a OpenAI, de um lado, tem fechado acordos individuais com grandes organizações de imprensa dos Estados Unidos e da Europa, envolvendo pagamentos na casa dos milhões de dólares e assistência técnica no que toca à inteligência artificial.

Treinamento

Executivos de Google e Meta, de outro, defendem a possibilidade de que conteúdos disponíveis na internet sejam usados gratuitamente para treinar modelos de IA (inteligência artificial), sob a condição de "fair use" - uso sem remuneração desde que sejam apenas pequenos trechos, que haja transformação e que não concorra com o conteúdo original.

Brant diz que a lei brasileira não define "fair use", e, sim, determina exceções que não abrangem o treinamento de modelos de inteligência artificial. "Nós queremos definir regras e tirar essa situação de uma zona cinzenta."

Para o diretor-presidente do NIC.br (Núcleo de Informação e Coordenação do Ponto BR), Demi Getschko, conhecido também como o pai da internet no Brasil, a discussão de remuneração direta "cria atrito" entre empresas de tecnologia e produtores de conteúdo.

"O melhor modelo seria como o europeu, em que o MDA [Ato de Mercados Digitais] determina uma taxação sobre as big techs, e o Estado depois distribui esse dinheiro para manter um equilíbrio", afirma Getschko.

Como o MDA já trata do tema, a regulação de IA europeia se limita a dar aos criadores o direito de pedir que seus dados, sem a remuneração adequada, não sejam usados no desenvolvimento de uma inteligência artificial.

No Brasil, contudo, o projeto de lei 2.804/2024, que versa sobre regulação econômica de big techs, ainda está em estágios iniciais de tramitação.

Outros países como Japão e Singapura não impõem limitações sobre o uso de dados em massa para treinar modelos de inteligência artificial.

A votação da regulação de IA foi adiada após a CNI apresentar nota técnica de 18 páginas crítico ao PL 2338/2023. O texto seria, para a entidade, "um modelo regulatório com amplitude e rigor sem precedente, o que coloca o país sob o risco de sofrer um isolamento tecnológico com impacto negativo sobre a sociedade como um todo e sobre a competitividade das atividades econômicas".

Uma das considerações da indústria, segundo apurou a Folha de S.Paulo, é a ameaça de algumas big techs de não instalarem data centers no Brasil caso a legislação seja aprovada na versão atual. As empresas vêm afirmando que o país seria um lugar ideal para instalar data centers, que têm alto consumo energético ?e o Brasil é grande produtor de energia limpa.

Brant argumenta que a CNI não representa todos os setores da economia brasileira. "Sem regulação o Brasil perde, e só as big techs ganham."

Comentários

Comentários