Para Angela Mills Wade, diretora executiva do Conselho europeu de Editores, a melhor saída, inclusive para o Brasil, é usar uma lei de concorrência para delimitar a atuação das big techs e empresas de IA.
O crescente uso de inteligência artificial (IA), sobretudo das ferramentas generativas, levará a uma piora exponencial no compartilhamento de notícias falsas e desinformação, avalia Angela Mills Wade, diretora executiva do Conselho Europeu de Editores. A organização reúne veículos de imprensa — em rádio, TV, online e outros —, incluindo títulos como The Guardian, El País e Financial Times. “É um problema para a sociedade e para a democracia. É massivo”, diz.
Para ela, porém, esse movimento leva políticos e governos a evoluírem com mais agilidade em regulação de grandes plataformas digitais, como Facebook e Instagram, da Meta, e o Google, da Alphabet. A melhor saída, aponta, inclusive para o Brasil, é usar uma lei de concorrência para delimitar a atuação das big techs e empresas de IA.
Como editores, o que podemos fazer é fornecer conteúdo de qualidade como alternativa (a notícias falsas). A questão da classificação, de como essas plataformas digitais dão prioridade ao conteúdo é um problema. Tudo, desde conteúdo ilegal e prejudicial até enganoso e desinformação, é uma questão de concorrência, e é tratado, até certo ponto, pela Lei de Mercados Digitais (DMA, na sigla em inglês).
Sob a Lei de Serviços Digitais (DSA), haverá um código obrigatório da prática sobre desinformação. Ainda é um código de conduta voluntário, mas até o próximo ano será integralmente parte da DSA.
A desinformação é um dos principais problemas?
É um problema enorme e vai piorar exponencialmente por causa da inteligência artificial. A capacidade do conteúdo gerado por IA ser desde completamente errado até altamente enganoso vai piorar, porque não é apenas texto. É a capacidade também de criar fotos e vídeos falsos, em toda a gama de deep fakes. Isso é um problema para a sociedade e para a democracia. É massivo.
O que podemos fazer como editores? Seguir fazendo jornalismo orientado profissionalmente e o máximo possível para fazer os leitores virem a nossos sites e não clicarem em notícias falsas.
O advento da IA pode acelerar a regulação das “big techs”?
A Comissão Europeia tomou uma posição há vários anos dizendo: “Chega. Precisamos de um quadro regulamentar para fornecer os ‘faça e não faça’ do mundo digital, impor obrigações e proibições às plataformas digitais e instalar algum tipo de código de monopólio, de regra que possa ser verificada, aplicada e, se necessário, que uma ação legal seja tomada por não conformidade.
Google: novo sistema de buscas que usa inteligência artificial traz preocupação, dizem especialistas
Isso foi feito especialmente com o DMA. O DSA é mais difícil porque está cobrindo áreas já regidas por lei. Até março, o DMA tem de estar feito. Até o Natal, as plataformas digitais devem notificar os comissários sobre como cumprirão a regulamentação.
E se não for assim?
Temos a oportunidade de mover ações legais contra as grandes plataformas digitais. É muito mais difícil do que tudo o que vimos até aqui. A remuneração por conteúdo autoral é parte da Diretiva de Direitos Autorais, que não é uma regulamentação.
Veja o resultado: Testamos o sistema do Google que gera respostas com uma IA generativa
Não há nada obrigatório, exceto o princípio geral de direitos autorais: se você é o detentor do conteúdo, tem o direito de determinar os termos e condições em que esse conteúdo é usado.
Mas a revolução digital jogou tudo isso em um mundo caótico onde as grandes plataformas avançam. A IA é algo com que os governos se importam. Os políticos veem claramente qual pode ser o dano à sociedade, à democracia e até a eles mesmos, se forem alvo de deep fakes.