9 Maio 2024, Quinta-feira

- PUB -
O impacto da Inteligência Artificial no debate público

O impacto da Inteligência Artificial no debate público

O impacto da Inteligência Artificial no debate público

Vivemos um período da história marcado por polarizações. O problema não está na existência de antagonismos na sociedade: a cultura democrática sempre se caracterizou pela capacidade de transformar inimigos em adversários legítimos, garantindo a todos o direito de defenderem as suas ideias. Contudo, nos últimos anos parece ser cada vez mais difícil enquadrar a crescente animosidade social nos princípios democráticos, assistindo-se a uma reversão destes valores.
É neste contexto que proponho debatermos o impacto da Inteligência Artificial no debate público.
Em meados deste ano, quando se adensou a polémica em torno da inteligência artificial generativa (IAG), os subscritores da carta aberta sobre os múltiplos perigos associados ao desenvolvimento da inteligência artificial generativa – como o ChatGPT – apontavam o aumento da desinformação como um dos malefícios temidos. Por sua vez, os que se pronunciaram contra a missiva desvalorizaram esta questão, argumentando que o incremento de fake news não introduzia alterações significativas no regime de propaganda automatizada em que já vivemos.
Em meu entender, não estamos simplesmente perante “mais do mesmo”, e por várias razões: a aceleração da produção de desinformação aumenta a velocidade da distribuição e a rapidez da substituição de uma fake news por outra. Neste cenário, a triagem dos factos é uma tarefa crescentemente inglória, uma vez que a atenção é disputada por uma sucessão de invenções. Mas onde o pensamento não age actuam as emoções, em particular as negativas, que são o móbil da maioria da desinformação estrategicamente produzida.
Juntemos a estas apreensões as imagens falsas de elevada qualidade que qualquer usuário desta tecnologia pode criar em minutos ou até mesmo segundos. O objectivo de quem as produz pode não ser convencer as pessoas de que um determinado evento aconteceu, mas simplesmente fazê-las acreditar que não podem confiar no que vêem. A dificuldade em discernir o verdadeiro do falso aumenta o cepticismo e institui a dúvida permanente.
Imagine-se agora um software deste tipo integrado em campanhas eleitorais: notícias falsas e imagens falsas construídas e distribuídas cirurgicamente à medida de cada um a partir de múltiplos dados dos usuários.
Só que não é preciso imaginar. Já acontece!
A criação de conteúdos híper-realistas, embora falsos, está a transformar esta ferramenta numa arma eleitoral muito perigosa e apesar das presidenciais norte-americanas serem apenas em Novembro de 2024, mensagens produzidas com a ajuda deste software já estão a fazer o seu caminho. Nos EUA, mas também em Portugal e outros países. Tal como na guerra da informação no conflito na Ucrânia e o na Faixa de Gaza – esta ferramenta é usada para alimentar conflitos políticos entre países, instituições e opiniões públicas internacionais e nacionais.
Apesar de esforços legislativos estarem em curso nos EUA e na UE, ainda não existem regras definidas para o uso de IAG em campanhas eleitorais. Mas há uma boa notícia: a Meta, a dona do Facebook e do Instagram, anunciou que vai exigir aos anunciantes políticos que identifiquem as imagens e vídeos gerados por inteligência artificial a partir do próximo ano. As novas regras terão impacto nas eleições presidenciais dos EUA de 2024. E espera-se que também nas eleições nos demais países.
A inteligência artificial é uma tecnologia relevante e útil, para além de que não há forma de revertê-la. Mas ela encerra também vários perigos. Uns já identificados. Outros ainda por descobrir e que só o tempo irá revelar.
A reversão dos valores democráticos não é causada pelas inovações tecnológicas, mas estas reforçam-na. Mais do que atrasar o desenvolvimento da IAG ou bani-la, é necessário agir rapidamente e em dois planos paralelos: por um lado, ensinar a usar e a pensar a inteligência artificial generativa; por outro, investir mais na sua regulação.

 

Síntese de intervenção na conferência promovida pela UNISETI em 10-11-2023

Partilhe esta notícia
- PUB -

Notícias Relacionadas

- PUB -
- PUB -