ANTENA DO POP - Diariamente o melhor do mundo POP, GEEK e NERD!
Shadow

As empresas de tecnologia podem proteger as eleições da manipulação alimentada pela IA?

As eleições deste ano são as primeiras com ferramentas generativas de IA que podem ser facilmente utilizadas tanto por indivíduos como por grandes organizações para produzir desinformação em grande escala. Mesmo que as empresas de tecnologia desenvolvam formas de prevenir e detectar conteúdos falsos, existem sérias preocupações de que não serão suficientes.

Por que nos importamos. É pouco provável que o impacto disto se limite ao marketing político. Os consumidores – especialmente os mais jovens – estão cada vez mais desconfiados da publicidade. A estudo recente no Reino Unido descobriram que apenas 13% da população confiava nos executivos de publicidade. As forças motrizes incluem o aumento de “notícias falsas” e campanhas antivacinação. A propagação de desinformação política também irá minar a confiança noutros temas.

Ontem, quando as convenções de Iowa deram início à temporada das primárias dos EUA, a OpenAI se tornou a mais recente empresa a tomar medidas para proteger os eleitores. A empresa disse que as pessoas não estão autorizadas a usar suas ferramentas para campanhas políticas e lobby para criar chatbots que se façam passar por candidatos, outras pessoas reais e governos locais.

“Enquanto nos preparamos para as eleições em 2024 nas maiores democracias do mundo, a nossa abordagem é continuar o nosso trabalho de segurança da plataforma, elevando informações precisas sobre votação, aplicando políticas ponderadas e melhorando a transparência”, afirmou a empresa num comunicado. postagem no blog.

No mês passado, o Google disse que restringiria as consultas eleitorais ao seu chatbot de IA, enquanto a Meta, controladora do Facebook, proibiu campanhas de usar ferramentas de publicidade de IA no ano passado.

Vá mais fundo: Quando a política ignora o marketing: uma história de advertência

A OpenAI também disse que planeja incorporar credenciais digitais da Coalition for Content Provenance and Authenticity (C2PA) em imagens geradas por Dall-E. Microsoft, Amazon, Adobe e Getty também estão trabalhando com C2PA nesta questão.

Embora estas sejam boas ações, o problema é que se aplicam apenas aos produtos dessas empresas, disse Chris Penn, cofundador e cientista-chefe de dados da TrustInsights.ai.

“Você verá a IA generativa sendo usada e abusada de maneiras francamente inacreditáveis”, disse Penn. “Temos um monte de atores estatais e não estatais que adorariam estragar completamente o processo eleitoral dos EUA e as ferramentas que vocês usam para construir esses enganos geradores estão disponíveis gratuitamente. Eles não podem ser regulamentados porque são de código aberto.”

2024 Car Sal Survey V1 800x450 Editado2024 Car Sal Survey V1 800x450 Editado

Participe da pesquisa de salários e carreiras de 2024 da Martech

Da IA às demissões, foi um ano e tanto. Gostaríamos de saber como tem sido para você. Responda a esta breve pesquisa para que possamos ter sua opinião sobre a situação dos salários e carreiras da Martech.


No entanto, as empresas também estão a tomar medidas que, dada a popularidade das suas plataformas, poderão mitigar parte da desinformação.

Mais atribuição

A OpenAI está banindo aplicativos que poderiam desencorajar a votação – dizendo que uma votação não tinha sentido, por exemplo. Também está direcionando perguntas sobre como e onde votar para CanIVote.org, operado pela Associação Nacional de Secretários de Estado. A empresa disse que está fornecendo cada vez mais links e atribuições a reportagens para ajudar os eleitores a avaliar a confiabilidade do texto gerado.

O Google exige que anúncios políticos que usam conteúdo significativo de IA tenham rótulos de advertência como:

  • “Esta imagem não retrata eventos reais.”
  • “Este conteúdo de vídeo foi gerado sinteticamente.”
  • “Este áudio foi gerado por computador.”
  • “Esta imagem não retrata eventos reais.”

Vá mais fundo: X (Twitter) marca seu lugar trazendo de volta anúncios políticos

A verdadeira solução é educar o público sobre o que a genAI pode fazer, disse Paul Roetzer, CEO do The Marketing AI Institute.

“A sociedade precisa melhorar a compreensão do que essas ferramentas são capazes”, disse Roetzer. “O cidadão comum não tem ideia de que é possível construir uma imagem ou criar um vídeo que pareça real. Eles vão acreditar nas coisas que veem online, e você não pode acreditar em nada que vê online.”

Infelizmente, pode ser tarde demais para que isso ajude nas eleições de 2024. É importante notar que esta é uma questão mundial: eleições de alto risco estão a ser realizadas em mais de 50 países este ano, incluindo o Reino Unido, a Índia, o México, o Paquistão e a Indonésia.

Obtenha a MarTech! Diário. Livre. Na sua caixa de entrada.