Empresas líderes no campo da inteligência artificial (IA), incluindo gigantes como a Google, Meta e TikTok, se uniram para assinar um acordo que visa o desenvolvimento de tecnologias capazes de identificar, rotular e controlar imagens, vídeos e gravações de áudio gerados por IA que possam enganar eleitores nas eleições nacionais em 2024. O acordo ainda está em fase de elaboração e deve ser apresentado na Munich Security Conference, nesta sexta-feira (16).
A Munich Security Conference é o principal fórum independente para diálogos entre líderes globais sobre segurança internacional, realizada anualmente em fevereiro no Hotel Bayerischer Hof, em Munique, Alemanha. Este evento promove discussões abertas e construtivas entre líderes políticos, especialistas em segurança e busca soluções para desafios globais de segurança, focando em temas como defesa, conflitos armados, proliferação nuclear, terrorismo, cibersegurança, migração, mudanças climáticas, e questões atuais como a guerra na Ucrânia.
Sob o lema “Paz através do Diálogo”, a MSC visa fortalecer a segurança internacional, incentivando a cooperação global para enfrentar desafios contemporâneos. A Conferência também serve como plataforma para networking entre líderes e especialistas, que, juntos, podem identificar tendências, tensões e ameaças emergentes, contribuindo assim para decisões e medidas preventivas contra conflitos potenciais.
Um relatório dos organizadores da Munich Security Conference apresentado na segunda-feira (12), mostrou como as desconfianças em torno da inteligência artificial aumentaram no último ano nas principais economias globais, especialmente na Itália, França e Brasil. Tentativas de interferência em eleições geradas por IA já começaram, como quando ligações automáticas de IA que imitavam a voz do Presidente dos EUA, Joe Biden, tentaram desencorajar as pessoas a votar na eleição primária de New Hampshire no mês passado.
“Em um ano crítico para eleições globais, empresas de tecnologia estão trabalhando em um acordo para combater o uso enganoso de IA direcionado aos eleitores”, disse um comunicado conjunto de várias empresas na terça-feira. “Adobe, Google, Meta, Microsoft, OpenAI, TikTok e outras estão trabalhando conjuntamente em direção ao progresso neste objetivo compartilhado e esperamos finalizar e apresentar detalhes na sexta-feira na Conferência de Segurança de Munique”, disse um comunicado conjunto de várias empresas na terça-feira (13).
As empresas já estão implementando salvaguardas em suas próprias ferramentas de IA generativa que podem manipular imagens e som, enquanto também trabalham para identificar e rotular conteúdo gerado por IA para que os usuários de mídias sociais saibam se o que estão vendo é real. Este novo acordo espelha um compromisso voluntário das empresas, reforçando a determinação em identificar, rotular e educar sobre conteúdo falso de IA, além de serem transparentes em seus esforços para combater a disseminação de deepfakes.
A iniciativa reflete um reconhecimento crescente dentro da indústria tecnológica sobre a necessidade urgente de abordar as implicações éticas e sociais da IA, especialmente em contextos políticos. A medida que avançamos, a cooperação entre empresas, reguladores e a sociedade será crucial para garantir que a tecnologia sirva ao bem comum, protegendo a integridade e a justiça dos processos eleitorais em todo o mundo.