A Microsoft entrou na luta contra a desinformação promovida pela IA. Na última terça-feira (07), a big tech anunciou que vai oferecer serviços para a proteção de candidatos e campanhas eleitorais contra deepfakes antes das eleições de 2024 nos Estados Unidos. Um dos recursos será uma marca d’água permanente, que inclui informações da data, procedência e autoria de uma imagem, para que ela não possa ser manipulada.
O anúncio foi feito através de uma postagem de blog, de coautoria de Brad Smith, presidente da Microsoft, e Teresa Hutson, vice-presidente corporativa de Tecnologia para Direitos Fundamentais.
Contexto
O anúncio da Microsoft vem em meio a uma crescente preocupação com o potencial da IA para manipular imagens, vídeos e outros tipos de conteúdo, possivelmente afetando as eleições do ano que vem.
A tecnologia, inclusive, já protagonizou alguns casos desse tipo, como quando uma imagem manipulada mostrou o então presidente Donald Trump abraçando Anthony Fauci, conselheiro médico dos Estados Unidos durante a pandemia da Covid-19. Outro caso foi quando o Partido Republicano dos EUA veiculou um vídeo mostrando o país em um cenário apocalíptico caso Joe Biden vencesse a disputa presidencial pela reeleição.
Microsoft contra deepfakes de IA
- No post de blog, os executivos da Microsoft declararam que a empresa vai oferecer serviços para proteger a integridade eleitoral com o objetivo de ajudar os candidatos a se protegerem da desinformação e manipulação.
- Um dos recursos será uma marca d’água desenvolvida pela Coalition for Content Provenance Authenticity’s (C2PA), que permite anexar informações relacionadas à origem da imagem para que ela não seja tirada de contexto.
- Quem desenvolverá a ferramenta para a Microsoft será a equipe Azure.
- De acordo com o site The Verge, o recurso será lançado na primavera dos Estados Unidos no ano que vem, que vai de março a maio, e disponibilizado inicialmente apenas para campanhas políticas.
- Ainda, a empresa formou uma equipe que apoia essas campanhas políticas para fortalecer a proteção cibernética em relação à IA.
Fonte: Olhar Digital