Conselho de Supervisão da Meta avalia tratamento de deep fakes explícitos

O Conselho de Supervisão é um corpo independente de especialistas estabelecido pela Meta em 2020, para revisar as decisões mais desafiadoras de moderação de conteúdo da empresa no Facebook, Instagram e Threads.

Foi anunciado na terça-feira que o conselho avaliará o tratamento pela Meta de dois casos envolvendo imagens sexualmente explícitas geradas por IA que retratam figuras públicas femininas.

O conselho possui 20 membros ao redor do mundo, incluindo advogados, defensores dos direitos humanos, jornalistas e acadêmicos.

Ele opera independentemente da Meta, com sua própria equipe e orçamento, e pode tomar decisões vinculativas sobre o conteúdo que a Meta deve implementar, a menos que isso viole a lei.

O conselho também pode emitir recomendações de políticas não vinculativas para a Meta.

Em uma postagem no blog, o Conselho de Supervisão declarou: “Hoje, o Conselho está anunciando dois novos casos para consideração. Como parte disso, estamos convidando pessoas e organizações a enviarem comentários públicos.”

O primeiro caso envolve uma imagem explícita gerada por IA postada no Instagram, projetada para retratar uma figura pública da Índia.

De acordo com o Conselho, “A imagem foi criada usando inteligência artificial (IA) para se assemelhar a uma figura pública da Índia. A conta que postou esse conteúdo compartilha apenas imagens geradas por IA de mulheres indianas. A maioria dos usuários que reagiram têm contas na Índia, onde os deepfakes estão se tornando cada vez mais um problema.”

O segundo caso diz respeito a uma imagem postada em um grupo do Facebook dedicado a criações de IA, apresentando uma mulher nua gerada por IA, que se assemelha a uma figura pública americana, e sendo apalpada por um homem.

O Conselho de Supervisão comentou: “Ela apresenta uma imagem gerada por IA de uma mulher nua com um homem apalpando seu seio. A imagem foi criada com IA para se assemelhar a uma figura pública americana, que também é nomeada na legenda. A maioria dos usuários que reagiram têm contas nos Estados Unidos.”

Inicialmente, a Meta permitiu que a imagem da figura pública indiana permanecesse no Instagram, mas mais tarde a removeu por violar seu Padrão da Comunidade de Assédio e Intimidação, após o Conselho de Supervisão selecionar o caso para revisão.

A Meta removeu a imagem da figura pública americana por violar a mesma política, especificamente a cláusula que proíbe “edição sexualizada depreciativa ou desenhos.”

O Conselho de Supervisão declarou que “selecionou esses casos para avaliar se as políticas da Meta e suas práticas de aplicação são eficazes para lidar com imagens explícitas geradas por IA. Este caso está alinhado com a prioridade estratégica de gênero do Conselho.”

Como parte de seu processo de revisão, o Conselho está buscando comentários públicos sobre vários aspectos dos casos, incluindo “a natureza e a gravidade dos danos causados pela pornografia deepfake”, “informações contextuais sobre o uso e a prevalência da pornografia deepfake globalmente” e “estratégias para como a Meta pode abordar a pornografia com deepfake em suas plataformas.”

O período de comentários públicos permanecerá aberto por 14 dias, encerrando em 30 de abril. O Conselho de Supervisão então deliberará sobre os casos e emitirá suas decisões, que serão vinculativas para a Meta. Quaisquer recomendações de política que o Conselho fizer serão não vinculativas, mas a Meta deve responder a elas dentro de 60 dias.

O anúncio do Conselho de Supervisão vem em meio a crescentes preocupações sobre a proliferação de pornografia deepfake não consensual que visa mulheres, particularmente celebridades.

Taylor Swift foi o alvo mais repercutido, com imagens explícitas geradas por IA da cantora desencadeando uma caçada digital pelo perpetrador.

Em resposta à crescente ameaça da pornografia deepfake, legisladores introduziram o Ato DEFIANCE em janeiro, que permitiria às vítimas de deepfakes não consensuais processar se pudessem provar que o conteúdo foi feito sem seu consentimento.

A congressista Alexandria Ocasio-Cortez, que patrocinou o projeto de lei e foi ela mesma alvo de pornografia deepfake, enfatizou a necessidade de o Congresso agir para apoiar as vítimas à medida que os deepfakes se tornam mais acessíveis.

Teremos o maior prazer em ouvir seus pensamentos

Deixe uma Comentário

IA Tech Brasil
Logo
Shopping cart