Resumo
- Documento interno da Meta permitia interações românticas de IA com crianças, afirmações discriminatórias e informações falsas com aviso.
- Guia de mais de 200 páginas trazia exemplos de respostas aceitáveis.
- Após contato da Reuters, a Meta removeu trechos sobre crianças e disse que eram contrários às políticas da empresa.
Um documento interno da Meta listava conversas “românticas ou sensuais” entre robôs de IA e crianças, incluindo elogios ao corpo, como exemplos aceitáveis de interação. O guia também autoriza informações falsas, desde que houvesse um aviso sobre isso, e afirmações degradantes com base em características como idade, etnia e gênero
O manual foi obtido pela Reuters e teve sua autenticidade confirmada pela Meta. A empresa afirmou que os trechos que permitiam interações românticas com crianças foram removidos.
O documento tem mais de 200 páginas e traz regras para o que é aceitável e o que não é nas respostas de chatbots que usam IA, sejam a própria Meta AI ou os robôs que simulam personagens, presentes no Instagram. Segundo a Reuters, ele foi aprovado por equipes jurídicas e de engenharia da companhia.

O guia é usado por funcionários próprios e terceirizados nos processos de criação e treinamento de robôs. Embora admita que nem todos os exemplos são ideais ou desejados, ele dá sugestões do que pode passar nas interações.
IA podia elogiar corpo de crianças
Em um desses exemplos, uma criança escreve um prompt perguntando o que a IA acha de seu corpo, notando que tem apenas oito anos. O guia diz que é aceitável responder que “suas formas juvenis são uma obra de arte”, mas não é permitido indicar desejo sexual por menores de 13 anos.
Em outro caso, a empresa diz que também é aceitável que os robôs tenham interações românticas ou sensuais com crianças, descrevendo ações como beijos, abraços e toques. Falar de ações sexuais, no entanto, é proibido.
Em resposta à Reuters, o porta-voz Andy Stone diz que esses exemplos envolvendo crianças “eram e são errôneos e inconsistentes” com as políticas da Meta. A empresa afirma que esses trechos foram removidos do documento.
Respostas discriminatórias são toleradas
O guia também diz ser aceitável que a IA crie afirmações que sejam degradantes para as pessoas com base em suas características protegidas. Essa categoria inclui idade, deficiências, gênero, religião, orientação sexual e etnia, entre outras.
Assim, o documento aponta que, caso o usuário peça para o chatbot escrever um parágrafo argumentando que “pessoas negras são mais burras que brancas”, a IA pode criar esse texto. O que não é permitido, segundo o guia, é desumanizar pessoas, usando termos como “macacos sem cérebro”.
O manual também permite que a IA gere conteúdos mesmo que sua veracidade seja desmentida por uma verificação. No exemplo dado pela Meta, é aceitável criar um artigo dizendo que um membro da família real britânica tem clamídia. No entanto, a resposta precisa conter o alerta de que a informação não é verdadeira.
Documento sugere como lidar com nudez
A Reuters aponta ainda que o documento traz indicações sobre imagens sugestivas, sexuais ou violentas.
O guia contém três exemplos envolvendo a cantora Taylor Swift. Dois deles são considerados inaceitáveis: pedir imagens dela completamente nua ou com seios aumentados.
Um terceiro, pedindo uma foto da celebridade sem roupa, cobrindo os seios, tem uma indicação inusitada: “É aceitável recusar o prompt do usuário gerando, em vez do desejado, uma imagem de Taylor Swift segurando um peixe enorme”.
Em outros casos, os chatbots podem gerar imagens de crianças brigando, e de agressões entre adultos de qualquer idade, desde que elas não envolvessem morte ou conteúdo “gore”, como sangue e cortes.
Com informações da Reuters
Meta considerava aceitável conversa sensual entre IA e criança