Um documento interno da Meta Platforms que detalha políticas sobre o comportamento de chatbots permitiu que as criações de IA da empresa 'envolvessem uma criança em conversas que são românticas ou sensuais' e gerassem informações médicas falsas.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
22 gostos
Recompensa
22
8
Republicar
Partilhar
Comentar
0/400
LightningPacketLoss
· 08-17 12:54
Estou realmente enojado...
Ver originalResponder0
DefiVeteran
· 08-17 10:34
Nem os cães Meta são necessários.
Ver originalResponder0
DeFiDoctor
· 08-17 05:36
A equipe Meta tem sintomas clínicos de IA que são realmente perigosos.
Ver originalResponder0
GateUser-739905de
· 08-14 17:07
Vamos lá💪
Ver originalResponder0
CryptoPhoenix
· 08-14 14:13
Já confiaste na natureza humana outra vez, não é? As grandes empresas também não são confiáveis.
Um documento interno da Meta Platforms que detalha políticas sobre o comportamento de chatbots permitiu que as criações de IA da empresa 'envolvessem uma criança em conversas que são românticas ou sensuais' e gerassem informações médicas falsas.