O proprietário do X respondeu ao regulador de mídia do Reino Unido, Ofcom, após sérias preocupações sobre o assistente de IA Grok da plataforma. A controvérsia surgiu após relatos que revelaram que a ferramenta de IA estava gerando conteúdo inadequado, retratando mulheres em cenários despidos, levantando questões sobre os padrões de moderação de conteúdo e os protocolos de segurança de IA na plataforma.
Ofcom iniciou uma investigação sobre como o X lida com material prejudicial gerado por seus recursos de IA. O incidente destaca as crescentes tensões entre a rápida implementação de IA e a supervisão regulatória em plataformas tecnológicas. A resposta do X ao regulador marca um momento crítico, à medida que as autoridades em todo o mundo intensificam o escrutínio sobre sistemas de IA generativa e seu potencial de uso indevido.
O caso destaca desafios mais amplos enfrentados pelas empresas de tecnologia: equilibrar inovação com uma governança responsável de IA. À medida que as ferramentas de IA se tornam mais integradas às plataformas tradicionais, questões sobre barreiras de segurança, filtragem de conteúdo e proteção do usuário tornaram-se cada vez mais urgentes para os atores da indústria e reguladores.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
7 Curtidas
Recompensa
7
3
Repostar
Compartilhar
Comentário
0/400
SerumSquirrel
· 12h atrás
Grok voltou a fazer esta asneira... a sério, ferramentas de IA são atualmente uma zona sem lei, atrevem-se a tudo
A regulação de inteligência artificial realmente precisa acompanhar, senão estas coisas vão ficar cada vez mais absurdas
Musk desta vez vai levar uma boa repreensão da Ofcom, bem merecido
Para ser honesto, é apenas não ter controlado bem a sua ferramenta, agora está a sofrer as consequências
O problema de segurança em IA sempre existiu, é apenas que ninguém levava a sério... até acontecer algo
Nesta época, as empresas de tecnologia só querem lançamentos rápidos, nem sequer pensam em questões éticas
Depois que a regulação chega é que começam a fingir que se importam, é o típico poluir primeiro e tratar depois
Ver originalResponder0
MerkleTreeHugger
· 12h atrás
grok voltou a fazer confusão... Por isso é que eu digo que a IA ainda não está preparada e está sendo colocada na plataforma, os moderadores não aguentam
Ver originalResponder0
ContractHunter
· 12h atrás
grok esta coisa é realmente absurda, gerar conteúdo inadequado e ainda por cima com toda a descaro... quando a fiscalização chega à porta, finge colaborar, típico de quem foi apanhado em flagrante
O proprietário do X respondeu ao regulador de mídia do Reino Unido, Ofcom, após sérias preocupações sobre o assistente de IA Grok da plataforma. A controvérsia surgiu após relatos que revelaram que a ferramenta de IA estava gerando conteúdo inadequado, retratando mulheres em cenários despidos, levantando questões sobre os padrões de moderação de conteúdo e os protocolos de segurança de IA na plataforma.
Ofcom iniciou uma investigação sobre como o X lida com material prejudicial gerado por seus recursos de IA. O incidente destaca as crescentes tensões entre a rápida implementação de IA e a supervisão regulatória em plataformas tecnológicas. A resposta do X ao regulador marca um momento crítico, à medida que as autoridades em todo o mundo intensificam o escrutínio sobre sistemas de IA generativa e seu potencial de uso indevido.
O caso destaca desafios mais amplos enfrentados pelas empresas de tecnologia: equilibrar inovação com uma governança responsável de IA. À medida que as ferramentas de IA se tornam mais integradas às plataformas tradicionais, questões sobre barreiras de segurança, filtragem de conteúdo e proteção do usuário tornaram-se cada vez mais urgentes para os atores da indústria e reguladores.