A Meta em breve usará IA para a maioria das avaliações de risco de produto em vez de avaliações humanas

De acordo com um relatório de Os meta -planos de alterar a tarefa de avaliar os possíveis danos de seus produtos daqueles que avaliam as pessoas; em vez disso, confiam na IA para acelerar o processo. Documentos internos são vistos pelas publicações, observam que a meta está visando 90 % da avaliação de risco da IA, NPR Relatórios e estão considerando o uso de análises de IA, mesmo em áreas como adolescentes e “integridade”, incluindo conteúdo violento, informações falsas e muito mais. Atualmente sem nome e ex -meta -funcionário falou NPR Aviso a IA pode ignorar riscos sérios que um grupo de pessoas poderá determinar.

Novas atualizações e recursos para meta plataformas, incluindo Instagram e WhatsApp, estão sujeitos a críticas humanas antes de atacarem o público, mas a Meta dobrou ao usar a IA nos últimos dois meses. Agora, siga NPR, Os grupos de produtos devem preencher um questionário sobre seus produtos e enviá -lo a considerar por Sistema de IAFrequentemente, fornece uma “decisão instantânea” que inclui as áreas de risco que ela é determinada. Depois disso, eles terão que resolver quaisquer requisitos que ele tenha para resolver problemas antes que o produto possa ser lançado.

Um ex -meta CEO disse NPR Reduzir a consideração cuidadosa “significa que você está criando um risco maior. O lado externo negativo da mudança de produtos tem menos probabilidade de ser evitado antes que eles comecem a causar problemas no mundo”. Em comunicado NPRA Meta disse que ainda explorará a “experiência humana” para avaliar “questões novas e complexas” e deixar “decisões de baixo risco” para a IA. Leia o relatório completo em .

Chegou alguns dias após o lançamento da meta – primeiro de E No início deste ano. O número de conteúdo removido diminuiu surpreendentemente após a mudança, de acordo com o relatório. Mas há um pequeno aumento no bullying e assédio, além de violência e gráficos.

Link da fonte

Artigos Relacionados

Botão Voltar ao Topo