Chatboat -Companhia

Embora as tecnologias de caracteres argumentem que a atualização dos métodos de segurança ao longo do tempo é comum, a equipe de Garcia alega que essas atualizações mostram que o CAI poderia criar um produto seguro e não escolhê -lo.

A IA especialista se aquece contra a concedida direitos do produto

Tecnologias de caracteres também argumentaram que a C.Ai não é um “produto” porque a lei da Flórida explicou. De acordo com Kimley Carlton, o Centro de Política de Tecnologia Humana, Kimley Carlton, as implicações da indústria são incríveis, que servem como especialista técnico nesse assunto.

Em um briefing da imprensa, Carlton sugeriu que “com a ajuda das preocupações da Primeira Emenda sobre o discurso, sem dizer qual discurso está sendo protegido, a defesa do personagem Doti realmente lançou as bases para um mundo em que os resultados da LLM têm discursos seguros e outros direitos humanos para os direitos humanos”.

Como a bota de bate -papo sai não parece ter reservas da Seção 230 – Jane observou que é surpreendente que as tecnologias de personagens não tenham aumentado essa defesa – uma fabricante de botas de bate -papo está tentando garantir a primeira emenda como escudo.

“Este é um movimento que os incentiva a tomar, porque reduzirá sua própria responsabilidade e sua própria responsabilidade”, disse Carlton.

Jane espera quem toma a decisão, o perdedor apelará. No entanto, se quem nega esse movimento, a descoberta pode começar, talvez Garcia possa ter uma teoria clara nos supostos bate -papos prejudiciais, que ele acredita que acredita que fez seu filho se sentir completamente desconectado do mundo real.

Se os tribunais aprovarem tais direitos aos produtos da IA ​​no conselho, Carlton alertou, que pais agredidos como Garcia podem não ter apoio para consequências potencialmente perigosas.

“Esse problema pode basicamente dar uma nova olhada em como a IA está perto da liberdade de expressão e responsabilidade corporativa”, disse Carlton. “E acho que a linha abaixo do nosso ponto de vista – e o que estamos vendo em termos de caráter e as tendências mais amplas desses laboratórios de IA, estamos vendo que precisamos dobrar o fato de que esses são produtos. Eles não são pessoas”.

As tecnologias de caracteres se recusaram a solicitar comentários do ARS.

Se você ou você sabe que está cometendo suicídio ou está com problemas, ligue para o número da linha de salvação da prevenção do suicídio, 1-800-273 Talk (8255), que entrará em contato com você no Centro de Crises Local.

Link da fonte

Artigos Relacionados

Botão Voltar ao Topo