Nova Delhi: A inteligência artificial (IA) pode dizer se você está feliz, triste, irritado ou frustrado? De acordo com empresas de tecnologia que oferecem software de reconhecimento de emoções habilitado para IA, a resposta a esta pergunta é sim.
Mas esta afirmação não se compara às crescentes evidências científicas.
Além do mais, a tecnologia de reconhecimento de emoções apresenta uma série de riscos legais e sociais – especialmente quando implantada no local de trabalho.
Por estas razões, a Lei da IA da União Europeia, que entrou em vigor em Agosto, proíbe os sistemas de IA utilizados para inferir emoções de uma pessoa no local de trabalho – excepto por razões “médicas” ou de “segurança”.
Na Austrália, contudo, ainda não existe regulamentação específica destes sistemas. Tal como argumentei na minha apresentação ao governo australiano na sua mais recente ronda de consultas sobre sistemas de IA de alto risco, isto precisa urgentemente de mudar.
Uma nova e crescente onda
O mercado global de sistemas de reconhecimento de emoções baseados em IA está a crescer. Foi avaliado em 34 mil milhões de dólares em 2022 e deverá atingir 62 mil milhões de dólares em 2027.
Essas tecnologias funcionam fazendo previsões sobre o estado emocional de uma pessoa a partir de dados biométricos, como frequência cardíaca, umidade da pele, tom de voz, gestos ou expressões faciais.
No próximo ano, a startup australiana de tecnologia inTruth Technologies planeja lançar um dispositivo de pulso que afirma poder rastrear as emoções do usuário em tempo real por meio de sua frequência cardíaca e outras métricas fisiológicas.
A fundadora da inTruth Technologies, Nicole Gibson, disse que esta tecnologia pode ser usada pelos empregadores para monitorar o “desempenho e energia” de uma equipe ou sua saúde mental para prever problemas como transtorno de estresse pós-traumático.
Ela também disse que inTruth pode ser um “treinador emocional de IA que sabe tudo sobre você, incluindo o que você está sentindo e por que está sentindo”.
Tecnologias de reconhecimento de emoções em locais de trabalho australianos
Existem poucos dados sobre a implantação de tecnologias de reconhecimento de emoções nos locais de trabalho australianos.
No entanto, sabemos que algumas empresas australianas usaram um sistema de entrevistas em vídeo oferecido por uma empresa sediada nos EUA chamada HireVue, que incorporava análise emocional baseada em rostos.
Este sistema utilizou movimentos e expressões faciais para avaliar a adequação dos candidatos a empregos. Por exemplo, os candidatos foram avaliados quanto à forma como expressavam entusiasmo ou como respondiam a um cliente irritado.
A HireVue removeu a análise emocional de seus sistemas em 2021, após uma reclamação formal nos Estados Unidos.
O reconhecimento de emoções pode estar aumentando novamente à medida que os empregadores australianos adotam tecnologias de vigilância no local de trabalho baseadas em inteligência artificial.
Falta de validade científica
Empresas como a inTruth afirmam que os sistemas de reconhecimento de emoções são objetivos e enraizados em métodos científicos.
No entanto, os estudiosos levantaram preocupações de que estes sistemas envolvam um retorno aos campos desacreditados da frenologia e da fisionomia. Ou seja, o uso das características físicas ou comportamentais de uma pessoa para determinar suas habilidades e caráter.
As tecnologias de reconhecimento de emoções dependem fortemente de teorias que afirmam que as emoções internas são mensuráveis e expressas universalmente.
No entanto, evidências recentes mostram que a forma como as pessoas comunicam as emoções varia amplamente entre culturas, contextos e indivíduos.
Em 2019, por exemplo, um grupo de especialistas concluiu que “não existem medidas objetivas, isoladamente ou como um padrão, que identifiquem categorias emocionais de forma confiável, única e replicável”. Por exemplo, a umidade da pele de alguém pode aumentar, diminuir ou permanecer igual quando ela está com raiva.
Em declaração ao The Conversation, Nicole Gibson, fundadora da inTruth Technologies, disse que “é verdade que as tecnologias de reconhecimento de emoções enfrentaram desafios significativos no passado”, mas que “o cenário mudou significativamente nos últimos anos”.
Violação de direitos fundamentais
As tecnologias de reconhecimento de emoções também colocam em risco os direitos fundamentais sem a devida justificação.
Descobriu-se que eles discriminam com base na raça, no género e na deficiência.
Num caso, um sistema de reconhecimento de emoções leu os rostos negros como mais irritados do que os brancos, mesmo quando ambos sorriam no mesmo grau. Estas tecnologias também podem ser menos precisas para pessoas de grupos demográficos não representados nos dados de formação.
Gibson reconheceu preocupações sobre o preconceito nas tecnologias de reconhecimento de emoções. Mas ela acrescentou que “o preconceito não é inerente à tecnologia em si, mas sim aos conjuntos de dados usados para treinar esses sistemas”. Ela disse que a inTruth está “comprometida em abordar esses preconceitos” usando “conjuntos de dados diversos e inclusivos”.
Como ferramenta de vigilância, os sistemas de reconhecimento de emoções no local de trabalho representam sérias ameaças aos direitos de privacidade. Tais direitos podem ser violados se informações confidenciais forem coletadas sem o conhecimento do funcionário.
Haverá também uma falha no respeito dos direitos de privacidade se a recolha de tais dados não for “razoavelmente necessária” ou por “meios justos”.
Opiniões dos trabalhadores
Uma pesquisa publicada no início deste ano descobriu que apenas 12,9% dos adultos australianos apoiam tecnologias de reconhecimento de emoções baseadas no rosto no local de trabalho. Os pesquisadores concluíram que os entrevistados consideraram a análise facial invasiva. Os entrevistados também consideraram a tecnologia antiética e altamente propensa a erros e preconceitos.
Num estudo norte-americano também publicado este ano, os trabalhadores expressaram preocupação com o facto de os sistemas de reconhecimento de emoções prejudicarem o seu bem-estar e afetarem o desempenho no trabalho.
Eles temiam que imprecisões pudessem criar falsas impressões sobre eles. Por sua vez, estas falsas impressões podem impedir promoções e aumentos salariais ou mesmo levar ao despedimento.
Como afirmou um participante: Não consigo ver como é que isto poderia ser outra coisa senão destrutivo para as minorias no local de trabalho.