Assistentes virtuais reconhecem menos falas de pessoas negras — e a Siri é a pior delas O racismo se manifesta das formas mais inesperadas

Há alguns anos, um conjunto de estudos levantou muita polêmica ao evidenciar o papel do sexismo na construção das assistentes virtuais que equipam nossos dispositivos eletrônicos, como a Siri, a Alexa e o Google Assistente. Pois agora, um outro estudo chegou para trazer à baila a influência de mais uma mácula da sociedade nas assistentes: o racismo.

Publicidade

Recentemente, um grupo de pesquisadores da Universidade de Stanford reuniu sistemas de reconhecimento de voz de cinco gigantes tecnológicas — Apple, Amazon, Google, Microsoft e IBM — e fez um estudo completo sobre a capacidade dos sistemas de reconhecer comandos, comparando os resultados obtidos com pessoas brancas daqueles obtidos com pessoas negras. Os resultados foram publicados na última segunda-feira (23/3) e podem ser conferidos integralmente nessa página.

No total, foram analisados comandos e falas de 42 pessoas brancas e 73 pessoas negras; combinando os resultados de todas as empresas, os sistemas compreenderam incorretamente 19% dos termos proferidos pelos usuários brancos, e mais de 35% dos termos proferidos pelos negros; 2% das palavras proferidas pelos brancos foram consideradas incompreensíveis; esse índice subiu 10x, para 20%, no caso dos negros.

Analisando os resultados de cada empresa individualmente, a Microsoft foi a que se saiu melhor, enquanto a Apple apresentou as diferenças mais amplas entre os reconhecimentos de vozes de brancos e negros — todas elas, entretanto, apresentaram uma diferença significativa em algum grau.

Publicidade

Dois pontos, entretanto, precisam ser explicitados. O primeiro é que os pesquisadores não utilizaram as assistentes virtuais de cada empresa em si, e sim os sistemas de reconhecimento de fala disponibilizados publicamente por cada uma delas — no caso da Apple, por exemplo, o sistema pode não ser exatamente o mesmo daquele usado (de forma proprietária) pela Siri, ainda que ele siga os mesmos princípios e seja baseado nas mesmas tecnologias que possibilitam o funcionamento da assistente.

Além disso, é importante notar que os pesquisadores utilizaram, no caso das falas proferidas por pessoas negras, o inglês vernáculo afro-americano (IVAA), uma variação do inglês estadunidense comum que conta com uma boa quantidade de termos e estruturas linguísticas diferentes — isso porque, nos Estados Unidos, há uma variação considerável à língua falada por pessoas brancas e negras por conta dos séculos de segregação racial (ao contrário do Brasil, onde essas diferenças são menos marcadas).

Tudo isso serve para mostrar que os sistemas analisados podem ter problemas para reconhecer certas palavras e estruturas fraseais mais comuns no vocábulo associado à população negra dos EUA; não se trata, portanto, de uma dificuldade em reconhecer a voz de pessoas negras em si (caso um branco e um negro proferissem exatamente a mesma frase, as assistentes provavelmente as reconheceriam da mesma forma), e sim de reconhecer particularidades idiomáticas de uma parcela da população.

Publicidade

Isso, claro, não deixa de ser um problema. Obviamente, não dá para dizer que a Siri ou a Alexa são racistas, até porque elas não têm cérebro ou consciência (ainda); por outro lado, é inegável — após esses resultados — constatar que o racismo tenha influenciado a construção dessas assistentes e desses sistemas de reconhecimento. Não o racismo explícito, na cara, e sim aquele mais insidioso, estrutural, que coloca o modo de falar de pessoas brancas como padrão.

É algo a se pensar, não?

via The Verge

Publicidade
Taggeado:

Posts relacionados

Comentários

Carregando os comentários…