Uma empresa de tecnologia, ao desenvolver um novo software de reconhecimento facial, utiliza um banco de dados majoritariamente composto por rostos de pessoas brancas. Como consequência, o software apresenta uma taxa de erro significativamente maior ao identificar indivíduos de outras etnias. Sociologicamente, este é um exemplo de como a tecnologia pode reproduzir e amplificar preconceitos existentes na sociedade. Tal fenômeno é mais bem descrito como:
Inclusão digital forçada, ao obrigar grupos minoritários a se adaptarem a uma tecnologia falha.
Neutralidade tecnológica, pois o algoritmo em si não possui intenção discriminatória.
Racismo algorítmico, onde vieses sociais são incorporados em sistemas automatizados, perpetuando desigualdades.
Etnocentrismo reverso, pois a tecnologia privilegia um grupo em detrimento daquele que a desenvolveu.
0
O racismo algorítmico ocorre quando sistemas de inteligência artificial ou algoritmos refletem os vieses e preconceitos da sociedade em que foram criados. No caso, a falha em treinar o software com um banco de dados diverso resulta em um sistema que discrimina grupos étnicos não-brancos, perpetuando a desigualdade. A tecnologia não é neutra (A), a situação não é de inclusão forçada (B) e não se trata de etnocentrismo reverso (D).
Não perca a oportunidade de ajudar os outros. Cadastre-se ou faça login para adicionar uma solução!
Ajude a comunidade respondendo algumas perguntas.