Discriminação Algorítmica: você está atento a isso?

Em 24 de Janeiro de 2019

Compartilhe o conteúdo!

Estamos prestes a vivenciar uma grande revolução provocada pelos avanços tecnológicos, sobretudo por aqueles relacionados a Big Data, Inteligência Artificial e Machine Learning, que influenciarão a forma como aprendemos, nos relacionamos, interagimos em sociedade e consumimos. Mas isso requer cuidado e atenção.


É inegável que essa revolução afetará todos os mercados. Já estamos presenciando impactos importantes na agricultura, na educação, no mercado financeiro, na segurança pública. Não há segmento que fique de fora, e as startups estão puxando essas inovações e agitando mercados já consolidados. Em meio a esse emaranhado de redes neurais capazes de estabelecer padrões baseados em dados históricos e, a partir deles, aprender sobre determinados comportamentos apontando tendências, é possível haver distorções de análise. Essas distorções podem ser provocadas por comportamentos culturais, características físicas e anos de preconceitos sociais que subjugam diversos grupos.

O nome que se tem dado a isso é Discriminação Algorítmica (algorithm bias). O assunto tem sido explorado por alguns pesquisadores, como Joy Buolamwini, fundadora da Algorithmic Justice League 1, que busca conscientizar sobre o problema e combatê-lo. Em um TEDx de 2016 que já teve mais de 1 milhão de visualizações, ela cita como exemplo modelos de reconhecimento facial que não identificavam faces negras. Mas o problema está longe de ser apenas esse. O algoritmo do sistema de justiça americano (Correctional Offender Management Profiling for Alternative Sanctions - COMPAS) usado para prever reincidência criminal, por exemplo, tende a indicar, de maneira errada, que a probabilidade de reincidência entre negros é até duas vezes maior do que entre brancos, conforme divulgado no estudo do Dartmouth College 2.Essas situações decorrem de um problema estrutural da sociedade e demonstram como novas tecnologias podem atuar reforçando preconceitos.

Em Inovação, sabemos da importância de grupos heterogêneos e multidisciplinares para alcançar soluções que busquem a inclusão; em IA isso é particularmente preocupante, dado o potencial de avanço e disseminação. Mais do que estar atentos à forma como os dados são utilizados, precisamos analisar a maneira como os modelos e algoritmos são construídos e calibrados. Só assim seremos capazes de fazer com que aprendam com nossos acertos, sem os vícios e preconceitos que tanto ferem nossa sociedade e dos quais ainda tentamos nos livrar.

Fonte: ajlunited / ScienceMag

conteÚdos relacionados

Pieracciani participará da ABPlan 2019

Saiba mais
Evento: Como criar um processo para  gerir o Rota 2030 de forma eficiente

Valter Pieracciani terá palestra sobre Inovação Emocional na ABCasa Fair 2019

Saiba mais
Já ouviu falar sobre Inovação Emocional?

Segundo pesquisa realizada em 2018 pelo SPC (Serviço de Proteção ao Crédito), o brasileiro passa em média 1h28 minutos

Saiba mais
Carros do futuro: onde estamos, quais os desafios e próximos passos

Além de estabelecer as normas para a fabricação dos automóveis produzidos e comercializados no Brasil nos próximos 11 anos

Saiba mais
Evento: Caminhos para o aproveitamento integral do Rota 2030