Lew Company

A INTELIGÊNCIA ARTIFICIAL E SEUS VIESES

11/11/2019

Estamos todos focados em fazer um trabalho massivo nas organizações para à conscientização dos Vieses Inconscientes, quanto às suas consequências ao ambiente de trabalho, à imagem da empresa e de seus produtos no mercado. Porém, com a chegada e propagação da inteligência artificial fica aqui um convite à reflexão: Considerando que a Inteligência Artificial não tem consciência, ela está isenta de Vieses Inconscientes? Será a IA menos tendenciosa que a humana ou torna a questão ainda mais complexa?

Em pesquisas diversas e sérias ao redor do mundo, nos confrontamos com, ao menos, duas possibilidades para a questão acima:

  • A primeira delas é a de que a IA, justamente por ser isenta de consciência própria, estaria, graças à exatidão dos algoritmos, isenta dos vieses inconscientes. Será?
  • Já a segunda possibilidade foi a de se utilizar a própria “racionalidade” da IA, para identificar e minimizar os efeitos dos vieses inconscientes dos seres humanos.

Estamos diante de uma grande oportunidade, através da IA, de se desenvolver uma  maneira de  se evitar que preconceitos inconscientes e inerentes aos seres humanos se perpetuem e,  para tal, será necessária uma profunda união de  disciplinas e competências a fim de se desenvolver e implementar soluções técnicas, práticas operacionais e padrões éticos específicos para a IA.

Com base nisso vem a questão: Será que se está dando o devido valor a este assunto, uma vez que a IA pode ajudar a reduzir os vieses ou contribuir para intensificá-los, o que seria, sem dúvida, um ônus altíssimo para a civilização?

Por isso, nosso intuito como uma consultoria de diversidade e inclusão, é contribuir e nos unir aos que levantam esta hipótese, em prol da multiplicação das sinalizações a este respeito.

Já temos bem documentados e divulgados, os diferentes tipos de Vieses que levam juízes, por exemplo, a tomar decisões influenciadas, inconscientemente, por seus próprios registros pessoais. Bem como, estatísticas provam que há uma diferença, gritante muitas vezes, na taxa de incidência para entrevistas de emprego, entre candidatos em pé de igualdade em termos de curriculum, porém, com seus nomes vinculados a grupos étnicos ou raciais diferentes, por questões de gênero ou de deficiência física.

Por essas e outras a IA seria um aliado gigante para a redução da interpretação subjetiva e tendenciosa de dados típicos dos seres humanos, pois os algoritmos são programados para considerar apenas as variáveis que aumentem a precisão de suas previsões, com base em dados de treinamento. E, para fortalecer ainda mais essa hipótese, algumas evidências mostram que os algoritmos podem melhorar as tomadas de decisões, tornando-as mais imparciais, uma vez que, teoricamente, as pesquisas mostram que, diferentemente das decisões humanas, as decisões tomadas pela IA poderiam, em princípio, ser abertas, examinadas e interrogadas. E como diria Andrew McAfee, do MIT: “Se quiser remover um viés, introduza os algoritmos.”

Porém, ao olhar o outro lado da moeda, nos deparamos com o fato de que a IA foi desenvolvida e é alimentada pelos seres humanos e se não houver a devida consciência a respeito da existência desses temidos Vieses, a IA pode ter, incorporados aos seus programas, os tão temidos preconceitos inconscientes dos seres humanos. O que levaria, inclusive, a multiplicar a força devastadora dos vieses, pela velocidade e eficiência produtiva da IA. 

Um artigo do MIT Technology Review nos ajuda a entender quando o viés de IA pode acontecer e nos explica que os três principais momentos em que isso pode acontecer são:

  1. Na definição do problema: quando a primeira coisa que os cientistas da computação fazem ao criar um modelo de Deep Learning é decidir o que eles realmente querem que a tecnologia alcance.
  • Por exemplo, uma empresa de cartão de crédito pode querer prever se determinado cliente deve ou não receber um crédito.
  • Mas, para a IA decidir se o cliente receberá um “sim” ou “não”, a empresa deve definir se quer maximizar a margem de lucro ou maximizar a quantidade de empréstimos pagos.
  • E, como afirma Solon Barocas, especialista em Machine Learning e professor da Universidade de Cornell, “são decisões tomadas por vários motivos de negócios, além de justiça ou discriminação.”
  1. Na coleta de dados: o viés pode aparecer de duas maneiras nos dados de treinamento. Ou os dados coletados podem não representar a realidade, ou então refletem preconceitos já existentes.
  • Um exemplo de dados que não representam a realidade: quando o algoritmo é alimentado com mais fotos de pessoas brancas do que negras. Isso vai dificultar a IA em reconhecer rostos negros.
  • E o preconceito? Bom, isso pode ser exemplificado com um caso que ocorreu na Amazon. A ferramenta interna de recrutamento estava dispensando candidatas mulheres e favorecendo homens por ter sido treinada com o histórico de como a empresa sempre contratou.
  • Como no passado os profissionais homens eram mais contratados do que as profissionais mulheres, a Inteligência Artificial da ferramenta passou a aplicar também essa lógica.
  1. Na preparação dos dados: é possível introduzir um viés durante o estágio de preparação dos dados, a etapa que envolve selecionar quais atributos a empresa deseja que o algoritmo considere.
  • Pegando o exemplo da Amazon citado acima, os atributos escolhidos para a ferramenta podem ter sido o gênero, o nível de educação e anos de experiência do candidato.
  • “Escolher quais atributos considerar ou ignorar pode influenciar significativamente a precisão de previsão do modelo de Deep Learning. Mas, embora seu impacto na precisão seja fácil de medir, seu impacto no viés do modelo não é”, diz um trecho do artigo.

Baseado nisso, as empresas desenvolvedoras da IA estão trabalhando exaustivamente no intuito de procurar formas de minimizar os impactos dos vieses humanos na IA. Porém, sabemos que as diferentes soluções buscadas podem ajudar a identificar e atenuar a parcialidade, mas o julgamento humano ainda é necessário para garantir que a tomada de decisão da IA seja imparcial. Por isso, embora as definições e medidas estatísticas de imparcialidade utilizadas sejam certamente úteis, elas não são capazes de considerar as nuances dos contextos sociais em que um sistema de IA é implantado, nem as possíveis questões em relação à forma como os dados foram coletados. Assim, é importante considerar que, onde o julgamento humano se faz necessário, há que se estar atento ao nível de desenvolvimento dessas pessoas quanto a consciência de seus vieses, para questiona-los sempre que necessário.

Fique atentx à IA… ela pode estar enviesada!

E você, já se conscientizou dos seus vieses e desligou seu piloto automático para não cair nessa armadilha da mente?

A LEW é uma consultoria de Diversidade e Inclusão que trabalha exaustivamente para conscientizar, o máximo possível de pessoas, a respeito da questão dos Viéses Inconscientes e do quanto às decisões baseadas em seus registros próprios – muitas vezes distorcidos ou desatualizados, podem impactar negativamente seus negócios, suas relações e sua vida.

Visite nosso site, agende um bate papo para conhecer nossas soluções. Temos certeza que poderemos apoia-lxs em suas necessidades de evolução e crescimento. Esperamos por você. Um grande abraço.

LEW Company – Luceli Mota e Adriana Camargo – www.lewcompany.com.br

Siga-nos no Instagram, Face e Linkedin – @LEWCompany