31 jan 2019

Como a falta de diversidade pode afetar a tecnologia que consumimos

Dimítria Coutinho

por Dimítria Coutinho

7 min. de leitura
Como a falta de diversidade pode afetar a tecnologia que consumimos

A carreira da baiana Gabriela Mattos é marcado por alguns “por acaso”. Foi por acaso que ela entrou para a área de tecnologia, e foi por acaso que ela chegou a movimentos por diversidade no setor. Mas permanecer em ambos foi uma escolha. Hoje, Gabriela é consultora desenvolvedora na ThoughtWorks, e espera que a tecnologia seja cada vez mais acolhedora para mulheres negras como ela. Para ela, só com diversidade em equipes se consegue diversidade em produtos, já que a tecnologia tem apresentado preconceito até nos algoritmos – assunto que Gabriela busca divulgar. 

Escolhas ao acaso

Gabriela nasceu em Barreiras, interior da Bahia, e seu primeiro contato técnico com a tecnologia foi na adolescência. Para cursar um bom ensino médio público, ela decidiu fazer um curso técnico no Instituto Federal da Bahia. Com o sonho de, posteriormente, cursar Direito na universidade, ela acabou escolhendo a opção que menos se distanciava desse lugar. Foi assim que ela caiu no curso de informática, que acabou sendo bastante voltado à programação.

Imagem: arquivo pessoal.

No fim do curso técnico, Gabriela já não tinha mais tanta certeza se queria cursar Direito ou alguma faculdade mais ligada à área de tecnologia. Mas, durante seu trabalho de conclusão de curso, que foi voltado para a inclusão digital em aldeias indígenas <3 ela percebeu que dava para unir a parte social do Direito com a parte técnica da tecnologia. E, a partir daí, pegou gosto pela coisa.

Na hora de escolher a faculdade, foi cursar Ciências da Computação na Universidade Federal de São Carlos, a UFSCar. E foi aí que Gabriela se sentiu minoria no setor. Se sua turma do curso técnico era mais ou menos equilibrada quando o assunto era gênero, o contexto na faculdade era bem diferente.

Das mais ou menos 450 pessoas que estudavam no departamento, que tinha também o curso de Engenharia da Computação, Gabriela estava acompanhada de cerca de mais 20 meninas. Quando perguntada sobre a quantidade de pessoas negras, a baiana ri. “Aí piora”.

A luta pela diversidade

Leia mais  Projeto Conectadas busca trazer mais meninas para a computação

Apesar de ser minoria, o envolvimento com movimentos de diversidade aconteceu por acaso para Gabriela. Durante uma palestra sobre a comunidade Python, ela ficou sabendo de grupos que reuniam meninas, como o PyLadies. “Vou tentar juntar todas as meninas do departamento e ver se a gente consegue criar isso”, pensou na época. E foi assim que Gabriela e as colegas fundaram os coletivos PyLadies São Carlos e Women at Comp. O objetivo das meninas era trazer mais mulheres para os cursos de tecnologia, além de se apoiarem, a fim de evitar a evasão feminina, que costuma ser grande.

Gabriela (a segunda, da esquerda para a direita) e as colegas, durante um evento da Women at Comp, em setembro de 2015. Imagem: Women at Comp.

Depois de inserida nesses projetos, Gabriela passou a conhecer mais meninas e mais comunidades pelo país, se inserindo cada vez mais na luta por igualdade de gênero na tecnologia. A luta por igualdade racial veio um pouco depois, quando a desenvolvedora já estava formada.

Hoje, ela enxerga que a conversa sobre diversidade em tecnologia vai muito além de permitir que minorias cheguem a cargos importantes. Deve ser discutida, também, a criação de produtos que atendam a todos os tipos de pessoas. Isso porque o preconceito está presente também nos algoritmos.

Por que alguns algoritmos são racistas?

Gabriela conta que existem muitos algoritmos enviesados, e um dos principais casos é justamente o racismo. Há exemplos dos mais diversos, desde uma saboneteira que não reconhece uma mão negra na hora de liberar o produto até um reconhecimento facial que não detecta rostos negros.

Leia mais  As máquinas são capazes de aprender; entenda como funciona Machine Learning
Leia mais  Uma enxurrada de dados: como Big Data pode ser utilizado
Leia mais  Influente, acessível e humilde: conheça a história de Nina Silva

A desenvolvedora explica que esse tipo de falha acontece já na criação do algoritmo. Nesses casos, segundo ela, geralmente é utilizado o aprendizado de máquina supervisionado. Isso significa que os algoritmos aprendem a partir de uma base de dados inicial e de uma resposta esperada de sucesso. No caso de um reconhecimento facial, por exemplo, os desenvolvedores vão programar o sistema para saber o que é um rosto (que seria a resposta de sucesso), e vai dar uma base de dados para que ele se treine.

Gabriela explica que o viés racista pode aparecer em um desses dois aspectos, ou em ambos. A base de dados pode conter só pessoas brancas, por exemplo, fazendo com que o sistema não aprenda a reconhecer pessoas negras. E, nesse caso, Gabriela conta que, muitas vezes, as bases de dados vêm prontas, e os desenvolvedores apenas usam, sem pensar muito.

Por outro lado, o problema pode estar na definição da meta de sucesso, que precisa abranger vários tipos de rostos, seguindo o mesmo exemplo.

“Se a gente usa uma base de dados que tem mais diversidade, a gente precisa entender como definir essa meta de sucesso”

Gabriela aponta um outro problema, que acontece quando o produto já está pronto: os testes. “Os testes desses algoritmos são feitos de forma enviesada também, sabe? Será que não teve nenhuma pessoa negra que testou aquele produto para ver que ele não funciona para pessoas negras?”, questiona.

Como a falta de diversidade em tecnologia pode afetar o futuro

Essa discussão a respeito de algoritmos enviesados não é de hoje, mas vem se tornando mais importante à medida que a tecnologia vai fazendo cada vez mais parte do nosso cotidiano. A cientista da computação ganense-americana Joy Buolamwini é uma grande voz nesse assunto. Ela criou a Liga da Justiça Algorítmica, um movimento que pretende encontrar e consertar sistemas tecnológicos enviesados.

Leia mais  "É um mercado de 200 milhões de pessoas, não meia dúzia", diz Gabi Agustini

Gabriela aponta que, com os avanços tecnológicos, esse tipo de problema pode se tornar muito maior do que uma saboneteira que não identifica uma mão negra, por exemplo. Ela, que trabalha com internet das coisas, consegue imaginar cenários nos quais pessoas negras e brancas tenham experiências diferentes com os objetos tecnológicos que as cercam, caso não haja uma preocupação com esses vieses.

Indo ainda mais longe, a desenvolvedora cita casos em que a vida das pessoas está em jogo, como com carros autônomos. Se um algoritmo desse tipo for desenvolvido de forma enviesada, será que um carro pararia diante de um pedestre negro? “Então, tem vários exemplos que podem vir, e se a gente não tiver uma base de dados bem definida, e a questão dos testes bem definidos, provavelmente a gente só vai aprender quando acontecer coisas graves. Que é normalmente o que acontece, né?”, lamenta Gabriela.

Times diversos criam produtos diversos

Gabriela acredita que uma boa solução para essas questões é ter diversidade na criação dos produtos. Ela diz que, durante as etapas, as diferentes pessoas conseguiriam completar as lacunas de experiências umas das outras.

“A gente precisa ter características diferentes, para ver as diferentes percepções. Aí, provavelmente, a gente vai ter vários vieses que a gente vai conseguir quebrar, porque cada um tem um viés e vai conseguir quebrar o do outro, desconstruir”, afirma.

Leia mais  Desigualdade de gênero: 5% dos gastos das empresas de tecnologia olham para a questão

E a desenvolvedora já tem conseguido enxergar essa preocupação com a diversidade em algumas empresas. Ela diz, porém, que alguns passos a mais precisam ser dados. Na sua percepção, as empresas de tecnologia colocam esforços para ter diversidade apenas em vagas de início de carreira, mas o mesmo não acontece nas posições de liderança. “Às vezes, colocar uma pessoa negra lá para estampar a liderança da sua empresa não é tão fácil quanto colocar uma pessoa branca, um homem branco, o que é já esperado”, supõe Gabriela.

Outro ponto que ela acredita que ainda precisa ser melhorado é o fato de que mulheres e pessoas negras podem falar apenas sobre tecnologia, e não sobre ser minoria em tecnologia. “Hoje, eu consigo ver, nos espaços que eu estou, algumas pessoas negras falando sobre tecnologia, eu consigo ver mulheres falando sobre tecnologia, não só sobre gênero e sobre raça na tecnologia. Então, isso é mais um ponto que está sendo desconstruído, que a gente pode falar sobre tudo também, é também nosso lugar de fala, sabe?”.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *