ANTENA DO POP - O melhor dos mundos pop, geek e nerd!
Shadow

Como combater o preconceito em seus modelos de IA

“Entra lixo, sai lixo” é um dos princípios fundamentais da computação. O GIGO foi cunhado quando os cartões perfurados eram usados ​​para programação, mas é um fato imune aos avanços da tecnologia. Dados ruins criam resultados ruins. Sempre foi e sempre será.

O que mudou foi o impacto que os resultados têm devido ao número de decisões que agora são tomadas pela IA. Em marketing, esses algoritmos podem decidir tudo, desde a segmentação do público até os criativos mais eficazes e os melhores canais. Mas não importa quão bem fornecidos e limpos sejam os seus dados, eles não podem explicar o número significativo de pessoas cujos dados estão faltando

Um desses grupos são as mulheres.

Bhuva Shakti é um veterano de Wall Street que agora trabalha como consultor especializado em transformação ética digital e de IA.

Ausência de atividade económica

“Quando uma mulher quer [money] para abrir uma loja ou algo do tipo”, disse ela, “eles passam por uma instituição financeira. Seus dados são inseridos no sistema e esses dados têm muitos preconceitos ou estão incompletos ou têm tomadas de decisão sistêmicas históricas incorporadas.”

O preconceito pode ser o resultado de ter sido negada a um segmento da população a oportunidade de participar em algumas atividades económicas. Durante séculos, em muitas partes do mundo, as mulheres não conseguiram obter empréstimos bancários. Assim, poderiam pedir empréstimos a fontes não oficiais, que não criavam registos que pudessem mais tarde ser utilizados para demonstrar a solvabilidade.

Vá mais fundo: Pelos números: Diversidade e inclusão são bons negócios

Nos Estados Unidos, os bancos e os governos federais, estaduais e locais criaram dificuldades para os negros obterem hipotecas desde pelo menos 1936. A propriedade de uma casa própria é uma das principais formas pelas quais as famílias constroem riqueza. É por isso que, em 2015, as famílias brancas na área metropolitana de Boston tinham um patrimônio líquido médio de quase US$ 250 mil, enquanto para Para famílias negras, custava US$ 8. Isso não é um erro de digitação.

Seja qual for a causa, o viés resulta em dados imprecisos. Esses dados são usados ​​para tomar decisões e o impacto deles é amplificado à medida que se tornam a base para decisões futuras.

“Quando você escreve um algoritmo de IA, ele não fará um processamento único”, disse Shakti. “Vai continuar aprendendo em um padrão, em um loop. O que significa que você teve decisões e dados anteriores tendenciosos. Se a IA tomar uma decisão hoje com base nisso [then] amanhã, vai repetir [because] não aprendeu nada de novo para corrigir o curso.”

Curso corrigindo dados inexistentes

Com dados ruins, você corrige o curso usando dados bons. O que você faz quando se trata de dados inexistentes?

“Como você vai corrigir essas lacunas?” perguntou Shakti. “Um conceito que temos usado ultimamente, e também em muitos bancos de Wall Street, são os dados sintéticos.”

Dados sintéticos é gerado artificialmente, não produzido por eventos do mundo real. Geralmente criado por algoritmos ou simulações. Pode ser usado para testar modelos matemáticos e treinar modelos de aprendizado de máquina.

“São dados que ajudarão a tomar uma decisão melhor sobre o seu perfil, preenchendo as lacunas com os dados certos e personalizados para o seu perfil”, disse Shakti. “Digamos, por exemplo, que você não é proprietário de uma casa, mas certas decisões de crédito, incluindo a propriedade de uma casa própria, são usadas como critério para determinar quanto crédito você obtém. Com dados sintéticos, a propriedade da casa própria pode ser substituída por outra coisa no seu perfil. Talvez seu status social ou salário ou qualquer outra coisa dessa natureza.”

Um desafio dos dados sintéticos é que às vezes parecem dados reais. As pessoas podem usá-lo indevidamente – intencionalmente ou não – usando-o em vários perfis. É por isso que, disse Shakti, os dados sintéticos são apenas parte da solução.

Teste seus modelos

Outra parte é tecnológica. Todos os modelos precisam ser testados repetidamente quanto ao estresse.

“Quando digo várias vezes, não significa executar o mesmo modelo várias vezes”, disse ela. “Será testado o estresse em diferentes grupos demográficos. Você pode querer testá-lo em dados da cidade, subúrbios ou áreas rurais. Você pode querer testá-lo com uma educação, raça, etnia, outras origens e gêneros diferentes também. Ao realizar vários níveis de teste, você obterá resultados diferentes. E então seu trabalho agora é aprimorar o algoritmo para ser mais inclusivo em todas as combinações, em vez de tentar limitá-lo a certas opções.”

Mas a parte mais importante, aquela necessária para que as outras partes aconteçam, é organizacional. O C-suite precisa perceber que dados imprecisos estão custando caro aos negócios ao usarem recursos para as coisas erradas.

“Trata-se de corrigir a cultura, a governação e a responsabilização”, disse Shakti. “Nas corporações, o que temos visto é uma abordagem de cima para baixo. [leadership] ajudando a estabelecer KPIs e metas que levam em conta a transparência em dados e aplicativos.”

Ética, governança e C-suite

Isto requer o estabelecimento de ética, governação e justiça como parte da cultura de alto nível. Então, toda a organização implementará melhores controles em termos de que tipo de dados está usando, como está corrigindo esses dados e como estamos relatando esses dados, tanto internamente para o C-suite quanto externamente.

“A IA não vai a lugar nenhum”, disse ela. “Isso vai nos ajudar a ser mais precisos e mais eficientes, mas precisamos de humanos no circuito. A tomada de decisão integrada pelo ser humano é crítica. Se você usou um algoritmo de IA para tomar a decisão, definitivamente tenha um humano no final do processo de fluxo de trabalho para garantir que a decisão não foi tendenciosa.”

A IA pode fazer muitas coisas, mas não pode corrigir os dados quando não sabe que os dados são ruins.

Obtenha a MarTech! Diário. Livre. Na sua caixa de entrada.