O desafio dos modelos de IA com dados sub-representados
Modelos de aprendizado de máquina podem falhar ao fazer previsões para indivíduos sub-representados nos conjuntos de dados nos quais foram treinados. Por exemplo, um modelo que prevê o melhor tratamento para uma doença crônica pode ter sido treinado em um conjunto de dados composto majoritariamente por pacientes do sexo masculino, levando a previsões incorretas para pacientes do sexo feminino em um hospital.
Abordagens para equilibrar conjuntos de dados
Para melhorar os resultados, engenheiros podem equilibrar o conjunto de dados de treinamento removendo pontos de dados até que todos os subgrupos sejam representados igualmente. No entanto, essa prática pode exigir a remoção de grandes quantidades de dados, prejudicando o desempenho geral do modelo.
Nova técnica para identificar viés
Pesquisadores do MIT desenvolveram uma nova técnica que identifica e remove pontos específicos em um conjunto de dados de treinamento que mais contribuem para as falhas de um modelo em subgrupos minoritários. Ao remover menos pontos de dados do que outras abordagens, esta técnica mantém a precisão geral do modelo enquanto melhora seu desempenho em relação a grupos sub-representados.
Além disso, a técnica pode identificar fontes ocultas de viés em conjuntos de dados de treinamento que não possuem rótulos, o que é comum em muitas aplicações.
Combinação com outras abordagens
Este método pode ser combinado com outras abordagens para melhorar a equidade dos modelos de aprendizado de máquina em situações de alto risco. Por exemplo, pode ajudar a garantir que pacientes sub-representados não sejam diagnosticados erroneamente devido a um modelo de IA tendencioso.
Declarações dos pesquisadores
“Muitos algoritmos que tentam resolver esse problema assumem que cada ponto de dados importa tanto quanto qualquer outro. Neste artigo, mostramos que essa suposição não é verdadeira. Existem pontos específicos em nosso conjunto de dados que contribuem para esse viés, e podemos encontrá-los, removê-los e obter um melhor desempenho,” diz Kimia Hamidieh, estudante de graduação em engenharia elétrica e ciência da computação (EECS) no MIT e coautora de um artigo sobre esta técnica.
Removendo exemplos problemáticos
Frequentemente, modelos de aprendizado de máquina são treinados usando grandes conjuntos de dados reunidos de muitas fontes na internet, que podem conter exemplos ruins que prejudicam o desempenho do modelo. Os cientistas sabem que alguns pontos de dados impactam mais o desempenho do modelo em certas tarefas.
Metodologia desenvolvida pelos pesquisadores
A nova técnica desenvolvida pelos pesquisadores do MIT é impulsionada por trabalhos anteriores, onde introduziram um método chamado TRAK, que identifica os exemplos de treinamento mais importantes para um resultado específico do modelo.
Usando previsões incorretas que o modelo fez sobre subgrupos minoritários, eles utilizam o TRAK para identificar quais exemplos de treinamento mais contribuíram para essa previsão incorreta.
“Ao agregar essa informação em previsões de teste ruins da maneira certa, conseguimos encontrar as partes específicas do treinamento que estão levando a uma baixa precisão no grupo mais afetado,” explica Ilyas.
Então, eles removem essas amostras específicas e treinam novamente o modelo com os dados restantes.
Uma abordagem mais acessível
Em três conjuntos de dados de aprendizado de máquina, o método superou múltiplas técnicas. Em um caso, melhorou a precisão do grupo mais afetado ao remover cerca de 20.000 amostras de treinamento a menos do que um método convencional de balanceamento de dados.
Porque o método do MIT envolve a alteração de um conjunto de dados, ele seria mais fácil de usar para um profissional e pode ser aplicado a muitos tipos de modelos.
Ele também pode ser utilizado quando o viés é desconhecido, pois os subgrupos em um conjunto de dados de treinamento não são rotulados. Identificando pontos de dados que mais contribuem para uma característica que o modelo está aprendendo, eles podem entender as variáveis que estão sendo usadas para fazer uma previsão.
“Esta é uma ferramenta que qualquer pessoa pode usar ao treinar um modelo de aprendizado de máquina. Elas podem olhar para esses pontos de dados e ver se estão alinhados com a capacidade que estão tentando ensinar ao modelo,” diz Hamidieh.
Detectar viés de subgrupos desconhecidos exigiria intuição sobre quais grupos procurar, então os pesquisadores esperam validar e explorar isso mais a fundo através de estudos humanos futuros.
Eles também querem melhorar o desempenho e a confiabilidade de sua técnica e garantir que o método seja acessível e fácil de usar para profissionais que possam implantá-lo em ambientes do mundo real.
“Quando você tem ferramentas que permitem analisar criticamente os dados e descobrir quais pontos de dados levarão a viés ou outros comportamentos indesejáveis, você dá o primeiro passo para construir modelos que serão mais justos e confiáveis,” diz Ilyas.
Este trabalho é financiado, em parte, pela National Science Foundation e pela U.S. Defense Advanced Research Projects Agency.