Glossário

Preconceitos na IA

Descubra como identificar, mitigar e prevenir preconceitos em sistemas de IA com estratégias, ferramentas e exemplos do mundo real para o desenvolvimento ético da IA.

O enviesamento na Inteligência Artificial (IA) refere-se a erros sistemáticos e repetíveis num sistema de IA que resultam em resultados injustos, enviesados ou discriminatórios, favorecendo frequentemente um grupo em detrimento de outros com base em caraterísticas arbitrárias. Este enviesamento não tem origem no facto de o próprio modelo de IA agir de forma maliciosa, mas surge quando o modelo aprende e replica os valores implícitos, as desigualdades históricas ou os desequilíbrios estatísticos presentes nos dados de treino, na conceção dos algoritmos ou nas escolhas feitas pelos humanos envolvidos no seu desenvolvimento e implementação. Abordar o enviesamento da IA é fundamental para o desenvolvimento ético da IA, tendo um impacto crítico no desempenho do modelo, na fiabilidade e na confiança do público, especialmente em domínios sensíveis como a visão computacional (CV).

Fontes de preconceito da IA

O enviesamento da IA não é uma propriedade inerente à IA, mas decorre dos processos humanos e dos dados utilizados para construir estes sistemas. Compreender as origens é fundamental para a atenuação:

  • Enviesamento do conjunto de dados: Esta é a fonte mais comum, que surge quando os dados utilizados para a formação não são representativos da população real ou do contexto em que o modelo será implementado. Isto inclui enviesamento histórico (reflectindo preconceitos sociais passados), enviesamento de medição (recolha inconsistente de dados entre grupos), enviesamento de representação (sub-amostragem de certos grupos) e problemas na rotulagem de dados em que as anotações reflectem pontos de vista subjectivos. Compreender o impacto do enviesamento do conjunto de dados é crucial para a IA de visão.
  • Preconceito algorítmico: O preconceito pode ser introduzido pelo próprio algoritmo, por exemplo, quando um algoritmo optimiza uma métrica que inadvertidamente prejudica um grupo específico, ou quando a conceção do modelo faz suposições que não são verdadeiras para todos. Por exemplo, certas escolhas de otimização podem dar prioridade à precisão global em detrimento da equidade para subgrupos minoritários.
  • Preconceito humano: Os preconceitos conscientes ou inconscientes dos programadores e dos utilizadores podem influenciar a conceção do modelo, a seleção de dados, a interpretação dos resultados e as decisões de implementação, incorporando a injustiça no ciclo de vida da IA.

Exemplos do mundo real

Os preconceitos na IA podem manifestar-se em várias aplicações, por vezes com consequências graves:

  • Sistemas dereconhecimento facial: Numerosos estudos, incluindo testes exaustivos efectuados pelo NIST, demonstraram que algumas tecnologias de reconhecimento facial apresentam taxas de precisão significativamente inferiores para indivíduos de determinados grupos demográficos (por exemplo, mulheres de pele mais escura) em comparação com outros (por exemplo, homens de pele mais clara). Esta disparidade resulta frequentemente de conjuntos de dados de treino pouco representativos e pode levar a identificações incorrectas e a um tratamento desigual em aplicações que vão desde o desbloqueio de telemóveis à aplicação da lei. Organizações como a Algorithmic Justice League trabalham ativamente para realçar e combater estes preconceitos.
  • IA nos cuidados de saúde: Os modelos de IA utilizados para tarefas como a análise de imagens médicas ou a previsão do risco dos doentes podem herdar preconceitos dos dados históricos de saúde. Se uma ferramenta de diagnóstico for treinada principalmente com base em dados de um grupo populacional, pode ter um desempenho menos preciso para grupos sub-representados, o que pode levar a diagnósticos tardios ou recomendações de tratamento inadequadas. A investigação destaca os riscos de enviesamento nos algoritmos clínicos se a equidade não for ativamente considerada.

Distinguir o enviesamento na IA dos conceitos relacionados

É importante diferenciar o preconceito na IA, que diz respeito principalmente à equidade e às implicações éticas, de outros conceitos relacionados com a aprendizagem automática (ML):

  • Enviesamento do conjunto de dados: Embora seja uma fonte primária de enviesamento da IA, o enviesamento do conjunto de dados refere-se especificamente à natureza não representativa dos próprios dados. O enviesamento da IA é o resultado mais amplo da injustiça sistemática, que pode resultar do enviesamento do conjunto de dados, de escolhas algorítmicas ou de factores humanos.
  • Enviesamento algorítmico: refere-se especificamente ao enviesamento introduzido pelo processo de conceção ou otimização do modelo, por oposição ao enviesamento proveniente apenas dos dados. É outra fonte potencial que contribui para o enviesamento geral da IA.
  • Compensação de enviesamento e variância: Trata-se de um conceito estatístico fundamental em AM que descreve a tensão entre a simplicidade do modelo (enviesamento elevado, potencialmente conducente a subadaptação) e a complexidade do modelo (variância elevada, potencialmente conducente a sobreadaptação). Embora o termo "enviesamento" seja aqui utilizado, refere-se ao erro do modelo devido a pressupostos demasiado simplistas, distinto das implicações éticas ou de justiça do enviesamento da IA.

Abordar o viés da IA

Atenuar o enviesamento da IA é um processo contínuo que requer uma abordagem multifacetada ao longo do ciclo de vida do desenvolvimento da IA:

  • Curadoria e ampliação de dados: Recolher ativamente conjuntos de dados diversificados e representativos. Utilizar técnicas como o aumento de dados e a geração de dados potencialmente sintéticos para equilibrar a representação de diferentes grupos. Explorar recursos como a coleção Ultralytics Datasets para fontes de dados diversificadas.
  • Métricas de equidade e auditoria: Definir e medir a equidade utilizando métricas adequadas durante a avaliação do modelo. Auditar regularmente os modelos para verificar o desempenho tendencioso em diferentes subgrupos antes e depois da implementação.
  • Seleção e modificação de algoritmos: Escolher algoritmos menos propensos a enviesamentos ou modificar os existentes para incorporar restrições de equidade.
  • Transparência e explicabilidade: Utilizar técnicas de IA explicável (XAI) para compreender o comportamento do modelo e identificar potenciais fontes de enviesamento. Saiba mais sobre os conceitos de XAI.
  • Estruturas éticas e governação: Implementar fortes diretrizes éticas de IA e estruturas de governação, referenciando estruturas como a Estrutura de Gestão de Riscos de IA do NIST, para orientar o desenvolvimento e a implementação.

Plataformas como o Ultralytics HUB fornecem ferramentas que apoiam o desenvolvimento de sistemas de IA mais justos, permitindo uma gestão cuidadosa do conjunto de dados, facilitando a formação de modelos personalizados e permitindo a monitorização do desempenho do modelo Ultralytics YOLO. A sensibilização e a incorporação de princípios de equidade na IA (frequentemente discutidos em fóruns como a conferência ACM FAccT) são cruciais para abordar o desenvolvimento responsável da IA e criar tecnologia que beneficie a sociedade de forma equitativa.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Ligue-se, colabore e cresça com inovadores globais

Aderir agora
Ligação copiada para a área de transferência