Por que a Inteligência Artificial Falhava em Representar Pessoas com Deficiência e Como Isso Está Mudando

A ex-nadadora paralímpica australiana Jess Smith, ao tentar gerar uma imagem sua em uma plataforma de inteligência artificial (IA), deparou-se com um problema: a IA não conseguia representá-la com a ausência de parte do braço esquerdo. Inicialmente, a ferramenta gerava imagens de mulheres com dois braços ou com próteses, indicando uma falta de dados para representar sua condição. Smith percebeu que a IA refletia as desigualdades do mundo real. Após contato da BBC com a OpenAI, responsável pelo ChatGPT, a IA foi atualizada e passou a gerar imagens precisas de pessoas com deficiência. Para Smith, isso representa um avanço significativo na inclusão. No entanto, Naomi Bowman, que tem visão em apenas um olho, enfrentou problemas semelhantes, com a IA alterando seu rosto ao invés de simplesmente remover o fundo da imagem. Especialistas apontam que o preconceito na IA reflete os pontos cegos da sociedade e defendem maior diversidade nas equipes que desenvolvem e treinam esses sistemas. Abran Maldonado, CEO da Create Labs, enfatiza a importância da representação cultural na criação de dados para evitar distorções. Jess Smith ressalta que as barreiras enfrentadas por pessoas com deficiência são frequentemente sociais e que a IA deve ser desenvolvida de forma inclusiva. A experiência de Smith gerou conversas sobre a necessidade de representação e inclusão na tecnologia, destacando a importância de abordar o tema de forma aberta e honesta.