Um dos principais deveres de um médico é avaliar e reavaliar constantemente as probabilidades: Quais são as chances de sucesso de um procedimento médico? O paciente corre o risco de desenvolver sintomas graves? Quando ele deve retornar para mais exames? Nesse contexto, o surgimento da inteligência artificial (IA) promete reduzir riscos em ambientes clínicos e ajudar os médicos a priorizar o cuidado de pacientes de alto risco.
Apesar do potencial da IA, pesquisadores do Departamento de Engenharia Elétrica e Ciência da Computação do MIT, da Equality AI e da Universidade de Boston estão solicitando mais supervisão da IA por parte de órgãos reguladores. Em um novo comentário publicado na edição de outubro do New England Journal of Medicine AI (NEJM AI), após o Escritório de Direitos Civis (OCR) do Departamento de Saúde e Serviços Humanos dos EUA emitir uma nova regra sob a Lei de Cuidados Acessíveis (ACA).
Em maio, o OCR publicou uma regra final na ACA que proíbe a discriminação com base em raça, cor, origem nacional, idade, deficiência ou sexo em “ferramentas de suporte à decisão de cuidados de pacientes”, um termo recém-estabelecido que abrange tanto ferramentas de IA quanto não automatizadas usadas na medicina.
Desenvolvida em resposta à Ordem Executiva do Presidente Joe Biden sobre o Desenvolvimento e Uso Seguro, Seguro e Confiável de Inteligência Artificial de 2023, a regra final reforça o compromisso da administração Biden-Harris em avançar na equidade em saúde, focando na prevenção de discriminação.
O número de dispositivos habilitados por IA aprovados pela Administração de Alimentos e Medicamentos dos EUA (FDA) aumentou drasticamente na última década. Desde a aprovação do primeiro dispositivo habilitado por IA em 1995, o FDA já aprovou quase 1.000 dispositivos, muitos dos quais são projetados para apoiar a tomada de decisões clínicas.
No entanto, os pesquisadores apontam que não há um órgão regulador supervisionando as pontuações de risco clínico produzidas por ferramentas de suporte à decisão clínica, apesar de a maioria dos médicos nos EUA (65%) usar essas ferramentas mensalmente para determinar os próximos passos no cuidado ao paciente.
Para abordar essa lacuna, o Jameel Clinic realizará outra conferência regulatória em março de 2025. A conferência do ano passado gerou discussões e debates entre professores, reguladores de todo o mundo e especialistas da indústria sobre a regulamentação da IA na saúde.
“As pontuações de risco clínico são menos opacas do que os algoritmos de IA, pois geralmente envolvem apenas algumas variáveis ligadas em um modelo simples”, comenta Isaac Kohane, chefe do Departamento de Informática Biomédica da Harvard Medical School e editor-chefe do NEJM AI. No entanto, ele destaca que, se essas pontuações afetam a tomada de decisão clínica, elas devem estar sujeitas aos mesmos padrões que seus parentes mais complexos da IA.
Além disso, enquanto muitas ferramentas de suporte à decisão não utilizam IA, os pesquisadores observam que essas ferramentas também perpetuam preconceitos nos cuidados de saúde e requerem supervisão.
Microsoft amplia portfólio de energia renovável A Microsoft deu um passo significativo ao adicionar 389…
A plataforma de e-commerce Shopify retirou do ar a loja online de Kanye West após…
O Google tomou a decisão de remover eventos como o Mês da História Negra e…
Uma nova direção para o projeto IVAS O Exército dos Estados Unidos está prestes a…
O Founders Fund, fundo de investimentos fundado por Peter Thiel, está prestes a finalizar a…
Entenda o processo contra Elon Musk e DOGE Um grupo de trabalhadores federais está processando…
This website uses cookies.