Inteligência artificial: OMS emite alerta sobre "crescente uso experimental" na saúde e riscos
A enorme adoção pública de novos sistemas, como o ChatGPT, pode levar a erros por parte de profissionais e causar danos aos pacientes
A Organização Mundial da Saúde emitiu um alerta nesta terça-feira pedindo cautela ao usar ferramentas de modelo de linguagem (LLMs) geradas por inteligência artificial (IA), como o ChatGPT, que ganhou milhares de adeptos nos últimos meses, para proteger e promover o bem-estar, a segurança e a autonomia humana.
A entidade diz que embora esteja “entusiasmada” com o uso da nova tecnologia para apoiar profissionais de saúde, pacientes, pesquisadores e cientistas, “existe a preocupação de que o cuidado que normalmente seria exercido para qualquer nova tecnologia não esteja sendo exercido de forma consistente com os LLMs”.
As ferramentas de modelo de linguagem (LLMs) incluem algumas das plataformas de expansão mais rápida, como ChatGPT, Bard, Bert e muitas outras que imitam a compreensão, o processamento e a produção da comunicação humana.
Na nota de alerta a OMS diz ainda que é imperativo que “os riscos sejam examinados cuidadosamente ao usar LLMs para melhorar o acesso a informações de saúde, como uma ferramenta de apoio à decisão ou mesmo para aumentar a capacidade de diagnóstico em ambientes com poucos recursos para proteger a saúde das pessoas e reduzir a desigualdade”.
Leia também
• Jornal irlandês pede desculpas após publicar artigo de opinião gerado por inteligência artificial
• Europa avança em regulação para inteligência artificial
• Inteligência artificial e vigilância digital são temas do novo single e clipe da Sargaço NightClub
E que essa adoção pública meteórica de um sistema que não foi amplamente testada e comprovada pode levar a erros por parte dos profissionais de saúde, causar danos aos pacientes, colocar em risco a confiança da Inteligência Artificial e, consequentemente, atrasar os potenciais benefícios e usos de longo prazo de tais tecnologias em todo o mundo.
A OMS divulgou também uma lista de fatores que mais preocupam a organização. Entre eles estão:
Os dados usados para treinar IA podem ser tendenciosos, gerando informações enganosas ou imprecisas que podem representar riscos à saúde, equidade e inclusão;
Os LLMs geram respostas que podem parecer confiáveis e plausíveis para um usuário final; no entanto, essas respostas podem estar completamente incorretas ou conter erros graves, especialmente para respostas relacionadas à saúde;
Os LLMs podem ser treinados em dados para os quais o consentimento pode não ter sido fornecido anteriormente para tal uso, e os LLMs podem não proteger dados confidenciais (incluindo dados de saúde) que um usuário fornece a um aplicativo para gerar uma resposta;
LLMs podem ser mal utilizados para gerar e disseminar desinformação altamente convincente na forma de conteúdo de texto, áudio ou vídeo que é difícil para o público diferenciar de conteúdo de saúde confiável;
Embora comprometida em aproveitar novas tecnologias, incluindo IA e saúde digital para melhorar a saúde humana, a OMS recomenda que os formuladores de políticas garantam a segurança e a proteção do paciente enquanto as empresas de tecnologia trabalham para comercializar LLMs.
A OMS pede que, antes de seu uso generalizado em cuidados de saúde e medicina de rotina sejam usados, essas preocupações sejam vistas, analisadas e abordadas, para gerar evidências claras de seus benefícios sem dúvidas.
No final do alerta, a organização ainda reitera os seis princípios fundamentais sobre ética e governança de IA para saúde. São eles:
Proteger a autonomia;
Promover o bem-estar humano, a segurança humana e o interesse público;
Garantir transparência, explicabilidade e inteligibilidade;
Promover responsabilidade e prestação de contas;
Garantir inclusão e equidade;
Promover uma IA responsiva e sustentável.