A ética da inteligência artificial em saúde não constitui um entrave ao progresso. Pelo contrário, funciona como o seu cinto de segurança.

À semelhança do que ocorreu com a automação após a Revolução Industrial, é hoje difícil imaginar uma área da vida que não seja influenciada pela Inteligência Artificial (IA). A saúde não é exceção. Sistemas de IA já demonstraram capacidade para interpretar exames, como imagens médicas, com níveis de precisão comparáveis aos de médicos em início de carreira. Paralelamente, aplicações digitais prometem apoiar, ou mesmo substituir parcialmente, tarefas tradicionalmente associadas aos médicos, enfermeiros ou outros profissionais de saúde. Enquanto alguns veem na IA uma resposta quase imediata às crescentes pressões sobre os sistemas de saúde, outros alertam para expectativas excessivas e para o risco de desvalorização do cuidado humano, para além das questões emergentes como a autonomia da pessoa de forma transversal.

Apesar do reconhecimento da sua utilidade, subsistem questões fundamentais quanto à capacidade de sistemas computacionais reproduzirem o julgamento clínico enquanto processo prudencial, situado e moralmente carregado, bem como a interpretação do comportamento do doente, a relação terapêutica e as subtilezas da observação e do exame físico – dimensões que permanecem essencialmente humanas.

É, no entanto, inquestionável que a IA já se encontra integrada na prática clínica, nomeadamente na triagem de doentes, no apoio à decisão clínica, na interpretação de exames complementares de diagnóstico, na previsão de risco e na gestão de recursos. Simultaneamente, em função das circunstâncias da sua conceção, aplicação, utilização e nível específico de evolução tecnológica, a IA pode gerar riscos e afetar interesses públicos e direitos fundamentais. Esses prejuízos podem ser de natureza material ou imaterial, incluindo danos físicos, psicológicos, sociais ou económicos.

O debate ético em torno da inteligência artificial em saúde já não se centra na questão da sua utilização, mas sobretudo na forma como deve ser regulada e integrada na prática clínica, de modo a garantir cuidados seguros, responsáveis e eticamente sustentados.

A questão central é clara: como assegurar que a IA contribui para a melhoria dos cuidados de saúde sem comprometer valores fundamentais como a segurança, a autonomia, a justiça e a confiança?

A resposta é objetiva: a segurança do doente constitui a primeira exigência ética. Sistemas de IA opacos, insuficientemente validados ou treinados com dados de qualidade variável podem errar de forma silenciosa e com consequências potencialmente graves. Reconhecendo este risco, a União Europeia classificou grande parte das aplicações de IA em saúde como sistemas de “alto risco”, impondo requisitos rigorosos de validação, supervisão humana, transparência e monitorização contínua. Esta abordagem regulatória traduz um princípio ético fundamental, segundo o qual a inovação tecnológica não pode preceder a segurança dos cuidados.

A autonomia da pessoa que precisa de cuidados de saúde constitui outro pilar central, pois sempre que uma decisão clínica é influenciada por um sistema algorítmico, a pessoa tem o direito de ser informada. A transparência não implica a transmissão de linguagem técnica complexa, mas a explicação clara do papel da IA em todo o processo de decisão no plano terapêutico, das suas limitações e da possibilidade de questionar ou recusar a sua utilização. A decisão partilhada mantém-se, assim, um princípio ético incontornável, mesmo em contextos de elevada complexidade clínica e tecnológica.

A justiça e a equidade colocam desafios adicionais no contexto da inteligência artificial em saúde. Modelos treinados com dados pouco representativos podem perpetuar ou agravar desigualdades existentes, afetando de forma desproporcionada populações vulneráveis. Neste sentido, a Organização Mundial da Saúde tem sublinhado a importância da avaliação sistemática de enviesamentos, do envolvimento de profissionais de saúde e cidadãos nos processos de governação da IA, bem como da promoção da literacia digital e ética. Estes elementos são essenciais para uma utilização informada, crítica e responsável das tecnologias de IA, assegurando salvaguardas éticas robustas, particularmente no recurso a modelos avançados e generativos em saúde.

Por fim, impõe-se a questão da responsabilidade. Quando um sistema de IA falha, quem deve responder — o programador, a instituição ou o profissional de saúde? Do ponto de vista ético, a utilização da IA exige rastreabilidade, auditoria e formação adequada dos profissionais, ética e crítica incluídas, pois estes continuam a ser moral e disciplinarmente responsáveis pelas decisões clínicas, mesmo quando estas são apoiadas por sistemas algorítmicos. Sem estas salvaguardas, a tecnologia corre o risco de se transformar numa espécie de “caixa-preta” conveniente para a eventual diluição de responsabilidades.

A ética da inteligência artificial em saúde não constitui um entrave ao progresso. Pelo contrário, funciona como o seu cinto de segurança. Inovar é necessário, mas apenas se essa inovação for acompanhada da proteção da dignidade humana, da confiança dos cidadãos e da segurança dos cuidados.

Fica, assim, a questão: estamos a preparar os profissionais de saúde para deliberar criticamente com a inteligência artificial ou apenas para a utilizar de forma acrítica?

Sofia Nunes e Hortense Cotrim, docente da Faculdade de Ciências da Saúde e Enfermagem da Universidade Católica Portuguesa

De: https://sapo.pt