ARTIGO DE OPINIÃO

 

Um Desafio de Ética e de Segurança para a Oncologia: Comunicar a Implementação da IA Generativa

An Ethics and Security Challenge for Oncology: Communicate the Implementation of Generative AI

Un Desafío de Ética y de Seguridad para la Oncología: Comunicar la Implementación de la IA Generativa

 

 

https://doi.org/10.32635/2176-9745.RBC.2025v71n2.5184

 

Nemézio Clímico Amaral Filho1

 

1Instituto Nacional de Câncer (INCA). Universidade do Estado do Rio de Janeiro (Uerj). Rio de Janeiro (RJ), Brasil. Orcid: https://orcid.org/0000-0002-3902-2800

 

Endereço para correspondência: Nemézio Clímico Amaral Filho. Rua Paissandu, 156/604 – Flamengo. Rio de Janeiro (RJ), Brasil. CEP 22210-080. E-mail: nfilho@inca.gov.br

 

 

INTRODUÇÃO

A maior parte das empresas não está preparada para ataques cibernéticos. Em 2023, essa constatação assumiu novos contornos com o uso da inteligência artificial (IA) generativa. Naquele ano, no Brasil, 54% das empresas alvo de ataques cibernéticos o foram por meio do uso da IA generativa1. Uma investigação que abrangeu 170 países mostra que a situação só piorou em 2024: o roubo de informações (infostealer) cresceu 58%. Além disso, os autores apontaram que as maiores vítimas dos ciberataques foram os setores da educação (75%), saúde (47%) e governo (43%)1. Os manipuladores de ransomware (software que sequestra os dados confidenciais ou dispositivos das vítimas, mantendo-os bloqueados ou ameaçados de destruição a menos que resgate seja pago) tiveram no setor da saúde seu segundo maior alvo2.

 

A popularidade e a ausência de regulamentação global da IA, generativa ou não, têm incentivado a criatividade dos cibercriminosos. Ataques cibernéticos são sérios, mas estão longe de serem os únicos problemas trazidos aos sistemas de saúde público e privado pelo desenvolvimento descontrolado e desregulamentado da IA, que está sendo aplicada em tratamentos e pesquisas, quer a sociedade – alvo último dessas inovações – saiba ou não. Como garantir a eficácia ética da aplicação de uma tecnologia, que já tem na saúde humana campo empírico, de forma que a transparência e comunicação ativas do processo sejam verificáveis e percebidas pela sociedade?

 

A questão se insere em um debate que começa timidamente a aparecer, de distintas maneiras, em alguns meios de comunicação por meio de uma pergunta anterior à formulada no parágrafo acima e cada vez mais incontornável: a sociedade estava preparada para absorver essa inovação sem salvaguardas prévias de segurança? Aparentemente, pelos estragos vistos na democracia Ocidente afora, a maioria dos cidadãos não estava pronta nem para o uso do smartphone, sem nenhum tipo de treinamento prévio ou mediação, como instrumento de “liberdade de expressão”. O que leva a outras dúvidas no caso do sistema de saúde atravessado pela IA: como garantir que dados de pacientes e de pesquisas não sejam roubados ou adulterados? Mais: como está a segurança da aplicação dessa tecnologia na área? Pode haver confiança excessiva na máquina por parte dos profissionais de saúde? Essas perguntas forçosamente levam a uma indagação mais incisiva a campos específicos da medicina, como na pesquisa em câncer. Por exemplo, como a área oncológica pretende comunicar a questão à sociedade de maneira clara, responsável e de forma que essa ação tenha como consequência a redução dos riscos do uso de uma tecnologia desregulamentada?

 

Até o momento em que esse artigo foi escrito, ninguém parecia ter respostas objetivas a essas questões, o que é absolutamente razoável no ambiente legal e politicamente anárquico em que a IA em geral e a generativa, em particular, vêm grassando. Mas é possível desenhar alguns riscos para defender a necessidade de que a saúde pública precisará entender a natureza complexa do problema – e, mais importante, entender não apenas do ponto de vista técnico, mas político e social – porque em breve será cobrada a se comunicar com a sociedade. E em termos inteligíveis aos leigos.

 

É preciso dar uns passos atrás, antes de se ater ao uso ético da IA generativa no campo oncológico e à necessidade de transparência comunicativa dessa prática com a sociedade.

 

 

DESENVOLVIMENTO

A título de exemplo, no início de 2025, o Google desenvolveu uma ferramenta de IA para atuar como colaborador virtual de cientistas biomédicos. A nova ferramenta, testada por cientistas da Universidade Stanford (EUA) e do Imperial College de Londres3 (Inglaterra), usa “raciocínio” avançado para ajudar cientistas a sintetizar grandes quantidades de textos científicos e gerar novas hipóteses. Em um experimento sobre fibrose hepática, o Google garantiu que todas as abordagens sugeridas por seu novo “cocientista” (como a empresa se referiu ao modelo) de IA mostraram atividade promissora e potencial para inibir causas de doenças. O Google “espera” que sua ferramenta auxilie e não diminua a colaboração científica.

 

Segundo o Conselho Federal de Biomedicina4:

 

O Biomédico é responsável pela identificação, classificação e estudo dos microrganismos causadores de enfermidades. Ele desenvolve medicamentos e produz vacinas para combatê-las. Faz exames e interpreta os resultados de análises clínicas, para diagnosticar doenças e análises gramatológicas para verificar contaminações em alimentos.

 

Responsabilidade demais para uma máquina, poderiam argumentar os céticos, por isso a definição de sua aplicação só poderia ser atribuída a um ser humano. Mas será fato que sem uma fiscalização efetiva, sem comunicação ativa de ferramentas, capacidades e limites decisórios dos softwares de IA generativa aplicados ao campo médico, a tentação de entregar análises sensíveis à máquina não avançaria entre alguns profissionais pressionados pelo tempo e por resultados?

 

A promessa de uma ferramenta de IA que pode tomar decisões e/ou fazer fortes sugestões funcionaria apenas como auxiliar é corrente no discurso das empresas de tecnologia. Nessa narrativa, profissionais qualificados ficariam assim liberados para trabalhar nos aspectos mais importantes de suas funções. Do ponto de vista do marketing, seria um suicídio, se a ideia não fosse promovida. Do contrário, as empresas de IA estariam prometendo uma tecnologia que substituiria séculos de saber e experiências humanas acumuladas na área médica, e seguiriam contra uma certeza fortemente assentada na mente coletiva do mundo. Ainda que acreditem na capacidade de substituição de muitas áreas ocupadas por profissionais antes sacralizados, as empresas sabem que ensejariam inúmeras possibilidades de processos judiciais, pois o erro é inevitável – o erro, aliás, é o motor do desenvolvimento, do conhecimento. E como ele, o erro, precisa existir, que seja assumido por um humano e não por seu assistente, ou “cocientista”, nesse exemplo de IA aplicada à biomedicina.

 

Há muitos outros tons de cinza ausentes do discurso da coassistência e da adoção de IA para vários campos sensíveis ao dia a dia das pessoas. Quando um software que calculava a probabilidade de alguém voltar a cometer crimes nos EUA, e, portanto, ajudava o juiz a decidir quem teria a chamada “liberdade condicional”, foi adotado no sistema legal, pareceu uma boa opção. Tratava-se da “isenção” de uma máquina calculando quem merecia uma segunda chance. Assim, o algoritmo Correctional Offender Management Profiling for Alternative Sanctions (Compas) foi adotado em alguns Estados do país. Em 2016, os jornalistas investigativos da organização ProPublica5 descobriram que a taxa de acerto do Compas, de 2013 a 2014, fora de 60%, o que significa que ou a sociedade ou suspeitos recuperáveis acabaram indiscutivelmente prejudicados em 40% das predições, porque juízes simplesmente delegaram a decisão ao algoritmo, mesmo tido apenas como “auxiliar” do sistema de Justiça. Os negros tinham as piores avaliações, pois o algoritmo era enviesado – como muitos são contra esse segmento. A empresa que o produziu, a Northpointe Inc., não divulgou seu sistema de pontuação.

 

Que não haja dúvidas: tanto o exemplo no domínio da biomedicina quanto o no da Justiça tratam de confiança, transparência e segurança sociais. Ou da ausência de toda essa salvaguarda com a desculpa um pouco cínica de que os ajustes são feitos a partir da “experiência do usuário”. Entre tantas coincidências, esses softwares diferem apenas em sua estrutura algorítmica. O Compas é um modelo do tipo “decisão hierárquica” ou “baseada em regras”, já o cocientista do Google é mais uma aplicação do Transformer, a estrutura da qual derivam todos os mais recentes modelos de IA generativas, do GPT ao DeepSeek. O objetivo, porém, é o mesmo – convencer da própria efetividade.

 

O cocientista do Google voltou a surpreender uma parte da audiência mais atenta às promessas de cunho científico das Large Language Models (LLM): os microbiologistas do Imperial College passaram uma década elaborando hipóteses, testando e comprovando – o que no mundo de leis, normas e ética, por si só, já demanda tempo – para saber por que algumas superbactérias são imunes a antibióticos. O cocientista do Google recebeu uma breve pergunta sobre o que investigavam os microbiologistas e a máquina chegou às mesmas conclusões que os humanos em 48 horas. Um sentimento misto atingiu os pesquisadores: de um lado, perguntavam-se se ainda seriam relevantes; de outro, como usar a poderosa ferramenta que tinham nas mãos para desbloquear pesquisas cada vez mais avançadas6.

 

Englobando todos esses modelos, a pergunta ética a ser feita é: pode-se e deve-se conferir tanto poder a estruturas algorítmicas cercadas de segredos industriais, desregulamentadas e em desenvolvimento? Poder-se-ia referir aos efeitos em qualquer campo do saber humano, mas na área da saúde isso provoca tensões éticas ainda mais acentuadas.

 

É frequente o argumento do campo médico de que seus profissionais não podem ser substituídos por máquinas. E essa certeza, para seus defensores, é toda a comunicação realmente necessária – o resto são ajustes. Verdade seja dita que as empresas na fronteira da IA generativa, ainda liderada pelos EUA – mas com a China avançando cada vez mais fortemente, fortalecendo a percepção de que superar o concorrente é questão de (pouco) tempo – ecoam esse discurso pelas razões descritas, entre outras. Porque essas estratégias de marketing – das quais o próprio conceito de IA é originado, e não necessariamente de um campo científico – interessam a grandes corporações de tecnologia foi aprofundado em outro lugar7.

 

É importante destacar que nem todos os pesquisadores de IA são tão sutis assim em seu discurso comercial acerca da aplicação da tecnologia emergente na saúde. A China vem desenvolvendo um algoritmo como o anunciado pelo Google para a biomedicina desde dez anos antes da gigante estadunidense. A startup RXThinking treina algoritmos médicos de IA para se tornarem “superdiagnosticadores”8, e isso deve ser impulsionado ainda mais com a união da IA generativa com os chamados “agentes autônomos inteligentes”, que podem tomar decisões pelos usuários, desde planejar uma viagem e comprar as passagens de avião a alertar a ausência de um medicamento.

 

O Google9 publicou relatório prevendo para 2025 a expansão dos agentes de IA em diferentes setores, entre eles a assistência à saúde. A “IA multimodal”, que imita o aprendizado humano cruzando várias fontes de dados, também passaria a ser mais utilizada na análise de dados complexos em saúde. Para o Google, a adoção de modelos de IA multimodal chega mais perto da ideia da “medicina personalizada”. A tecnologia também serviria para reduzir o trabalho administrativo dos médicos.

 

Mas, já em 2019, Lee, ex-presidente da Google China, executivo da Microsoft e Apple e agora uma das pessoas que pensam a próxima geração de empresas de inovação na China, corajosamente colocava as cartas na mesa:

 

Apesar dos muitos elementos sociais que representam uma visita a um médico, o cerne do diagnóstico envolve a coleta de dados (sintomas, histórico médico, fatores ambientais) e a previsão dos fenômenos correlacionados com eles (uma doença). Esse ato de buscar várias correlações e fazer predições é exatamente o que aprendizado profundo faz melhor. Com dados suficientes de treinamento – nesse caso, registros médicos precisos –, uma ferramenta de diagnóstico com tecnologia de IA poderia transformar qualquer profissional médico em um superdiagnosticador, um médico com experiência em dezenas de milhões de casos, uma capacidade incomum de detectar correlações ocultas e uma memória perfeita que pode ser usada8.

 

Kai-Fu8 tem mais do que predições de machine learning para sustentar seu prognóstico. Em 2013, ele próprio foi diagnosticado com câncer, um linfoma definido como de estádio IV pelo primeiro médico que o atendeu, após análise de uma tomografia PET que só permitia essa interpretação (esse tipo de exame de imagem avalia a função e a presença de doenças em órgãos e tecidos). Ele chegou a redigir o próprio testamento por conselho por seu advogado, mas o cientista descobriu que as métricas usadas não eram suficientes para determinar o estádio de seu câncer e vasculhou por conta própria estudos que consideravam outras variáveis.

 

Ele encontrou o trabalho de pesquisadores italianos que colocavam em xeque as variáveis utilizadas na tomografia PET, encontrando marcadores mais próximos ao seu caso. O diagnóstico inicial representava uma taxa de sobrevivência de 50% em cinco anos, mas a rubrica mais detalhada do artigo científico italiano elevava esse percentual para 89%. Um novo médico, o maior especialista em linfoma de Taiwan, confirmou que designar o câncer de Kai-Fu como estádio IV fora um erro. O câncer do cientista entrou em remissão e, até o momento em que este texto era escrito, ele seguia vivo e produzindo pesquisa para a próxima onda de IA8.

 

A realidade é que não demorará muito até que os algoritmos de IA possam realizar muitas das funções de diagnóstico de profissionais da área médica. Esses algoritmos identificarão doenças e prescreverão tratamentos com mais eficácia do que qualquer ser humano. Em alguns casos, os médicos usarão essas equações como uma ferramenta. Em outros, os algoritmos poderão substituir totalmente os médicos.

 

Em 2019, um estudo10 publicado no periódico The Lancet Digital Health, feito por pesquisadores da Universidade de Birmingham, avaliou diagnósticos obtidos por meio de análise de imagens pelas IA desde 2012, constatando que eram comparáveis aos de especialistas clínicos – e reforçando a previsão de Kai-Fu Lee.

 

O pesquisador chinês pondera, porém, que um aplicativo não substitui o médico, que, se quiser, pode ignorar milhões de registros de saúde percorridos pelos softwares, assim como as publicações médicas mais recentes, sustentando-se, enfim, nas próprias decisões. Mas, liberado pela tecnologia, o médico poderia fazer coisas que a máquina não pode. Por exemplo: confortar pacientes e familiares quando o diagnóstico não for favorável. Entretanto, na era da IA generativa, até o afeto pode ser “treinado” pelos algoritmos.

 

Em 2023, um estudo11 publicado na JAMA Internal Medicine mostrou que o ChatGPT potencialmente dava respostas a questões médicas de rotina de maneira extremamente aceitável. Além disso, 78% dos avaliados informaram que as respostas das máquinas eram mais empáticas que a dos médicos. O chatbot estaria entregando mais “afeto” e cuidado adicional com as palavras. Isso poderia ocorrer por causa da atribulação dos profissionais, cansaço ou pura ausência de tato.

 

Em interações com a classe médica, nota-se ceticismo e rejeição, principalmente na questão do cuidado cortês que o paciente pode receber com a palavra reconfortante de um chatbot. Na percepção do usuário-paciente, esse tratamento mais carinhoso nem sempre é dispensado pelo médico. É tão fácil encontrar no Brasil de hoje alguém com câncer, um parente ou amigo, quanto alguém que tenha um relato de desconforto no trato recebido por um profissional de saúde em pelo menos uma oportunidade na vida – o que poderia explicar em parte a boa impressão causada pelo chatbot nos usuários.

 

Essa percepção popular e os estudos científicos seguem para o mesmo ponto de convergência: a realidade social e profissional foi alterada pela tecnologia de IA, e o estatuto da sacralidade da atividade médica está sendo questionado. E isso, para o bem e para o mal, também é uma questão de segurança que os sistemas de saúde público e privado precisam enfrentar pragmaticamente para, em seguida, estabelecer uma estratégia de comunicação com uma sociedade disputada por discursos concorrentes, cujos pesos não são atribuídos exclusivamente pela ciência.

 

Contudo, defende-se aqui que a IA generativa aplicada a diversos setores do conhecimento, mas acentuadamente na saúde – da gestão à análise clínica –, não pode ser enfrentada ao modo ludita. Recentemente, pesquisadores do Instituto Nacional de Câncer (INCA)12 e de outras instituições de saúde no Brasil defenderam o uso de ferramentas como o ChatGPT para democratizar conhecimentos para pessoas com câncer. Não é ignorado por nenhum deles que essas IA podem ser imprecisas e fornecer informações prejudiciais, o que aumenta a importância da educação em IA, a qual ajuda a desmistificar a tecnologia e, assim, obter informações mais seguras. Por outro lado, a enorme capacidade da IA generativa de analisar e comparar dados permite estudos oncológicos que seriam inviáveis há pouco tempo.

 

A pesquisa “Explorando o papel do ChatGPT no atendimento ao paciente (diagnóstico e tratamento) e na pesquisa médica: uma revisão sistemática”13 revisou mais de 100 artigos para avaliar o uso dessa IA generativa na oncologia e concluiu: “Embora possa ajudar no tratamento de pacientes e na pesquisa, há problemas com precisão, autoria e viés. O ChatGPT pode servir como um ‘assistente clínico’ e ser uma ajuda na pesquisa e na escrita acadêmica”. O artigo também mostra que a IA consegue esclarecer pessoas menos favorecidas, sem dar respostas ofensivas. Mas há risco de simplificação em excesso e de subestimação da gravidade da doença.

 

E, como se pode imaginar, os riscos não vêm apenas dos erros oriundos dos dados enviesados da máquina ou de suas limitações de hardware. Importa principalmente o que os humanos decidem conscientemente fazer quando da introdução da tecnologia em “modelos de negócios”, o que, no caso da saúde, pode nem mesmo ser apenas o caso de aplicações diretas na área. A startup Justpoint14 é um bom exemplo. Sediada no Colorado, EUA, é possuidora de expertise em IA, produtos farmacêuticos e sistema jurídico. Autodenomina-se uma empresa de proteção ao consumidor. Entre financiamento e crédito, a Justpoint levantou 95 milhões de dólares para construir uma estrutura que usa IA e cientistas para vasculhar registros médicos em busca de medicamentos, produtos químicos e de consumo que, segundo ela, tenham prejudicado pacientes e consumidores. Essas informações são então fornecidas a um escritório de advocacia no Estado vizinho do Arizona, o Justpoint PLLC, que pode processar os fabricantes desses produtos, o que faria com que a Justpoint Inc. mantenha uma parte dos ganhos bem-sucedidos. Em nome dos consumidores e pacientes, a organização pretende aumentar os ganhos no bilionário mercado de ações judiciais estadunidenses atuando contra a igualmente bilionária indústria farmacêutica.

 

Como sabem as pessoas de bom senso e mais ainda os profissionais de saúde, o limite entre o que é remédio e o que é veneno pode ser bem tênue, e o que vale para um organismo pode não valer para outro. Como corrigir o eventual dano à marca processada que agiu em boa-fé, ao médico que a prescreveu e a qualquer outro paciente que poderia ter recebido o medicamento negado ante o medo de um suposto erro vir a ser replicado? Isso deve mesmo estar nas mãos do “modelo de negócio” de uma startup, por mais bem-intencionada que seja, ou deveria estar em debate público, esclarecedor, para que alimentasse de informações confiáveis o legislador sobre o tema?

 

Algumas organizações em todo o mundo já auxiliam na construção de argumentos para as necessárias salvaguardas legais que precisarão ser erguidas pelos poderes legislativos dos países atentos ao problema. No âmbito médico, um exemplo dessas organizações é a Australian Medical Association (Ama)15, que publicou posicionamento sobre o uso da IA na saúde. Entre outras declarações, a Ama defende que a IA apoie os médicos e as profissões de saúde em geral para atender às necessidades da comunidade: a tecnologia pode melhorar, mas não substituir a tomada de decisões clínicas. Nessa leitura, a IA nunca deve comprometer a independência clínica e a autonomia profissional dos médicos. A organização sustenta ainda que a aplicação da IA na área da saúde não pode levar ao aumento das desigualdades a qualquer segmento da população. Também advoga que o uso de IA na área da saúde deve proteger a privacidade das informações do paciente, garantindo-lhes o direito de saber quais informações são mantidas sobre si, de acessar os próprios registros médicos e de ter controle sobre seu uso e divulgação, com poucas exceções.

 

A associação enfatiza que os cuidados médicos prestados por humanos não devem ser substituídos pela IA, mas essa tecnologia tem o potencial de auxiliar na prestação desses serviços, de redução das ineficiências do sistema e de levar à alocação mais adequada de recursos. A IA seria, idealmente, apenas um meio para alcançar o objetivo de melhorar a saúde. A Ama acredita que a IA requer regulamentação, assim como qualquer outra tecnologia envolvida no diagnóstico e tratamento de pacientes. A regulamentação governamental da IA na área da saúde deve colocar proteções adequadas em torno de pacientes e consumidores, bem como dos profissionais de saúde, gerando confiança no sistema. Os médicos seriam os responsáveis por defender que a saúde, o bem-estar e a privacidade do paciente estejam à frente de todas as aplicações da IA na área da saúde15.

 

Parecem razoáveis as proposições da associação australiana, mas, por um momento, pode-se questionar se tamanha responsabilidade deve ficar apenas sobre os médicos ante a possibilidade de um erro sistêmico da IA aplicada à saúde. Em artigo que investiga a ascensão da IA na medicina e que teve como método uma análise qualitativa de textos documentais e acadêmicos, Lamy e Malta16 concluíram que o uso ético da IA na saúde “depende de um enfrentamento prático e regulatório” de temas como preconceito e discriminação algorítmicos (quando os dados são enviesados), ausência de transparência e de inteligibilidade e falta de controle.

 

Em direção semelhante, Dourado e Aith17, a partir da análise da vigência da Lei Geral de Proteção dos Dados Pessoais (LGPD) no ordenamento jurídico brasileiro, escrevem que

 

O exercício do direito à explicação na saúde depende da criação de mecanismos para criação de sistemas de inteligência artificial explicáveis e do reconhecimento dos limites da explicabilidade de algoritmos. A abrangência desse direito deve ser definida a partir de critérios a serem elaborados por autoridades reguladoras e precisam ser amplamente discutidos com a sociedade. Esse debate está apenas começando.

 

Profissionais e pesquisadores em saúde estão sendo atropelados pela grande velocidade de introdução de novos produtos tecnológicos – essa velocidade é mais uma estratégia que vai ao encontro dos interesses do mercado de tecnologia7. Mas isso interessa à ciência eticamente responsável, economicamente consequente e nacionalmente segura? Esses movimentos têm que ser percebidos desde ações mais simples, como as que conduzem ao imbricamento de serviços gratuitos oferecidos por empresas privadas à administração pública dos três entes federativos, serviços que vão de e-mails a “nuvens” (servidores de computador dispendiosos e caros), cujos serviços podem ser suspensos a qualquer momento, como consta, aliás, nos termos de uso dessas benesses, mesmo depois que uma relação de dependência tecnológica for estabelecida. Ou precisamente por isso? Infelizmente, não é raro encontrar defensores do uso acrítico da tecnologia no setor público sob o argumento eivado de fetichismo tecnológico de que é preciso “correr o risco” de adotar novas tecnologias, mesmo no âmbito da saúde. Partindo desses “detalhes”, chega-se ao leque de produtos tecnológicos sem regulamentação específica na medicina ou qualquer setor, como é o caso das IA generativas – extraordinárias, mas sem garantia de segurança plena, ancoradas na força retórica do marketing: é preciso usá-las por serem sinônimo de “desenvolvimento” e “avanço”. Assim, perguntas simples levam a respostas complexas: quando algo der errado, quem é o responsável? Quem fiscaliza?

 

Essas dúvidas não são particularidades do serviço público. Em webinar recente, Girish N. Nadkarni, diretor do Departamento de Inteligência Artificial e Saúde Humana de Windreich da Faculdade de Medicina Icahn no Monte Sinai, uma entidade privada sediada em Nova Iorque, chegou à mesma conclusão, no espectro do cuidado em saúde, que se encontra na aplicação da IA generativa no âmbito da comunicação social7: “Para pensar um pouquinho, há muitos riscos que cercam isso [uso da IA na medicina]. Nós implementamos muita IA dentro dos cuidados clínicos, mas eu penso que a decisão de não implementar alguma coisa é tão importante quanto a decisão de implementar”.18

 

Como essas questões ainda não estão sanadas e muito menos há metodologias universalmente aceitas, o Comitê Gestor da Internet no Brasil apenas recomenda19: “O diálogo entre todos os atores interessados que participam do ecossistema de IA para a saúde – especialmente desenvolvedores, fabricantes, reguladores, usuários e pacientes – é altamente aconselhável à medida que a comunidade de IA amadurece”. O Comitê Gestor da Internet no Brasil também é enfático na questão da transparência para a construção da confiança e nas estratégias de comunicação que alcancem as necessidades dos usuários finais (profissionais e gestores de saúde), pacientes e comunidades. Comunicação e transparência estão assim interligadas aos critérios que levam à adoção de uma tecnologia e não outra, como ela funciona e o que pode trazer de riscos e benefícios ao corpo humano. Essa comunicação é tão relevante entre e para os atores diretamente envolvidos, como aos planejadores e à sociedade abrangente, devendo o gestor adaptar-se ao como comunicar a cada situação.

 

Se o mundo oncológico precisa assumir a responsabilidade de promover essa ação comunicativa, entendendo tratar-se de uma ação geopolítica, multidisciplinar e urgente, a sociedade civil organizada também deve ser instada a compreender que sua segurança não pode estar entregue aos limiares éticos do mercado de IA. Os professores Andrew Barto e Richard Sutton, vencedores do Prêmio Turing de 2025, o “Oscar da Ciência da Computação”, por suas contribuições à técnica de “aprendizado por reforço”, se dizem preocupados com a pressa com que as empresas de IA lançam modelos novos sem os testar devidamente – uma das consequências da estratégia da velocidade referida anteriormente. Para Rech apud Barto20, “práticas de engenharia evoluíram para tentar mitigar consequências negativas da tecnologia, e eu não vejo isso sendo praticado pelas companhias que estão desenvolvendo”. Ou seja, não é exatamente a técnica que pode colocar as pessoas em risco de diversas formas com o uso da IA em diferentes domínios, mas a ética.

 

A ética que dialoga com pessoas direta ou indiretamente envolvidas com a aplicação da IA na saúde será testada ao máximo entre 2025 e 2030. Em 2025, o tamanho do mercado da IA da saúde no mundo era estimado em 31,25 bilhões de dólares. Em mais cinco anos, prevê-se que esse valor saltaria para 185,84 bilhões21. Muitas corporações estarão interessadas em lucrar ao máximo com uma dupla tendência verificada inclusive em países em desenvolvimento: 1. O envelhecimento da população, fator de risco para muitas doenças, como o câncer, e a mitigação dos efeitos das mudanças climáticas, o que enseja mais tecnologia e; 2. A popularização de aplicações de IA generativa em várias áreas do conhecimento, como o setor da saúde, que terá que lidar com o aumento de enfermidades.

 

Este é um momento particularmente delicado porque as big techs decidiram relaxar seus sistemas de verificação de fatos, com isso, em tese, também facilitando com que histórias sobre os malefícios e poderes da tecnologia se espalhem pelas redes. Desregulamentar parece interessar aos negócios e normaliza a aceitação da tecnologia sem enfrentar os rigores regulatórios de outros segmentos de mercado – tem-se uma isenção legal quase religiosa em torno dos bits e qubits. O avanço da China, que recentemente surpreendeu o mundo mais uma vez com o chatbot DeepSeek, cujo treinamento custou uma fração de seus predecessores, apenas aumentou o sentido de urgência das empresas de tecnologia dos EUA, o que deveria reforçar em todos a necessidade de cuidados redobrados sobre as IA quando se pensa em aplicá-las a cada área, principalmente na saúde e neste momento político intrinsecamente delicado no Ocidente.

 

Assim, se por um lado parecer seu uma boa notícia o crescimento cada vez mais rápido de aplicações de IA voltadas para o enfrentamento do câncer em todo o mundo (749 registros distintos de 2015 a 2022), segundo pesquisa recente da Fiocruz22, também preocupa o universo social sem legislação específica e comunicação ativa em que essas tecnologias são implementadas. Além disso, a pesquisa atesta mais sinais da corrida tecnológica na área oncológica, com os EUA tendo sido superados por Índia e China em número de patentes. No entanto, essa corrida, em princípio saudável, deveria acompanhar a conformidade ética e legal de cada país e ser eficientemente comunicada à sociedade, não apenas em termos de resultado, mas a cada passo relevante do processo. E, preferencialmente, ter mais atores envolvidos. De qualquer forma, essas carências são verificadas em maior ou menor grau em todas as nações.

 

O dado concreto é que poucas empresas, em poucos países e nas mãos de poucas pessoas, dominam o mercado de IA. Se a sociedade não se conscientizar do tamanho do problema que isso significa, nada sugere que no âmbito da saúde essa distribuição de recursos será diferente, com as previsíveis consequências aos segmentos mais desprotegidos. Obviamente, isso inclui a oncologia. Nesse caso específico, há muito “segredo de negócios” em torno dos investimentos da IA, notadamente a generativa, na questão oncológica. Muitos aportes destinados a essa tecnologia são empregados por empresas privadas que quase nunca informam publicamente o tamanho do capital investido. São corporações como Google, Microsoft e IBM, nos EUA, e instituições de pesquisa, como o National Institutes of Health23, que, em 2022, anunciou um programa multidisciplinar de 130 milhões de dólares em IA na saúde, incluindo o câncer, ao longo de quatro anos. A instituição pública fez questão de evidenciar sua preocupação para que as ferramentas desenvolvidas e os dados obtidos não perpetuem desigualdades e observam problemas éticos que podem surgir durante a análise e coleta de informações.

 

Infelizmente, essas ações de transparência e de proatividade não são verificadas nas empresas privadas e mesmo em órgãos públicos espalhados pelo mundo. É quase impossível identificar com certeza, rubrica a rubrica, os segmentos em saúde que receberão recursos para as aplicações e pesquisa com e em IA. O que leva à justa indagação: por quê? A quais interesses atende essa opacidade, que não parece ser coincidência, mas projeto?

 

CONCLUSÃO

Assim, parece importante destacar que são fundamentais segurança, transparência e comunicação social acerca da implantação de tecnologias de IA generativas ou não nas aplicações em saúde e – por todos os estigmas que carrega consigo, dramas e custos sociais, além dos econômicos, na ordem dos bilhões24 – ainda mais no câncer. Mesmo que a este ponto desta argumentação limitada pelo espaço ainda haja resistência de o porquê de a comunicação clara e eficaz acerca da adoção da IA na saúde ser um desafio necessariamente multidisciplinar no curto prazo, notadamente na oncologia, considere-se que a História recente tem mostrado que não existem vazios discursivos: esses espaços não ocupados por aqueles que poderiam ter feito algo foram rapidamente preenchidos por distintos agentes com interesses muitas vezes inconfessos. São omissões que também vêm tendo impacto em cortes orçamentários na saúde, ações negacionistas e de descredibilização do discurso racional ou científico, contra o desenvolvimento humano e a segurança comum, principalmente em países de média renda.

 

Que a História funcione como exemplo, não como um template iterativo do erro.

 

CONTRIBUIÇÃO

O autor participou de todas as etapas do manuscrito e aprovou a versão final a ser publicada.

 

 

DECLARAÇÃO DE CONFLITOS DE INTERESSE

Nada a declarar.

 

 

FONTES DE FINANCIAMENTO

Não há.

 

 

REFERÊNCIAS

1.             Check Point [Internet]. [Redwood]: Check Point Software Technologies; ©1994-2024. The state of cyber security 2024, 2024 [Acesso 2025 fev 21]. Disponível em: https://engage.checkpoint.com/security-report-2025/items/report--cyber-security-report-2024?utm_campaign=dg-cm_ps_25q1_ww_all_mix-gen-inf-cyber-security-report-2025-or_en-gsem&utm_source=google-dg&utm_medium=cpc&utm_term=cybersecurity+reports+2024&utm_content=cs_report&gad_source=1&gclid=CjwKCAiAn9a9BhBtEiwAbKg6fu7YOa0qbO5PzhR8i6r3cXKwm0GrawIbMpWCsABaO3betuc0h3RLFRoCqWUQAvD_BwE

2.            Check Point [Internet]. [Redwood]: Check Point Software Technologies; 2025. The state of cyber security 2025, 2025 [Acesso 2025 fev 19]. Disponível em: https://engage.checkpoint.com/security-report-2025?utm_campaign=dg-cm_ps_25q1_ww_all_mix-gen-inf-cyber-security-report-2025-or_en-gsem&utm_source=google-dg&utm_medium=cpc&utm_term=state%20of%20cybersecurity%202025&utm_content=state_cybersec&gad_source=1&gclid=CjwKCAiAn9a9BhBtEiwAbKg6frHixQ--XsFgDubZop5p7WRiNiIP99dPO_Kcjd4FlQUaK5ZoqeLzlRoCGMgQAvD_BwE

3.            Reuters [Internet]. Londres: Reuters; [sem data]. Google desenvolve co-cientista de IA para auxiliar pesquisadores, 2025 fev 19. [Acesso 2025 fev 21, Atualizado em 2025 abr 19]. Disponível em: https://www.reuters.com/technology/artificial-intelligence/google-develops-ai-co-scientist-aid-researchers-2025-02-19/

4.            Conselho Federal de Biomedicina [Internet]. Brasília, DF: CFBM; [sem data]. O que faz o Biomédico, 2024. [Acesso 2025 fev 21]. Disponível em: https://cfbm.gov.br/profissionais/o-que-faz-o-biomedico/#:~:text=O%20Biom%C3%A9dico%20%C3%A9%20respons%C3%A1vel%20pela,produz%20vacinas%20para%20combat%C3%AA%2Dlas

5.            Angwin J, Larson J, Mattu S. Machine Bias: there’s software used across the country to predict future criminals and it’s biased against blacks. Pro Publica [Internet]. 2016 maio 23. [Acesso 2025 fev 9]. Disponível em: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

6.            Gerken T. AI cracks superbug problem in two days that took scientists Years. BBC [Internet]. 2025 fev 20. [Acesso 2025 fev. 24]. Disponível em: https://www.bbc.com/news/articles/clyz6e9edy3o

7.            Amaral Filho N. Jornalismo e IA generativa: ensino, interdisciplinaridade, mercado e ética. Rio de Janeiro: Mauad X; 2024. 180p.

8.            Lee KF. Inteligência artificial: como os robôs estão mudando o mundo, a forma como amamos, nos relacionamos, trabalhamos e vivemos. Rio de Janeiro: Globo Livros; 2019.

9.            Google Cloud [Internet]. [local desconhecido]: Google Cloud; [sem data]. Tendências de IA para negócios em 2025. [Acesso 2025 fev 28]. Disponível em: https://cloud.google.com/resources/ai-trends-report?hl=pt-BR

10.         Liu X, Faes L, Kale AU, et al. A comparison of deep learning performance against health-care professionals in detecting diseases from medical imaging: a systematic review and meta-analysis. Lancet Digit Health. 2019;1(6):271-97. doi: https://doi.org/10.1016/s2589-7500(19)30123-2

11.         Ayers JW, Poliak A, Dredze M. Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum. JAMA Intern Med. 2023;183(6):589-96. doi: https://doi.org/10.1001/jamainternmed.2023.1838

12.         Instituto Nacional de Câncer. Rede Câncer [Internet]. 2024 [Acesso 2025 fev 28];56:1-44. Disponível em: https://ninho.inca.gov.br/jspui/handle/123456789/17180

13.         Garg RK, Urs VL, Agarwal AA, et al. Exploring the role of ChatGPT in patient care (diagnosis and treatment) and medical research: a systematic review. Health Promot Perspect. 2023;13(3):183-91. doi: https://doi.org/10.34172/hpp.2023.22

14.         Gormley B. This startup wants to use AI to uncover dangerous drugs. The Wall Street Journal [Internet]. 2025 fev 12. [Acesso 2025 mar 7]. Disponível em: https://www.wsj.com/articles/this-startup-wants-to-use-ai-to-uncover-dangerous-drugs-40297123

15.         Australian Medical Association [Internet]. [local desconhecido]: AMA; 2023. Position Statement. Artificial Intelligence in Healthcare, 2023. [Acesso 2025 fev 25]. Disponível em: https://www.ama.com.au/sites/default/files/2023-08/Artificial%20Intelligence%20in%20Healthcare%20-%20AMA.pdf

16.         Lamy M, Malta KC. Avanços e riscos da inteligência artificial na atenção à saúde. LSS [Internet]. 2023 [Acesso 2025 fev 26];12(2):108-19. Disponível em: https://periodicos.unisanta.br/LSS/article/view/936

17.         Dourado DA, Aith FMA. A regulação da inteligência artificial na saúde no Brasil começa com a Lei Geral de Proteção de Dados Pessoais. RSP. 2022;56:1-7. doi: https://doi.org/10.11606/s1518-8787.2022056004461

18.         Fiddler [Internet]. [local desconhecido]: Fiddler; [sem data]. AI explained: genAI use cases and challenges in healthcare. [Acesso 2025 mar 03]. Disponível em: https://www.fiddler.ai/webinars/ai-explained-genai-use-cases-and-challenges-in-healthcare?utm_source=mkto&utm_medium=email&utm_campaign=genai-healthcare&mkt_tok=NTEzLVJQUS02OTkAAAGY7LDtzKLF0IbPJTIS_ffwXHVsUElPQjrfsKd5oo6LRrWEDuevAmZrhDW_Y1fWCMI7ECmjhIaF81cIDx9JlroM1-Pp-ShT0osaW8czSCnpYw

19.         Comitê Gestor da Internet no Brasil. Inteligência artificial na saúde: potencialidades, riscos e perspectivas para o Brasil [Internet]. São Paulo: NIC.br; 2024. [acesso 2025 fev. 15]. 338p. Disponível em: https://cetic.br/media/docs/publicacoes/7/20240903150639/estudos_setoriais-ia-na-saude.pdf

20.          Rech R. Vencedores do prêmio turing fazem alerta sobre IAs sem sistemas de segurança. Exame [Internet]. 2025 mar 5. [Acesso 2025 mar. 7]. Disponível em: https://exame.com/inteligencia-artificial/vencedores-do-premio-turing-fazem-alerta-sobre-ias-sem-sistemas-de-seguranca/

21.         Mordor Intelligence [Internet]. [local desconhecido]: Mordor Intelligence; [sem data]. Artificial intelligence in medicine market size & share analysis - growth trends & forecasts (2025 - 2030). [Acesso 2025 mar 10]. Disponível em: https://www.mordorintelligence.com/industry-reports/artificial-intelligence-in-medicine-market

22.         Braga L, Lopes R, Alves L, et al. The global patent landscape of artificial intelligence applications for cancer. Nat Biotechnol. 2023;41(12):1679-87. doi: https://doi.org/10.1038/s41587-023-02051-9

23.         National Institute of Health [Internet]. [local desconhecido]: NIH; 2022. NIH launches Bridge2AI program to expand the use of artificial intelligence in biomedical and behavioral research, 2022 set 13. [Acesso 2025 mar 11]. Disponível em: https://www.nih.gov/news-events/news-releases/nih-launches-bridge2ai-program-expand-use-artificial-intelligence-biomedical-behavioral-research

24.         Instituto Nacional de Câncer [Internet]. Rio de Janeiro: INCA; 2022. Sumário executivo: gastos federais atuais e futuros com os cânceres atribuíveis aos fatores de risco relacionados à alimentação, nutrição e atividade física no Brasil, 2022. [Acesso 2025 mar 13]. Disponível em: https://www.inca.gov.br/publicacoes/relatorios/gastos-federais-atuais-e-futuros-com-os-canceres-atribuiveis-aos-fatores-de

 

 

 

Recebido em 17/3/2025

Aprovado em 17/3/2025

 

Editora-científica: Anke Bergmann. Orcid iD: https://orcid.org/0000-0002-1972-8777

 

 

image001

Este é um artigo publicado em acesso aberto (Open Access) sob a licença Creative Commons Attribution, que permite uso, distribuição e reprodução em qualquer meio, sem restrições, desde que o trabalho original seja corretamente citado.