Período: Julho/2025 | ||||||
---|---|---|---|---|---|---|
D | S | T | Q | Q | S | S |
01 | 02 | 03 | 04 | 05 | 06 | 07 | 08 | 09 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 |
A promessa de que a inteligência artificial (IA) pode revolucionar a medicina é cada vez mais presente nas clínicas, hospitais e nos bastidores da indústria da saúde. De diagnósticos rápidos à análise de exames complexos, o uso de modelos de linguagem e algoritmos inteligentes desperta otimismo. Mas a mesma velocidade com que essas ferramentas estão sendo adotadas acende alertas — inclusive entre especialistas da área jurídica. Um dos principais questionamentos: quem é o responsável se a IA errar e o paciente for prejudicado?
Nesta semana, a Organização Mundial da Saúde (OMS) publicou um comunicado oficial pedindo "cautela" no uso da inteligência artificial no setor. A entidade enfatiza a necessidade de proteger a autonomia humana, a segurança e o bem-estar dos pacientes, além de chamar atenção para riscos como a tendência dos dados, a geração de informações incorretas e a possibilidade de desinformação generalizada. "A adoção precipitada de sistemas não testados pode levar a erros por parte dos profissionais de saúde, causar danos aos pacientes e minar a confiança na IA", destaca o documento.
A OMS observa que modelos de linguagem como o ChatGPT estão sendo utilizados de forma experimental em ambientes médicos, muitas vezes sem a devida validação clínica. A instituição se diz preocupada com o fato de esses sistemas serem tratados com uma confiança desproporcional à sua comprovação científica.
Do ponto de vista legal, o uso da IA na medicina impõe desafios ainda pouco regulados. Afinal, se uma inteligência artificial indicar um diagnóstico equivocado ou recomendar um tratamento incorreto, quem deve ser responsabilizado? O médico que seguiu a recomendação da IA? A empresa que desenvolveu o sistema? O hospital que o contratou?
Segundo o advogado Thayan Fernando Ferreira, especialista em direito de saúde e direito público, membro da comissão de direito médico da OAB-MG e diretor do escritório Ferreira Cruz Advogados, é essencial entender que, juridicamente, a IA ainda é um instrumento, e não um sujeito de direito. "A responsabilidade, em caso de erro, continua recaindo sobre os profissionais da saúde, já que são eles os detentores do dever técnico e da autonomia de decisão. A inteligência artificial pode ser usada como ferramenta de apoio, mas nunca como substituta da análise humana", explica.
O Código de Ética Médica brasileiro reforça essa ideia ao afirmar que o médico não pode transferir a terceiros, humanos ou não, a responsabilidade sobre suas decisões clínicas. Já o Código de Defesa do Consumidor (CDC) pode ser aplicado, por analogia, nos casos em que a falha na prestação do serviço envolva defeitos no software, o que envolveria também os fornecedores da tecnologia. "O artigo 14 do CDC trata da responsabilidade objetiva do prestador de serviço. Isso significa que, havendo falha na prestação, não é necessário provar culpa, basta comprovar o dano e o nexo com a conduta", afirma o advogado.
Todavia, enquanto o setor se movimenta entre o encantamento e o receio, o debate permanece aberto. "A IA pode ser uma aliada importante, mas precisa ser usada com rigor científico, responsabilidade ética e segurança jurídica. O entusiasmo não pode atropelar o cuidado", reforça Thayan.
Período: Julho/2025 | ||||||
---|---|---|---|---|---|---|
D | S | T | Q | Q | S | S |
01 | 02 | 03 | 04 | 05 | 06 | 07 | 08 | 09 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 |
Compra | Venda | |
---|---|---|
Dólar Americano/Real Brasileiro | 5.4443 | 5.4473 |
Euro/Real Brasileiro | 6.43087 | 6.44745 |
Atualizado em: 01/07/2025 06:38 |