Decisão na incerteza em Saúde

A incerteza é o “normal” e a espera também é uma decisão

Na liderança em saúde, raramente existe uma informação completa. O erro não está em decidir com dados imperfeitos, mas em fingir que a decisão só é legítima quando “tudo está medido”.
O ponto central é temporal: a utilidade da informação adicional diminui com o tempo, enquanto o custo da inação cresce (e muitas vezes acelera). Por isso, a pergunta útil não é “temos dados suficientes?”, mas sim: “Qual é o custo real de esperar mais?”.

Nem toda a incerteza é igual, e confundi-la leva frequentemente a más decisões. Há situações em que o risco é conhecido ou pelo menos estimável: sabemos quais são os cenários possíveis e conseguimos atribuir-lhes probabilidades razoáveis. É o caso de muitos atos clínicos, de previsões de procura baseadas em séries históricas ou de decisões financeiras recorrentes. Aqui, a decisão é imperfeita, mas é tecnicamente informada. Noutras situações, o problema não é o risco, mas a incerteza propriamente dita: os cenários são conhecidos, mas as probabilidades não o são. Sabemos o que pode acontecer, mas não sabemos quão provável é cada resultado. Este é o território típico de crises organizacionais, mudanças estruturais, reformas de sistemas ou introdução de novos modelos assistenciais.

Existe ainda um nível mais exigente: a ambiguidade. Aqui, nem os cenários estão totalmente definidos. Não sabemos exatamente o que pode acontecer, apenas que a organização pode reagir de formas não lineares ou inesperadas. Em saúde, isto ocorre quando múltiplas variáveis interagem, os comportamentos mudam em resposta às decisões e pequenas alterações podem gerar efeitos desproporcionados.

Esperar por certezas num contexto de ambiguidade não é prudência, mas sim uma ilusão. Nestes contextos, decidir não é escolher a opção “correta”, mas escolher uma opção robusta, capaz de resistir a vários futuros plausíveis.

No SNS, a não-decisão produz custos cumulativos que nem sempre aparecem nos dashboards:

  • Clínicos (indiretos): atrasos nos diagnósticos, doença mais avançada frequente, maior complexidade futura.
  • Organizacionais: fadiga crónica, “normalização do desvio”, circuitos informais que corroem a governação.
  • Reputacionais: perda de confiança de profissionais e da comunidade.
  • Estratégicos: perda de opções; quando se decide, já só restam as alternativas piores e mais caras.

É importante uma distinção essencial:

  • Prudência informada: avalia riscos e decide apesar da incerteza. Por outras palavras, implica agir com base no melhor conjunto ponderado de informação disponível.
  • Prudência defensiva: usa complexidade e “mais pareceres” como um mecanismo psico-organizacional para adiar responsabilidade.

Decidir com probabilidades (como na clínica), mas aplicado ao organizacional

Tal como na Medicina se raciocina com risco pré-teste e impacto, em liderança organizacional deve-se raciocinar por cenários e distribuições, não por certezas.

Uma decisão robusta compara sempre:

  • Probabilidade do cenário
  • Impacto se ocorrer
  • Custo de errar em cada direção (assimetria)
  • Reversibilidade (capacidade real de corrigir)

Isto é particularmente importante porque, em saúde, errar por defeito pode ser clinicamente/eticamente inaceitável, enquanto errar por excesso tende a ser sobretudo custo/ineficiência (muitas vezes reversível).

Dois tipos de probabilidade (não confundir):

  • Clínica: desfecho em doentes/grupos.
  • Organizacional: falha sistémica, saturação, comportamento emergente, erosão de capacidade.

Um viés muito frequente em lideranças médicas é privilegiar o risco agudo visível e subestimar risco cumulativo difuso (ex.: decisões que protegem o “agora” mas criam dano diferido e previsível).

Regra simples para bloquear “mais dados decorativos”:

“Se este novo dado confirmar o pior cenário, a decisão muda? E se confirmar o melhor, muda?”
Se a resposta for “não” em ambos, esse dado não deve atrasar a decisão.

Informação decisional vs informação descritiva (o antídoto para a paralisia por análise)

A maioria das pessoas que trabalham e gerem em saúde está saturada de informação. O problema raramente é a falta de dados, mas a falta de análise e avaliação da hierarquia e qualificação dessa informação:

  • Informação decisional: se fosse diferente, mudava a escolha.
  • Informação descritiva: melhora compreensão/auditoria, mas não muda a decisão.

A maturidade decisória é definir “informação suficientemente boa”, ajustada ao risco e à reversibilidade.

Nem toda a informação adicional melhora a decisão. Um critério simples ajuda a separar prudência de adiamento disfarçado:

Se este novo dado confirmar o cenário mais favorável, a decisão muda?
E se confirmar o cenário mais desfavorável?

Se a resposta for “não” em ambos os casos, a informação pode ser interessante, mas não é decisional. Continuar a procurá-la apenas adia a ação e aumenta o custo da inação. Na saúde, este fenómeno é frequente: relatórios mais detalhados, indicadores mais finos, novas projeções, que refinam a descrição do problema, mas não alteram o que precisa de ser feito. Quando a decisão já é clara em termos de impacto, segurança e equidade, a informação adicional raramente justifica o atraso.

Hierarquia operacional útil no terreno:

  1. Segurança clínica (riscos imediatos, falhas de cadeia, eventos evitáveis)
  2. Capacidade real instalada (equipa efetiva, tempos de ciclo, pontos de estrangulamento)
  3. Equidade e acesso (quem fica de fora, atrasos extremos, assimetrias)
  4. Detalhe útil mas não bloqueador (granularidade sem impacto de ação)

E um princípio de disciplina: só entra na mesa decisória um indicador se estiver ligado a uma ação possível.

Sistemas complexos: não linearidade e irreversibilidade

Hospitais ou outros serviços de saúde são sistemas complexos adaptativos: têm agentes interdependentes, efeitos diferidos, respostas mediadas por incentivos e uma cultura própria. Logo:

  • Pequenas mudanças podem ter efeitos grandes.
  • Reformas grandes podem ter impacto marginal.
  • “Resolver aqui” pode apenas deslocar a pressão para outro ponto.

Irreversibilidades típicas no SNS:

  • Perda de capital humano (saídas, equipas desfeitas, erosão formativa)
  • Erosão de confiança (entre níveis de gestão e equipas; com a comunidade)
  • Aprisionamento tecnológico/contratual (dependência de fornecedor, custos de saída)
  • Normalização do desvio (o subótimo vira padrão)

A liderança madura não tenta “controlar tudo” com mais regras, mas cultiva e nutre uma arquitetura organização saudável para boas decisões emergirem: através de um propósito ou objetivo claro, regras simples, incentivos alinhados com o propósito e autonomia com limites.

A primazia das decisões reversíveis: agir cedo, corrigir cedo

Em instabilidade, a qualidade da decisão mede-se muito pela capacidade de ajuste. A reversibilidade não é sinónimo de hesitação: é construir e implementear as decisões que admitem correção sem causar dano relevante ou permanente.

Como tornar a liderança reversível na prática (dia a dia):

  • Fracionar decisões em etapas (em vez de “tudo ou nada”).
  • Pilotos/testes e implementação faseada.
  • Critérios de saída ex ante (quando parar/ajustar/recuar).
  • Horizontes curtos de reavaliação (ciclos rápidos de feedback).
  • Redundâncias críticas (resiliência > eficiência extrema).
  • Pressupostos escritos (para permitir revisão racional, não emocional).

Uma nota importante: a decisão clínica é muitas vezes reversível em dias/semanas. A decisão organizacional é frequentemente irreversível a curto prazo: a reversibilidade tem de ser programada, não presumida.

Tornar explícitos os riscos aceites: governar em vez de mascarar

Todo o processo decisório incorpora sempre algum tipo de risco. Se não for assumido, torna-se um risco opaco, mais perigoso.

É importante distinguir:

  • Risco técnico: probabilidade de falha de processos/sistemas.
  • Risco moral: quem paga o custo do erro; quem fica exposto; quem beneficia.

No SNS, isto é central: as decisões podem ser tecnicamente defensáveis, mas moralmente sensíveis (distribuição desigual de carga e risco entre doentes, equipas, territórios).

Boa prática de comunicação do risco (operacional, não retórica):

  • “Probabilidade baixa, impacto elevado.”
  • “Este é o risco dominante; os restantes são secundários.”
  • “Aceitamos este risco por X semanas, não indefinidamente.”
  • “Se o indicador Y ultrapassar Z, revemos a estratégia.”

É também útil a capacidade de dizer uma frase que reflete uma liderança madura (se for bem usada): “não sabemos”, seguida de um plano de vigilância e critérios de correção. Isto aumenta a confiança, porque reduz a surpresa e legitima os ajustes necessários.

Também aqui há um ponto cultural: a responsabilização não é culpabilização. Sem isso, o risco é escondido e a organização fica cega.

Decidir sob incerteza exige comunicação, não apenas análise

Uma decisão tomada sob incerteza só é eficaz se for compreendida. Explicar que não existe certeza absoluta, quais são os cenários considerados, que riscos foram aceites e quais foram mitigados é essencial para gerar alinhamento de toda a equipa ou elementos de uma organização. O silêncio hierárquico ou a comunicação excessivamente abstrata criam desconfiança e alimentam a perceção de arbitrariedade.

Liderar sob incerteza não é prometer a ausência de erro. Consiste em assumir explicitamente que a decisão foi tomada com a melhor informação disponível, no tempo adequado, e que será ajustada se o contexto mudar. A incapacidade de comunicar a incerteza transforma boas decisões técnicas em más decisões organizacionais.

Conclusão

Liderar em saúde não é procurar certeza mas assumir a responsabilidade sob a incerteza, decidindo em tempo útil, com foco no essencial, com reversibilidade programada e com risco explicitado (incluindo o risco moral). A competência não está em “acertar sempre”; está em errar pouco, errar cedo, corrigir cedo e manter o risco governável.

O que aconteceu: durante 2020–2021 devido à pandemia COVID houve uma redução muito relevante de cirurgias programadas e alterações profundas do acesso a consultas; o Tribunal de Contas descreve uma queda de dezenas de milhares de cirurgias programadas e aumentos claros dos tempos de espera para consultas e cirurgias face a 2019. 


Erro típico de decisão sob incerteza:

  • Maximização do risco agudo visível (COVID) com subavaliação do risco cumulativo (progressão de doença, atrasos diagnósticos, agravamento da complexidade clínica futura).
  • Inação travestida de prudência: “esperar por mais informação” (sobre ondas/variantes) quando o problema dominante já era operacional (capacidade, circuitos, execução).
  • Decisões com aparência “segura” no imediato, mas com custos diferidos e assimétricos.

O que fazer diferente (se voltasse atrás):

  • Instituir, desde cedo, um “núcleo de serviços essenciais não-COVID” com proteção operacional, com gatilhos explícitos para reduzir/expandir.
  • Separação rígida de circuitos (tempo, espaço, equipa) para evitar a “contaminação operacional” e permitir a continuidade programada mínima.
  • Decidir por cenários (otimista/central/pessimista) e não por números pontuais e atuais.

Soluções para o futuro (reutilizáveis em crises sazonais/epidémicas):

  • Plano de Continuidade Assistencial formal: percentagem mínima de atividade programada por linha (oncologia, cardiovascular respiratória, etc.), com regras.
  • Decisões reversíveis e faseadas (reduz 20%, revê em 7–14 dias; reduz 40% se gatilho X; reabre progressivamente se gatilho Y).
  • Indicadores de alarme que não sejam só COVID: tempos para 1.ª consulta prioritária, backlog por patologia, taxa de no-show por medo/adiamento, etc.

O que aconteceu: relatos de encerramentos/limitações de urgências de obstetrícia e ginecologia por indisponibilidades de última hora e falhas de cobertura de escalas, com impacto imediato no encaminhamento regional. 

Erro típico:

  • Tratar o tema como “episódio” e não como risco estrutural (dependência de prestadores externos, fragilidade de escala, ausência de redundância).
  • Falha de desenho ao nivel da reversibilidade: quando o sistema já está no limite, qualquer ausência gera um ponto de não retorno operacional (encerra-se).
  • Risco moral apenas valorizado se for mediático: quem suporta o risco residual (grávidas deslocadas, excesso de trabalho nas equipas receptoras, tempos de transporte, sobrecarga de urgências vizinhas).

O que fazer diferente:

  • Tornar explícito o risco aceite: “dependência de X% de prestadores externos é aceitável até que ponto?”
  • Redundâncias mínimas (planos de contingência regionais) em vez de eficiência máxima.
  • Escalas com margem operacional (back-up real) e não apenas cobertura “no papel”.

Soluções para o futuro:

  • Arquitetura regional de urgência com regras claras (quem recebe o quê; quando ativa; como comunica; como se compensa a unidade recetora).
  • Planos de retenção/estabilização de equipas e contratos que reduzam a variabilidade (o sistema não pode depender de “última hora” como norma).
  • Painel semanal de risco de escalas: sem burocracia, mas com “semáforo” e ações automáticas.

O que aconteceu (exemplo documentado): houve ataques de ransomware a hospitais portugueses, incluindo ao Hospital Garcia de Orta (abril de 2022) e outros episódios no setor. 

Erro típico:

  • Ver a cibersegurança como algo do âmbito informático e não como um elemento essencial na segurança clínica e na continuidade assistencial.
  • Subestimar a irreversibilidade: quando o sistema cai, a reversibilidade é baixa (papel improvisado, perda de rastreio, atrasos, risco de erro).

O que fazer diferente:

  • Tratar a resiliência digital como uma decisão organizacional crítica, com planos de reversão (downtime procedures) desenhados e treinados.
  • Definir o risco aceitável (ex.: “tempo máximo de indisponibilidade tolerável para X serviços”).

Soluções para o futuro:

  • Exercícios regulares de simulação de falha (downtime drills) em serviços e áreas críticos.
  • Redundância, segmentação e backups testados; e “mínimos operacionais” para manter a segurança do doente.
mri, magnetic resonance imaging, diagnostics, hospital, test, tests, medical, health, illness, the doctor, medic, treatment, patient, diagnostician, technique, mri, mri, mri, mri, mri

Literatura adicional

Daniel Kahneman — Thinking, Fast and Slow
Mostra como decisões reais são dominadas por questões heurísticas e vieses (ex.: excesso de confiança, ancoragem, aversão à perda, disponibilidade).

Gerd Gigerenzer — Risk Savvy
Explica como comunicar o risco de um modo compreensível e como evitar erros por má representação de probabilidade (frequências naturais vs percentagens abstratas).

Herbert A. Simon — racionalidade limitada (“bounded rationality”)
Em sistemas complexos, não decidimos de forma ótima: decidimos “suficientemente bem” com tempo e informação limitados.

Plsek & Greenhalgh — complexidade em cuidados de saúde
Hospitais e sistemas de saúde são sistemas complexos: efeitos não lineares, adaptação, consequências não previstas.

Ronald Heifetz — Adaptive Leadership
Distingue problemas técnicos (soluções conhecidas) de problemas adaptativos (mudanças de comportamento, valores, cultura).

Karl Weick — sensemaking (dar sentido sob ambiguidade)
Em incerteza, o essencial é como as equipas interpretam o que se passa. As decisões falham por falhas de interpretação partilhada.