Architecture Tradeoff Analysis Method (ATAM)

O ATAM é um método estruturado de avaliação de arquiteturas que permite identificar trade-offs, sensibilidades e riscos técnicos de forma sistemática, considerando múltiplos atributos de qualidade relevantes ao contexto de negócio. Ele é composto por 9 passos, divididos em 4 etapas, que são explicados detalhadamente a seguir.

1. Apresentação
  • Passo 1: Exposição do método
  • Passo 2: Definição dos business drivers
  • Passo 3: Apresentação inicial da arquitetura
2. Investigação e Análise
  • Passo 4: Identificação das abordagens arquiteturais
  • Passo 5: Construção da árvore utilitária
  • Passo 6: Análise técnica das abordagens
3. Testes
  • Passo 7: Brainstorm de cenários e priorização dos cenários críticos
  • Passo 8: Reanálise baseada nas prioridades
4. Resultados
  • Passo 9: Síntese dos achados, documentação dos trade-offs e recomendações finais

Aplicação do ATAM aos resultados obtidos

Passo 1 — Coleta de Cenários

Definição dos cenários críticos que o sistema deve suportar.

  • Processar alto volume diário de solicitações
  • Minimizar falsos positivos (evitar concessão a inadimplentes)
  • Minimizar falsos negativos (não negar crédito a bons pagadores)
Passo 2 — Requisitos e Restrições
  • Acurácia mínima: 80% (RNF01)
  • Tempo de treinamento menor possível (RNF02)
  • Infraestrutura alvo: CPU única e memória limitada
Passo 3 — Descrição das Arquiteturas
Regressão Logística
  • Modelo linear interpretável
  • Inferência muito rápida
  • Limitações em padrões não lineares
Random Forest
  • 40 árvores bootstrap
  • Robusto a ruído
  • Custo computacional moderado
XGBoost
  • 210 árvores, regularização L1/L2
  • Alto poder preditivo
  • Exige tuning cuidadoso
MLP
  • 3 camadas ocultas (128→64→32)
  • Alta capacidade expressiva
  • Tempo de treino elevado e "caixa opaca"
Passo 4 — Análise dos Atributos
Métricas dos algoritmos
AlgoritmoTempo de Treinamento
Regressão Logística~21 s
Random Forest~74 s
XGBoost~37 s
MLP~784 s

Fato

XGBoost obteve o melhor desempenho em todas as métricas

Custo

MLP teve tempo de treinamento muito superior (≈784 s).

Risco

Regressão Logística apresenta baixa sensibilidade em recall (0.2779).

Passo 5 — Sensibilidades
  • MLP: tempo de treinamento cresce muito com volume de dados (escala mal).
  • Random Forest e XGBoost: sensíveis ao número de árvores (trade-off precisão × tempo).
  • Regressão Logística: sensível à separabilidade das classes (impacto no recall).
Passo 6 — Trade-offs

Desempenho vs Complexidade

XGBoost e Random Forest entregam alto desempenho, com custo de treinamento maior que modelos lineares.

Recall vs Interpretabilidade

Modelos mais complexos (XGBoost, MLP) aumentam recall e F1, mas reduzem interpretabilidade em relação à Regressão Logística.

Passo 7 — Priorização de Cenários

Na priorização hipotética conduzida com stakeholders, o critério de minimizar falsos positivos (segurança financeira) foi classificado como mais importante. Além disso, destacou-se a relevância da interpretabilidade e capacidade de auditoria dos modelos no contexto bancário.

Critério principal

Minimizar falsos positivos (garantir segurança financeira).

Critério secundário

Alta interpretabilidade e capacidade de auditoria dos resultados.

Passo 8 — Reanálise

Com as prioridades definidas, reavaliamos as métricas: XGBoost possui acurácia, recall especificidade, precisão e F1 superiores com tempo de treinamento inferior, em comparação com o Random Forest, apesar de uma menor interpretabilidade. Os outros modelos ficam aquém nas prioridades definidas.

Conclusão: XGBoost atende melhor os requisitos priorizados; Random Forest é alternativa viável, porém com tempo de treinamento maior.
Passo 9 — Resultados e Recomendação

Relatório consolidado com recomendações operacionais.

Recomendação

A recomendação destaca as sensibilidades e trade-offs identificados e indica a adoção de XGBoost como arquitetura padrão para apoio diário à decisão de crédito. Para mitigar riscos residuais, sugere-se o ajuste fino de hiperparâmetros, assegurando equilíbrio entre alta precisão preditiva e desempenho operacional. Sendo assim, se fosse necessária a escolha de somente um algoritmo, o XGBoost seria o mais adequado.

Riscos
  • Sensibilidade a hiperparâmetros, podendo gerar variação de desempenho.
  • Possibilidade de degradação por mudanças na distribuição dos dados (drift).
Mitigações
  • Ajuste fino e validação regular dos hiperparâmetros para manter estabilidade.
  • Monitoramento contínuo e protocolos de re-treinamento para reduzir efeitos de drift.