Wilson Medeiros: "Análise de dados: use com moderação"

Mais do que nunca, o discernimento – especialmente aquele subjetivo e baseado em experiências passadas – terá papel fundamental na moderação do excesso de confiança nos modelos quantitativos
|
vero

Algoritmo. Essa é a palavra da vez quando se fala em análise de riscos e consequências no mercado financeiro. É fato que nos dias de hoje podemos ter uma perspectiva mais ampla do que há dez anos, graças ao aperfeiçoamento da inteligência de processamento de dados.

Todavia, ainda não sabemos até que ponto as probabilidades calculadas pelos algoritmos diferem das probabilidades reais. Não podemos afirmar quais hipóteses irão de fato se confirmar.

Leia também: “Venda direta ao consumidos – um caminho sem volta”

À medida em que o estudo dos algoritmos se torna mais complexo, torna-se mais complicado identificar as lacunas que podem fazê-los falhar nas interpretações. “Hoje, corremos o risco de investidores, operadores e reguladores não compreenderem até que ponto o progresso tecnológico está – ou não está –reduzindo a incerteza financeira”, alerta Stephen Blyth,  professor de Prática da Estatística na Harvard University e ex-presidente da Harvard Management Company, em recente artigo na Harvard Business Review.

Vale a pena reverberar o que Blyth aborda neste artigo. Ele diz que, ao mesmo tempo em que o setor financeiro adotou o big data e os algoritmos com entusiasmo, é essencial questionar a confiança depositada na nova geração de modelos quantitativos.

Diante do risco de pecar pelo excesso de previsões baseadas em algoritmos, duas questões são especialmente preocupantes. A primeira delas é que há semelhanças curiosas (e inquietantes) entre os avanços do aprendizado de máquina, os cálculos algorítmicos e o crescimento vertiginoso da engenharia financeira antes da crise que abalou o mundo há dez anos. Veja aqui 7 tendências no mundo dos negócios para um futuro próximo. 

Em segundo lugar, Stephen Blyth alerta para o risco de acomodação diante do avanço da capacidade de processamento de dados. Segundo ele, as estatísticas mostram que o big data não garante a prevenção de grandes problemas. É preciso levar em conta que, assim como ocorre hoje, na década de 1990 e início dos anos 2000, as finanças atraíram mentes quantitativas brilhantes que geraram extraordinários avanços teóricos e metodológicos. Ou seja, humanos pensantes, em vez de máquinas calculadoras.

Houve ainda uma proliferação do “procedimentalismo”, termo usado pelo estatístico Arthur Dempster para a aplicação impensada de técnicas sofisticadas, em detrimento do raciocínio qualitativo e do julgamento subjetivo. O que, fatalmente, levou a resultados sem lógica.

Assim, podemos deduzir que o aprendizado de máquina pode ser  eficaz nas previsões de curto prazo, mas não é tão útil nas inferências, já que utiliza dados de ciência e de mecanismos de mercado que estão por trás de um modelo específico.

Portanto, o alerta para as finanças é gritante. Não importa o tamanho da base de dados. Se ela contiver uma amostragem com erros sistemáticos, mesmo que mínimos, o big data não evitará “big problemas”. E aqueles que retrocedem à abordagem procedimentalista estão especialmente vulneráveis.

Mais do que nunca, o discernimento – especialmente aquele subjetivo e baseado em experiências passadas – terá papel fundamental na moderação do excesso de confiança nos modelos quantitativos. É imprescindível questionar até o mais bem sucedido algoritmo e manter a pulga atrás da orelha. A humildade diante da incerteza pode ser o diferencial entre a estabilidade e o caos.


Gostou? Leia mais artigos de Wilson Medeiros aqui. 

{{ reviewsTotal }}{{ options.labels.singularReviewCountLabel }}
{{ reviewsTotal }}{{ options.labels.pluralReviewCountLabel }}
{{ options.labels.newReviewButton }}
{{ userData.canReview.message }}