Um pescador de Long Island poderia ter morrido após cair de seu
barco, no ano passado, se não fosse por um campo de estudos outrora obscuro
chamado estatística bayesiana -conjunto de regras matemáticas que usa dados
novos de modo a atualizar continuamente as suposições ou o conhecimento.
O método foi inventado no século 18 por um religioso chamado
Thomas Bayes -segundo relatos, para calcular a probabilidade da existência de
Deus. Agora, a estatística bayesiana cresceu e se tornou bem mais útil graças a
um poder computacional que não existia 20 anos atrás. Essa técnica está se
mostrando especialmente útil na abordagem de problemas complexos, como foram as
buscas pelo pescador John Aldridge.
A estatística bayesiana está se difundindo em tudo, da física à
psicologia. Hoje, seus partidários participam de um intenso debate sobre como
os cientistas transformam dados em conhecimento e previsões.
Aumentam as suspeitas de que alguns campos não estejam fazendo
um bom trabalho nesse tipo de análise. Em 2012, por exemplo, uma equipe da
empresa de biotecnologia Amgen anunciou que havia analisado 53 estudos sobre o
câncer e concluído que 47 deles não poderiam ser repetidos. Análises similares
vêm lançando dúvidas sobre tantas descobertas que os pesquisadores falam sobre
uma "crise de replicação".
Alguns estão otimistas de que os métodos bayesianos possam
melhorar a confiabilidade das pesquisas, permitindo que os cientistas
verifiquem trabalhos feitos com a abordagem mais tradicional ou
"clássica", conhecida como a estatística frequentista.
A técnica frequentista aplica a probabilidade aos dados. Se você
suspeita, por exemplo, que seu amigo tenha uma moeda adulterada e você observa
que num cara ou coroa um dos lados cai para cima em nove a cada dez
lançamentos, um frequentista calcularia a probabilidade de obter tal resultado
com uma moeda não adulterada. A resposta (cerca de 1%) não é uma medida direta
da probabilidade de que a moeda esteja adulterada; é uma medida da
improbabilidade de saírem nove caras em dez lançamentos.
Por outro lado, os cálculos bayesianos partem diretamente para a
probabilidade da hipótese, levando em conta não apenas os dados do experimento
com o cara ou coroa, mas qualquer outra informação relevante -inclusive se você
já viu o seu amigo usar uma moeda adulterada.
Com sua promessa de objetividade, a estatística frequentista
tornou-se o padrão do século 20. A técnica surgiu na Inglaterra do século 18,
quando o médico John Arbuthnot se dispôs a calcular a proporção entre o
nascimento de bebês dos sexos masculino e feminino. Arbuthnot reuniu registros
de 1629 a 1710 e concluiu que, em Londres, eram registrados anualmente alguns
meninos a mais do que meninas. Ele calculou a probabilidade de isso ocorrer por
mero acaso no decorrer de 82 anos e descobriu que a chance era de uma em
trilhões.
Também no século 18, o astrônomo Daniel Bernoulli usou uma
técnica semelhante para investigar a curiosa geometria do Sistema Solar, no
qual os planetas orbitam o Sol num mesmo plano. Se os ângulos orbitais fossem
puramente aleatórios, o sistema solar se pareceria mais com uma esfera do que
com uma panqueca. Mas Bernoulli calculou que as órbitas de todos os planetas
estavam num espaço de sete graus a partir desse plano, na chamada eclíptica. Os
cálculos de Bernoulli estimam tal probabilidade em cerca de uma em 13 milhões.
Este número é chamado de valor p, definido como a probabilidade
de que um fenômeno observado ou ainda mais extremo do que o observado possa ter
ocorrido por acaso. Os resultados são considerados "estatisticamente
significativos" se o valor p é inferior a 5%.
Mas há um risco nessa tradição, segundo Andrew Gelman, da
Universidade Columbia, em Nova York. Mesmo que os cientistas façam os cálculos
corretamente, aceitar tudo com um valor p igual a 5% significa que um em cada
20 resultados "estatisticamente significativos" é, na verdade, um
ruído aleatório. A proporção de resultados errados publicados em periódicos
científicos é provavelmente maior, disse Gelman.
A abordagem bayesiana se presta bem a problemas como buscas, que
envolvem um único incidente e muitos tipos diferentes de dados relevantes,
disse Lawrence Stone, da consultoria Metron, da Virgínia, que trabalha com a
Guarda Costeira dos EUA.
No começo, tudo o que a Guarda Costeira sabia sobre o pescador
desaparecido no mar foi que ele caíra do seu barco entre 21h e 6h. Equipes de
resgate acrescentaram outras informações ao cálculo -sobre correntes
dominantes, as posições que os helicópteros de busca já haviam sobrevoado e
outras pistas. O sistema continuou a reduzir a área de buscas até que
finalmente um agente de resgate em um helicóptero avistou um homem agarrado a
boias. Ele havia passado 12 horas na água e estava com hipotermia, mas vivo.
F. D. FLAM - jornalista do New York Times
Fonte: suplemento NYT do jornal Folha de São Paulo