Uma Radical Reconceituação do Bayesianismo
Há alguns problemas no bayesianismo tradicional: a idéia de que agentes ideais têm a mesma confiança em proposições logicamente equivalentes, que as evidências afetam uniformemente as crenças em proposições equivalentes, que os agentes conhecem todas as consequências lógicas de suas crenças, que o tipo da evidência não importa, apenas o efeito no nível de crença, que as teorias são sistemas axiomáticos (redutíveis a um conjunto finito de axiomas e proposições lógico-dedutivas, ou seja, isso nos leva ao próximo ponto...), que as teorias incorporam apenas uma única heurística, que só há um uso quantitativo do bayesianismo (e não um bayesianismo qualitativo que foca mais na direção das crenças), a concepção de uma verdade dada (pressuposta), a sua cegueira para heurísticas extra-matemáticas e o foco no indivíduo ao invés da complementaridade entre indivíduo e social, entre outros problemas que iremos destrinchar e analisar. Apesar disso, o bayesianismo é útil no raciocínio por analogia, escolha de estratégias de prova e indução em larga escala.
Há um outro horizonte ainda mais problemático no bayesianismo: a sombra da “verdade absoluta”, que pressupõe a verdade. Ora, suas formulações dizem respeito a algo que é logicamente necessário e eterno, mas que devido a limitações de conhecimento, se atribui níveis de crença. Entre exigir que matemáticos ideais tenham um comprometimento com tudo aquilo que se saiba verdade e atribuir probabilidade mínima a qualquer afirmação que não foi provada como falsa (que cai no problema das apostas ruins), há um meio-termo: a heurística de Lakatos, que identifica os passos extra-matemáticos na formulação e aceitação de um problema e teorema matemático.
O matemático e a própria comunidade matemática têm a habilidade de distinguir o que é prova relevante ou não, o que já foi provado e o que é novo, baseando-se em um conhecimento coletivo (que mesmo com toda a revisão por pares, é incerto – mas é o que acontece na vida real). Além dos fatores enunciados, há outros fatores envolvidos na plausibilidade socialmente atribuída a uma conjectura, analogia, indução, generalização ou idéia, como a beleza estrutural, experimentos mentais, fatores psicológicos (a experiência de quase sucesso na prova da dualidade em variedades fez com que Poincaré mantivesse a crença na sua estratégia, mesmo após o erro da suposição das intersecções), origem da prova, utilidade/objetivos ou coerência. Isto é, a verdadeira teoria da probabilidade não envolve somente o conhecimento individual, mas o conhecimento social.
Na verdade, mesmo após uma prova, a confiança não é garantida (e a história da ciência sempre nos prova que de uma prova sólida pode sair tanto um contraexemplo quanto correções). Ela depende da revisão repetida da prova, validação por pares, aceitação pela comunidade científica (que envolve fatores institucionais complexos, onde se leva em conta até mesmo a biografia e a realidade socioeconômica do cientista matemático), checagens experimentais, checagem de fontes, semelhanças com complexidade, resultados já estabelecidos e geração de consenso (não estou fazendo nenhuma separação estrita, no entanto, entre fatores de plausibilidade de conjecturas e teoremas). Muitas vezes também, há provas interconectadas, onde avanços implicam avanços em outra. Contar mais 0s, além dos 1,5 bilhões que já conhecemos, da função zeta da hipótese de Riemann não aumentaria nossa confiança nela, uma vez que as propriedades dos números naturais podem falhar (teorema de Skewes), sendo mais útil um avanço no campo das funções.
Muitas vezes, há modelos não diretamente derivados das teorias, como é o caso do modelo de Ising, que ignora várias forças reais nos átomos e assume spins binários em um reticulado 2D – outro exemplo são os toy models, como os modelos de gravidade quântica em 2 + 1 dimensões para explorar estruturas matemáticas que possam recuperar a relatividade geral em 3 + 1 dimensões: não são fiéis à realidade, mas fornecem possibilidades e identificam padrões úteis para teorias mais realistas. A mecânica estatística de equilíbrio também não é totalmente coerente, mas explica fenômenos como a magnetização espontânea, oscilações em redes cristalinas, tensão superficial em líquidos e aplicações em QFT e sistemas dinâmicos. Ela não é confirmada pela verificação direta ou de seus axiomas, mas por sua capacidade de gerar modelos úteis para a ciência. É óbvio que sabemos que a mecânica estatística de equilíbrio falha para sistemas fora do equilíbrio termodinâmico, como os vidros. Mas dentro de seu escopo – analisar sistemas em equilíbrio –, a teoria se dá bem: ela não precisa de uma validade universal para ser aceita pela comunidade científica.
Outro parâmetro muito ignorado pelo bayesianismo é que uma teoria pode atualizar níveis de crença não apenas pela predição, mas por sua capacidade interpretativa e capacidade de reestruturar teorias antigas – por exemplo, a precessão do periélio de Mercúrio já era conhecida antes de Einstein, e sua explicação apenas confirmou sua teoria. Isso, de acordo com o bayesianismo tradicional, não mudaria os graus de crença na teoria, pois o fenômeno já era tido como completamente certo anteriormente.
Há, por exemplo, o teorema da classificação de grupos finitos, cujas demonstrações são extremamente longas; e se fala de provas de teoria dos grupos feitas por computadores, devido à impossibilidade informacional do ser humano de lidar com uma imensa quantidade de dados (é o caso, aliás, do problema das quatro cores). E as provas de probabilidade alta para um teorema também não são neutras: elas influenciam a aceitabilidade de um teorema na comunidade científica. Assim, provas dedutivas são tão probabilísticas quanto as próprias provas probabilísticas.
As equações de Navier-Stokes descrevem o movimento de fluidos, mas são extremamente difíceis de resolver analiticamente. Apesar de suas suposições, como o meio contínuo, serem incompatíveis com a física quântica, são úteis em escala macro. Se a hipótese de Ruelle-Takens estiver correta, sob certas condições, a dinâmica de fluido pode ser regida por um atrator estranho (sistema fractal caótico).
Feigenbaum descobriu que sistemas dinâmicos simples exibem uma transição para o caos via cascata de duplicação de período com uma constante universal, que surge da razão entre intervalos de bifurcação sucessivos. Libchaber estudou rolos de convecção em hélio líquido e mediu uma constante próxima à de Feigenbaum, possivelmente fornecendo conexões entre a teoria de Feigenbaum e as equações de Navier-Stokes. Isso apenas aumentou as crenças na teoria de Feigenbaum, com a física ajudando a resolver um problema da matemática pura. Também há o mesmo caso de retroalimentação de experimentos sobre teorias na tão aguardada prova do teorema do círculo de Lee-Yang.
A QFT e a teoria das cordas também são outro caso, que carecem de rigor matemático, mas têm altas taxas de sucesso empírico e matemático. Por exemplo, nas variedades de Calabi-Yau, havia a predição de que 2 variedades geometricamente distintas, mas simetricamente espelhadas, produzem a mesma física. As predições matemáticas se confirmaram para a teoria física. A teoria-M não é completamente rigorosa, mas suas dualidades geram resultados rigorosos e fundamentais para a QFT. A conjectura de Maldacena (correspondência entre teorias de gauge e gravidade em espaços anti-de Sitter) também é outro caso em que a matemática é confirmada antes da física. Claro, também devemos nos atentar para o fato de que, na prática, predições corretas não garantem que uma teoria seja sólida.
Claro, se devemos calcular o impacto de algo em uma teoria, também devemos considerar como tudo isso está relacionado a outros paradigmas concorrentes. E devido à heterogeneidade das evidências, muitas vezes não poderemos quantificar. Devemos focar não só nas correlações, mas nas causas (a verdadeira teoria das probabilidades é uma ciência das causas, e por isso, não é totalmente separável da lógica ou mesmo da física e outras ciências), pois ver a grama molhada não necessariamente pode aumentar sua crença que choveu, pois há múltiplas causas a se considerar, assim como saber que a incógnita é par não aumenta a crença dela ser divisível por 4 (especialmente se acreditarmos que ela é 2 ou 6). Também, como notou Kuhn, e vários de seus críticos, os pesos atribuídos a cada critério variam com cada paradigma dominante, cada momento societal e cultural, cada momento histórico e econômico, cada momento político e cada disciplina.
Eu não posso deixar de notar que existem heurísticas que vão além da probabilística e bayesiana, como a heurística comportamental, de assinatura e semântica nos firewalls NGFW (firewalls que atuam no layer 7 e geralmente incorporam IDS e IPS) e endpoints securities (como o Traps da Palo Alto ou o SEP da Broadcom), muitas vezes funcionando com aprendizado de máquina (eficientes para barrarem exploits 0-day), e heurística sintática nos provadores automatizadores de teoremas (como o Z3). Estas ferramentas funcionam de maneira lógica (que já integramos) ou mesmo pela organização complexa (“algébrica”) de gêneros (classes – como podemos ver nas ferramentas de property-based testing, como o Smallcheck para Haskell), de forma adaptativa (aprendizagem por erro) e contínua, sem exigir a coerência lógica interna das crenças do agente ideal (Dutch Book). Mas o que eu considero ser a maior lição aqui: o agente real não tem um único sistema de crenças coerentes (essa tese de coerência eu chamo de cérebro bayesiano ou simplesmente a autotransparência da mente cartesiana), há sempre um conjunto de forças heurísticas que o atravessa (como é o caso dos tipos dependentes em linguagens como Coq e Agda).
Comments
Post a Comment