A filosofia da ciência é o estudo, do ponto de vista filosófico, dos elementos da investigação científica. Este artigo discute questões metafísicas, epistemológicas e éticas relacionadas com a prática e os objectivos da ciência moderna.
A história da filosofia e a história das ciências da natureza estão entrelaçadas. Muito antes do século XIX, quando o termo ciência começou a ser usado no sentido moderno, aqueles autores hoje vistos como algumas das maiores figuras da história da filosofia ocidental eram amiúde igualmente famosos pelos seus contributos para a “filosofia natural”, o conjunto de investigações que hoje designamos como “ciência”. Aristóteles (384–322 a. C.) foi o primeiro biólogo; René Descartes (1596–1650) formulou a geometria analítica (a “geometria cartesiana”) e descobriu as leis da reflexão e refracção da luz; Gottfried Wilhelm Leibniz (1646–1716) estabeleceu a sua prioridade na invenção do cálculo; e Immanuel Kant (1724–1804) ofereceu a base da hipótese ainda actual quanto à formação do sistema solar (a hipótese de Kant-Laplace).
Ao reflectir sobre o conhecimento humano, os grandes filósofos ofereceram também explicações dos objectivos e métodos das ciências, desde os estudos de lógica de Aristóteles até às propostas de Francis Bacon (1561–1626) e de Descartes, que foram instrumentais para dar forma à ciência do século XVII. Os mais eminentes estudiosos das ciências da natureza juntaram-se-lhes. Galileu (1564–1642) complementou os seus argumentos sobre os movimentos dos corpos terrestres e celestes com teses acerca dos papéis da matemática e da experimentação na descoberta de factos sobre a natureza. Do mesmo modo, a explicação de Isaac Newton (1642–1727) do seu sistema do mundo natural é pontuado por uma defesa dos seus métodos e um esboço de um programa positivo de investigação científica. Antoine-Laurent Lavoisier (1743–1794), James Clerk Maxwell (1831–1879), Charles Darwin (1809–1882) e Albert Einstein (1879–1955) deram continuidade a esta tradição, oferecendo as suas próprias ideias sagazes sobre o carácter da actividade científica.
Apesar de ser talvez difícil decidir, por vezes, se devemos classificar uma figura do passado como filósofo ou como cientista — e, na verdade, o “filósofo natural” arcaico pode por vezes parecer que fornece um bom compromisso — desde o início do século XX que a filosofia da ciência tem tido uma consciência mais aguda do papel que é apropriado que desempenhe. Alguns filósofos continuam abordando problemas que estão na continuidade das ciências da natureza, explorando o carácter do espaço e do tempo, por exemplo, ou as características fundamentais da vida. Contribuem para a filosofia das ciências especiais, um campo com uma longa tradição de obras distintas na filosofia da física, e com contributos mais recentes na filosofia da biologia e na filosofia da psicologia e das neurociências. A filosofia geral da ciência, em contraste, procura iluminar as grandes características das ciências, dando continuidade às investigações que começaram com as discussões da lógica e do método que Aristóteles levou a cabo. É este o tópico deste artigo.
Uma série de desenvolvimentos da filosofia do início do século XX tornou central, na filosofia do mundo de língua inglesa, a filosofia geral da ciência. Inspirando-se na articulação da lógica matemática, ou lógica formal, presente na obra dos filósofos Gottlob Frege (1848–1925) e Bertrand Russell (1872–1970), e do matemático David Hilbert (1862–1943), um grupo de filósofos europeus conhecidos como “Círculo de Viena” tentaram diagnosticar a diferença entre os debates inconclusivos que marcaram a história da filosofia e os feitos inequívocos das ciências que admiravam. Ofereceram critérios de significado, ou de “significado cognitivo”, com o objectivo de demonstrar que as questões filosóficas tradicionais (e as respostas propostas) eram destituídas de significado. A tarefa correcta da filosofia, sugeriram, é formular uma “lógica das ciências” que seria análoga à lógica da matemática pura formulada por Frege, Russell e Hilbert. À luz da lógica, pensavam, as investigações genuinamente frutuosas poderiam libertar-se dos grilhões da filosofia tradicional.
Para levar por diante este ambicioso programa, exigia-se um critério preciso de significado. Infelizmente, ao tentar usar os instrumentos da lógica matemática para especificá-lo, os positivistas lógicos (como passaram a ser conhecidos) encontraram dificuldades inesperadas. Uma vez e outra as propostas promissoras ou eram tão tolerantes que não excluíam do âmbito do significado as sentenças mais obscuras da metafísica tradicional, ou eram tão restritivas que excluíam as hipóteses mais queridas das ciências. Perante estes resultados desencorajantes, o positivismo lógico evoluiu e tornou-se um movimento mais moderado, o empirismo lógico. (Muitos historiadores da filosofia tratam este movimento como uma versão tardia do positivismo lógico e por isso não lhe dão uma designação própria.) Os empiristas lógicos consideravam central a tarefa de compreender as virtudes distintivas das ciências da natureza. Com efeito, defenderam que a procura de uma teoria do método científico — levada a cabo por Aristóteles, Bacon e Descartes, entre outros — só poderia ser levada a cabo mais integralmente com os instrumentos da lógica matemática. Não só consideravam que uma teoria do método científico era central na filosofia, como consideravam também que essa teoria era valiosa para áreas de investigação emergentes, nas quais uma compreensão explícita do método poderia resolver debates e desfazer confusões. O seu objectivo foi profundamente influente na filosofia da ciência subsequente.
Uma teoria ideal do método científico seria constituída por instruções que pudessem conduzir um investigador da ignorância ao conhecimento. Descartes e Bacon escreviam por vezes como se pudessem oferecer essa teoria ideal mas, depois de meados do século XX, a perspectiva ortodoxa era que isto é pedir demais. Na peugada de Hans Reichenbach (1891–1953), os filósofos distinguiam frequentemente entre o “contexto da descoberta” e o “contexto da justificação”. Depois de se propor uma hipótese, há cânones de lógica que determinam o que se deve aceitar ou não — ou seja, o método tem regras que se aplicam ao contexto da justificação. Contudo, não há regras dessas que levem uma pessoa a formular a hipótese correcta, ou até hipóteses que sejam plausíveis ou frutíferas. Os empiristas lógicos foram conduzidos a esta conclusão ao reflectir em casos em que as descobertas científicas resultaram de saltos imaginativos ou acidentes felizes; um exemplo favorito era a hipótese de August Kekulé (1829–1896) de que as moléculas de benzeno têm uma estrutura hexagonal, que terá alegadamente sido formulada ao dormitar à lareira, onde as brasas pareciam uma serpente que mordia a sua própria cauda.
Apesar de a ideia de não poder haver uma lógica da descoberta científica assumir com frequência o estatuto de ortodoxia, não ficou por questionar. Como se tornará claro, uma das implicações da influente obra de Thomas Kuhn (1922–1996) na filosofia da ciência foi que as considerações quanto à probabilidade de tipos particulares de futuras descobertas se misturam por vezes com juízos indiciários, de modo que a descoberta só pode ser posta de lado como um processo irracional se estivermos dispostos a conceder que a irracionalidade afecta também o próprio contexto da justificação.
Tanto em resposta a Kuhn como por razões independentes, os filósofos tentaram analisar casos particulares de descobertas científicas complexas, mostrando que os cientistas envolvidos seguem aparentemente métodos e estratégias identificáveis. A resposta mais ambiciosa à ortodoxia empirista tentou fazer precisamente o que foi abandonado por não ter futuro — a saber, especificar processos formais para produzir hipóteses em resposta a um corpo disponível de indícios. Assim, por exemplo, o filósofo americano Clark Glymour e os seus associados escreveram programas de computador que geram hipóteses em resposta a indícios estatísticos, hipóteses que amiúde introduziam novas variáveis que não figuravam nos dados. Estes programas foram aplicados a várias áreas tradicionalmente difíceis da investigação das ciências da natureza e das ciências sociais. Talvez, então, o empirismo lógico tenha sido prematuro ao considerar que o contexto da descoberta estava para lá do alcance da análise filosófica.
Em contraste, os empiristas lógicos trabalharam vigorosamente no problema de compreender a justificação científica. Inspirados pela ideia de que Frege, Russell e Hilbert forneceram uma especificação completamente precisa das condições sob as quais as premissas implicam dedutivamente uma conclusão, os filósofos da ciência esperavam oferecer uma “lógica da confirmação” que identificaria, com igual precisão, as condições sob as quais um corpo de indícios apoiaria uma hipótese científica. Reconheceram, claro, que uma série de relatos experimentais sobre a expansão dos metais na presença do calor não implicaria dedutivamente a conclusão geral de que todos os metais se expandem ao serem aquecidos — pois mesmo que todos os relatos estivessem correctos, seria ainda possível que o próximo metal a ser examinado não se expandisse com o calor. Apesar disso, parecia que uma colecção suficientemente vasta e diversificada de relatos forneceria algum apoio, e até um forte apoio, à generalização. A tarefa filosófica era tornar mais preciso este juízo intuitivo quanto ao apoio.
Na década de 1940, dois proeminentes empiristas lógicos, Rudolf Carnap (1891–1970) e Carl Hempel (1905–1997), levaram a cabo tentativas influentes de resolver este problema. Carnap ofereceu uma distinção importante entre várias versões da questão. O problema “qualitativo” da confirmação procura especificar as condições em que um corpo de indícios I apoia, em algum grau, uma hipótese H. O problema “comparativo” procura determinar quando um corpo de indícios I apoia uma hipótese H mais do que um corpo de indícios I* apoia uma hipótese H* (I e I* podem aqui ser iguais, tal como H e H*). Por último, o problema “quantitativo” procura uma função que atribua uma medida numérica ao grau em que I apoia H. O problema comparativo não foi objecto de grande atenção, mas Hempel atacou o problema qualitativo, ao passo que Carnap se concentrou no quantitativo.
Seria natural supor que o problema qualitativo é o mais fácil dos dois, e até que é muito óbvio. Muitos cientistas (e filósofos) sentiram-se atraídos pela ideia do método hipotético-dedutivo: as hipóteses científicas são confirmadas deduzindo delas previsões sobre fenómenos empiricamente determináveis e, quando as previsões se verificam, aumenta o apoio dado às hipóteses das quais derivam essas previsões. As explorações de Hempel revelaram por que razão não se podia sustentar uma perspectiva assim tão simples. Um ponto aparentemente inócuo acerca do apoio é, ao que parece, que se I confirma H, então I confirma qualquer afirmação que se possa deduzir de H. Suponha-se, então, que H implica dedutivamente I, e que se determinou I por observação ou experiência. Caso se junte agora H a qualquer afirmação arbitrária, a conjunção resultante irá também dedutivamente implicar I. Segundo o método hipotético-dedutivo, esta conjunção é confirmada pelos indícios. Pelo ponto inócuo, I confirma qualquer consequência dedutiva da conjunção. Uma dessas consequências dedutivas é a afirmação arbitrária. De modo que chegamos à conclusão de que I, que poderá ser seja o que for, confirma qualquer afirmação arbitrária.
Para ver como isto é terrível, considere-se uma das grandes teorias previsionais — por exemplo, a explicação de Newton dos movimentos dos corpos celestes. A perspectiva hipotético-dedutiva parece promissora em casos como este, precisamente porque a teoria de Newton parece dar lugar a muitas previsões que podem ser verificadas e que se descobriu que estavam correctas. Mas se juntarmos à teoria newtoniana qualquer doutrina que nos apeteça — talvez a tese de que o aquecimento global resulta da actividade dos elfos no Pólo Norte — então a teoria expandida irá igualmente dar lugar às mesmas previsões. Segundo a explicação da confirmação oferecida, as previsões confirmam a teoria expandida e qualquer afirmação que dela se siga dedutivamente, incluindo a teoria do aquecimento dos elfos.
O trabalho de Hempel mostrou que isto era apenas o início das complexidades do problema da confirmação qualitativa e, apesar de tanto ele como outros filósofos terem avançado na resolução das dificuldades, pareceu a muitos partidários da teoria da confirmação que o problema quantitativo era mais fácil. As tentativas do próprio Carnap para atacar esse problema, levadas a cabo nas décadas de 40 e 50, visavam imitar os feitos da lógica dedutiva. Carnap teve em consideração sistemas artificiais cujo poder expressivo é dramaticamente mais limitado do que as linguagens efectivamente usadas na prática das ciências, e esperava definir para qualquer par de afirmações destas linguagens restritas uma função que mediria o grau em que a segunda apoia a primeira. A sua investigação meticulosa tornou patente que havia um número infinito de funções (na verdade, um contínuo infinito — correspondendo um infinito “maior” à dimensão do conjunto dos números reais) que satisfaziam os critérios que considerava admissíveis. Apesar do fracasso do projecto oficial, contudo, defendeu detalhadamente a existência de uma conexão entre a confirmação e a probabilidade, mostrando que, dados certos pressupostos aparentemente razoáveis, a função do grau de confirmação tem de satisfazer os axiomas do cálculo de probabilidades.
Essa conclusão foi alargada na abordagem contemporânea mais proeminente às questões da confirmação, o chamado “bayesianismo”, que tem essa denominação devido ao clérigo e matemático inglês Thomas Bayes (1702–1761). A ideia orientadora do bayesianismo é que descobrir indícios modifica a probabilidade racionalmente atribuída a uma hipótese.
Para ver uma versão simples da ideia, basta um exemplo batido. Se nos perguntassem qual é a probabilidade que se deve atribuir à saída do rei de copas num baralho comum de 52 cartas, é quase certo que responderíamos . Suponha-se agora que obtivemos a informação de que irá sair uma carta figurativa (ás, rei, dama ou valete); a probabilidade muda agora de para . Se descobrirmos depois que a carta que vai sair será vermelha, a probabilidade aumenta para . Acrescentar a informação de que a carta a sair não será um ás nem uma dama torna a probabilidade . À medida que se acrescenta indícios, forma-se uma probabilidade condicional baseada na informação nova, e neste caso a informação aumenta a probabilidade. (Mas não é obrigatório que o faça: se descobrirmos que a carta que irá sair será um valete, a probabilidade de sair um rei de copas cai para zero).
Bayes ficou conhecido devido a um teorema que explica uma importante relação entre probabilidades condicionais. Se numa dada fase da investigação um cientista atribui uma probabilidade à hipótese H, Pr(H) — chame-se-lhe “probabilidade prévia de H” — e atribui probabilidades aos relatos indiciários condicionalmente à verdade de H, , e condicionalmente à falsidade de H, , o teorema de Bayes dá o valor da probabilidade da hipótese H condicionalmente aos indícios I com a fórmula seguinte:
Uma das características atraentes desta abordagem da confirmação é que quando os indícios são muitíssimo improváveis caso a hipótese seja falsa — ou seja, quando é extremamente baixa — é fácil ver como uma hipótese com uma probabilidade prévia muito baixa pode ganhar uma probabilidade perto de 1 quando surgem os indícios. (Isto ocorre mesmo que Pr(H) seja muito baixa e que Pr(¬H), a probabilidade de H ser falsa, seja paralelamente elevada; se I se segue dedutivamente de H, será 1; logo, se for minúscula, o numerador do lado direito da fórmula ficará muito próximo do denominador, e o valor do lado direito aproxima-se assim de 1.)
Qualquer uso do teorema de Bayes para reconstruir o raciocínio científico depende obviamente da ideia de que os cientistas podem atribuir as probabilidades relevantes, tanto as probabilidades prévias como as probabilidades dos indícios condicionalmente às várias hipóteses. Mas como devem os cientistas concluir que a probabilidade de uma hipótese interessante assume um dado valor ou que uma certa descoberta indiciária seria extremamente improvável caso a hipótese interessante fosse falsa? O exemplo simples do baralho de cartas é neste aspecto potencialmente enganador, porque neste caso parece estar disponível um meio óbvio de calcular a probabilidade de que uma dada carta, como o rei de copas, irá sair. Não há análogo óbvio com respeito às hipóteses científicas. Pareceria tolo, por exemplo, supor que há uma lista de potenciais hipóteses científicas, sendo cada uma delas igualmente provável que seja verdadeira.
Os bayesianos dividem-se na maneira como respondem a esta dificuldade. Uma minoria relativamente pequena — os chamados bayesianos “objectivos” — esperam encontrar critérios objectivos de atribuição racional de probabilidades prévias. A posição maioritária — o bayesianismo “subjectivo”, por vezes também denominado “pessoal” — supõe, em contraste, que não se irá encontrar tais critérios. Os únicos limites com respeito à escolha racional de probabilidades anteriores resulta da necessidade de dar a cada verdade lógica e matemática a probabilidade 1, e de fornecer um valor diferente tanto de zero como de 1 a cada afirmação empírica. A primeira ressalva reflecte a perspectiva de que as leis da lógica e da matemática não podem ser falsas; a segunda dá corpo à ideia de que qualquer afirmação cuja verdade ou falsidade não seja determinada pelas leis da lógica e da matemática poderá revelar-se verdadeira (ou falsa).
À partida, o bayesianismo subjectivo parece incapaz de fornecer qualquer reconstrução séria do raciocínio científico. Assim, imagine-se dois cientistas de finais do século XVII que diferem quanto à avaliação inicial que fazem da explicação de Newton do movimento dos corpos celestes. Um deles começa por atribuir à hipótese newtoniana uma probabilidade pequena, mas significativa; o outro atribui-lhe uma probabilidade que é verdadeiramente diminuta. À medida que coligem indícios, ambos modificam os seus juízos de probabilidade de acordo com o teorema de Bayes e, nos dois casos, a probabilidade da hipótese newtoniana aumenta. No caso do primeiro cientista, aproxima-se de 1. O segundo, contundo, começou com uma probabilidade tão diminuta que, mesmo com um corpo imenso de indícios positivos a favor da hipótese de Newton, chega a um valor final ainda diminuto. Da perspectiva bayesiana subjectiva, ambos procederam correctamente. Contudo, no fim das contas, divergem muito radicalmente nas suas avaliações da hipótese.
Caso se suponha que os indícios obtidos são como os que foram adquiridos nas décadas que se seguiram à publicação da hipótese dos Principia (Philosophiae Naturalis Principia Mathematica, 1687) de Newton, poderá parecer possível resolver a questão da seguinte maneira: apesar de ambos os investigadores serem inicialmente cépticos (ambos atribuíram probabilidades prévias baixas à hipótese de Newton), um deu à hipótese uma séria possibilidade, ao contrário do outro; o investigador que começou com uma probabilidade verdadeiramente diminuta fez um juízo irracional que afecta a conclusão. Contudo, nenhum bayesiano subjectivo pode tolerar este diagnóstico. A hipótese newtoniana não é uma verdade lógica nem matemática (nem uma falsidade lógica nem matemática), e os dois cientistas deram-lhe uma probabilidade diferente de zero e de 1. Pelos padrões do bayesianismo subjectivo, isso é tudo o que se pede a investigadores racionais.
A resposta ortodoxa a preocupações deste tipo é oferecer teoremas matemáticos que demonstram como indivíduos que começam com diferentes probabilidades anteriores acabam por convergir num valor comum. Na verdade, caso os investigadores imaginários persistissem suficientemente, as suas atribuições eventuais de probabilidade iriam diferir no grau mais diminuto que se quiser. A longo prazo, os cientistas que viverem segundo os padrões bayesianos irão acabar por concordar. Mas, como observou John Maynard Keynes (1883–1946), o economista inglês que deu contributos para a teoria da probabilidade e da confirmação, “a longo prazo, estaremos todos mortos”. As decisões científicas são tomadas inevitavelmente num período finito de tempo, e as mesmas explorações matemáticas que resultam em teoremas da convergência mostram também que, dado um período fixo para tomar decisões, por mais longo que seja, pode haver pessoas que satisfazem as exigências do bayesianismo subjectivo, mas que continuam tão afastadas entre si quanto possível, mesmo que cheguem ao fim do período de recolha de indícios.
O bayesianismo subjectivo é actualmente a perspectiva mais popular da confirmação de hipóteses científicas, em parte porque parece concordar com características importantes da confirmação, e em parte porque é sistemática e precisa. Mas a preocupação esboçada não é a única dificuldade em que os críticos insistem e à qual os defensores procuram dar resposta. Entre outras, conta-se a objecção de que a atribuição explícita de probabilidades só parece figurar no raciocínio científico quando se trata de hipóteses estatísticas. Uma perspectiva mais singela do teste e avaliação de hipóteses sugere que os cientistas usam o método de Sherlock Holmes: formulam hipóteses rivais e aplicam testes concebidos para eliminar algumas, até restar uma hipótese que, por mais que tenha uma grande implausibilidade prévia, é considerada correcta. Ao contrário do bayesianismo, esta abordagem do raciocínio científico preocupa-se explicitamente com a aceitação e rejeição de hipóteses, e por isso parece mais próxima da prática quotidiana dos cientistas do que a revisão de probabilidades. Mas o eliminativismo, como por vezes se chama a esta perspectiva, enfrenta também desafios graves.
A primeira preocupação principal centra-se na escolha de alternativas. No contexto do homicídio da casa de campo, Sherlock Holmes (ou o seu homólogo) tem uma lista clara de suspeitos. Contudo, nas investigações científicas, não temos à nossa disposição uma lista completa de hipóteses potenciais. Tanto quanto sabemos, talvez a hipótese correcta não faça parte das que estão sob consideração. Como poderá então o processo de eliminação fornecer qualquer confiança à hipótese que no fim ficou de pé? Os eliminativistas são obrigados a conceder que esta é uma dificuldade genuína, e que poderá haver muitas situações nas quais é apropriado perguntar se a construção inicial de hipóteses foi pouco imaginativa. Se pensarem que se justifica por vezes que os investigadores aceitem a hipótese que sobrevive ao processo de eliminação, terão de formular critérios para distinguir essas situações. No início do século XXI, ainda ninguém ofereceu critérios precisos desse género.
Ao que parece, um método para evitar a dificuldade formulada seria sublinhar o carácter exploratório do juízo científico. Esta táctica foi adoptada com considerável vigor pelo filósofo britânico de origem austríaca Karl Popper (1902–1992), cujas ideias sobre o raciocínio científico tiveram provavelmente mais influência nos cientistas do que qualquer outro filósofo. Apesar de não ser um positivista lógico, Popper partilhava muitas das aspirações de quem queria promover a “filosofia científica”. Em vez de supor que as discussões filosóficas tradicionais fracassaram por caírem no sem sentido, Popper ofereceu um critério de demarcação em termos da falsificabilidade das hipóteses científicas genuínas. Esse critério estava ligado à sua reconstrução do raciocínio científico: a ciência, afirmou, é feita de conjecturas ousadas que os cientistas procuram refutar, e aceita-se provisoriamente as conjecturas que sobrevivem. Popper concebeu assim um processo eliminatório que começa com as hipóteses rivais que um grupo particular de cientistas por acaso formularam, e para responder à preocupação de que sobreviver a uma série de testes poderá não ser um indicador de verdade, sublinhou que a aceitação científica é sempre provisória e interina.
A influência de Popper nos cientistas reflectiu a sua capacidade para captar características que os investigadores reconheciam no seu próprio raciocínio. Os filósofos, contudo, ficaram menos convencidos. Pois por mais que sublinhasse o carácter provisório da aceitação, Popper — como os cientistas que o leram — pensava claramente que sobreviver ao processo de eliminação torna uma hipótese mais digna de ser levada a sério ou aplicada num contexto prático. Escreve-se as “conjecturas” nos manuais, são ensinadas aos aspirantes a cientistas, apoiamo-nos nelas para fazer novas investigações, e usamo-las como base para fazer intervenções na natureza que por vezes afectam o bem-estar de um grande número de pessoas. Se alcançam um dado estatuto privilegiado passando pelo fogo dos testes eliminatórios, a perspectiva de Popper pressupõe dissimuladamente uma solução para a preocupação de que a eliminação mais não fez do que isolar o menos mau. Se, por outro lado, a conversa acerca da “aceitação provisória” for levada a sério, e se a sobrevivência não confere um privilégio especial, então é muito misterioso por que razão haveria alguém de ter o direito de usar a ciência “dos livros” tal como a usamos, de várias maneiras que têm grande impacto. O programa de Popper era atraente, porque abraçava as virtudes do eliminativismo, mas a retórica das “conjecturas ousadas” e da “aceitação provisória” deve ser vista como uma maneira de fugir a um problema fundamental que os eliminativistas enfrentam.
Uma segunda preocupação importante quanto ao eliminativismo é a acusação de que a noção de falsificação é mais complexa do que os eliminativistas (incluindo Popper) permitem. Como o filósofo-cientista Pierre Duhem (1861–1916) fez notar, as experiências e as observações testam tipicamente um punhado de hipóteses diferentes. Quando uma experiência complicada revela resultados dramaticamente às avessas das previsões, a primeira ideia do cientista não é abandonar uma hipótese querida, mas antes verificar se os instrumentos funcionaram apropriadamente, se as amostras usadas eram puras, e assim por diante. O exemplo particularmente dramático desta situação vem das primeiras respostas ao sistema coperniciano. Os astrónomos de finais do século XVI, acreditando praticamente todos na perspectiva tradicional de que os corpos celestes se deslocavam à volta da Terra, fizeram notar que se a Terra se desloca, como Copérnico afirmava, então as estrelas deveriam ser vistas de diferentes ângulos em diferentes épocas do ano; mas nenhumas diferenças se observavam, e por isso o copernicianismo, concluíram, é falso. Galileu, um defensor da perspectiva coperniciana, respondeu que o argumento é falacioso. A aparente constância dos ângulos a que vemos as estrelas não está em conflito com o copernicianismo só por si, mas com as hipóteses combinadas de a Terra se deslocar e de as estrelas se encontrarem relativamente próximo de nós. Galileu propôs “salvar” o copernicianismo da falsificação abandonando a segunda parte da hipótese, insistindo ao invés que o Universo é muito maior do que se suspeitara e que as estrelas mais próximas estão tão longe que as diferenças das suas posições angulares não podem ser detectadas a olho nu. (Galileu foi vindicado no século XIX, quando os telescópios mais poderosos revelaram a paralaxe estelar.)
O eliminativismo precisa de explicar quando é racionalmente aceitável atribuir uma dificuldade experimental a uma hipótese auxiliar, e quando a hipótese que se testa deve ser abandonada. Tem de distinguir o caso de Galileu do caso de quem insiste numa hipótese de estimação contra os indícios, mencionando a possibilidade de espíritos até então insuspeitos serem responsáveis por alterar os ensaios. O problema é especialmente grave na versão de Popper do eliminativismo, dado que se todas as hipóteses são provisórias, parece que não se pode recorrer ao conhecimento de fundo, com base no qual algumas possibilidades podem ser afastadas por não serem sérias.
As complexidades da noção de falsificação, originalmente diagnosticadas por Duhem, tiveram um impacto considerável na filosofia contemporânea da ciência, devido à obra do filósofo americano W. V. O. Quine (1908–2000). Quine propôs uma tese geral sobre a subdeterminação da teoria pelos indícios, defendendo que é sempre possível preservar qualquer hipótese face a quaisquer indícios. Esta tese pode ser entendida como um ponto meramente lógico, afirmando, com efeito, que um investigador consegue sempre encontrar uma maneira consistente de lidar com observações ou experiências, continuando a sustentar a sua hipótese inicial (afirmando talvez que as observações aparentes resultam de alucinação). Dito assim, parece trivial. Alternativamente, podemos interpretar a ideia como a proposta de que todos os critérios de racionalidade e de método científico permitem meios de proteger a hipótese favorita dos resultados aparentemente refutantes. Nesta leitura, Quine vai muito consideravelmente além de Duhem, que sustentava que o “bom senso” dos cientistas lhes permitia distinguir entre as maneiras legítimas e as ilegítimas de responder às descobertas recalcitrantes.
A interpretação mais forte da tese inspira-se por vezes num pequeno número de exemplos famosos da história da física. Em inícios do século XVIII, houve um debate célebre entre Leibniz e Samuel Clarke (1675–1729), um acólito de Newton, sobre os “verdadeiros movimentos” dos corpos celestes. Clarke, seguindo Newton, definia o verdadeiro movimento com respeito ao espaço absoluto, e afirmava que o centro da massa do sistema solar estava em repouso com respeito a esse espaço absoluto. Leibniz recusava-o, sugerindo que se o centro da massa do sistema solar se deslocasse com velocidade uniforme com respeito ao espaço absoluto, todas as observações que pudéssemos fazer seriam iguais ao caso em que o Universo se desloca no espaço absoluto. Com efeito, Leibniz ofereceu um número infinito de alternativas à teoria de Newton, cada uma das quais parecia igualmente bem apoiada por quaisquer dados que se pudesse coligir. Algumas discussões recentes sobre os fundamentos da física sugerem por vezes a mesma lição. Talvez existam versões rivais da teoria das cordas, apoiado-se cada uma igualmente bem em todos os indícios que poderão ficar disponíveis.
Exemplos como estes, que ilustram as complexidades inerentes na noção de falsificabilidade, levantam duas questões importantes: primeiro, quando surgem casos de subdeterminação, o que é razoável acreditar? Segundo, com que frequência surgem casos desses? Uma resposta muito natural aos exemplos da física é sugerir que quando se reconhece que hipóteses genuinamente rivais poderiam ser inseridas num corpo teórico que seria igualmente bem apoiado pelos indícios disponíveis, devemos procurar uma hipótese mais minimalista que de algum modo “capte o que é comum” às alternativas aparentes. Se esta resposta natural estiver correcta, os exemplos não apoiam afinal a tese abrangente de Quine, pois não permitem a racionalidade de acreditar em qualquer uma das alternativas, insistindo ao invés na articulação de uma perspectiva diferente, mais minimalista.
Uma segunda objecção à tese forte da subdeterminação é que os exemplos históricos são excepcionais. Certos tipos de teorias matemáticas, juntamente com pressupostos plausíveis sobre os indícios que se pode coligir, permitem a formulação de alternativas sérias. Na maior parte das áreas da ciência, contudo, não há maneira óbvia de invocar rivais genuínos. Desde a década de 1950, por exemplo, os cientistas têm sustentado que as moléculas de ADN têm a estrutura de uma dupla hélice, cujas bases se projectam para o interior, como os degraus de uma escada, e que há regras simples de emparelhamento. Se a tese global de Quine fosse correcta, deveria haver uma rival científica que daria conta igualmente bem do vasto domínio de dados que apoiam esta hipótese. Não só nenhuma teoria dessas foi proposta, como não há simplesmente boas razões para pensar que exista.
Muitas discussões contemporâneas na filosofia da ciência abordam as questões desta secção procurando algoritmos da descoberta científica, tentando responder às preocupações quanto à teoria bayesiana da confirmação, ou desenvolver uma teoria rival, explorando as noções de falsificação e de subdeterminação. Estas discussões dão frequentemente continuidade às investigações iniciadas pelos empiristas lógicos principais — Carnap, Hempel, Reichenbach e Popper — aderindo às concepções de ciência e de filosofia que eram centrais nas suas abordagens. Para um número significativo de filósofos, contudo, as questões levantadas nesta secção foram transformadas pelas reacções ao empirismo lógico, pela viragem historicista na filosofia da ciência, e pelo interesse crescente nas dimensões sociais da investigação científica. Como será discutido nas próximas secções, algumas das questões já levantadas emergem de diferentes formas e com implicações mais inquietantes.
O projecto empirista-lógico de contrastar as virtudes da ciência com os defeitos de outras actividades humanas só em parte foi levado a cabo ao tentar compreender a lógica da justificação científica. Além disso, os empiristas esperavam analisar as formas de conhecimento científico. Consideravam que as ciências chegavam a leis da natureza que eram sistematicamente reunidas em teorias. As leis e teorias eram valiosas não só por fornecer bases para fazer previsões e intervenções, mas também por dar lugar à explicação dos fenómenos naturais. Em algumas discussões, os filósofos tinham também em vista uma finalidade última para o trabalho sistemático e explicativo das ciências: a construção de uma ciência unificada, na qual a natureza seria entendida com a máxima profundidade.
A ideia de que o objectivo das ciências da natureza é explicar, prever e controlar remonta pelo menos ao século XIX. Em inícios do século XX, contudo, alguns estudiosos proeminentes da ciência inclinavam-se para desconsiderar o ideal de explicação, insistindo que se trata inevitavelmente de uma questão subjectiva. A explicação, sugeria-se, é uma questão de nos sentirmos “em casa” com os fenómenos, e a boa ciência não precisa de fornecer tal coisa. Basta conseguir fazer previsões precisas e conseguir controlar.
Nas décadas de 30 e 40, os filósofos rebelaram-se contra a desconsideração da explicação. Popper, Hempel e Ernest Nagel (1901–1985) propuseram um ideal de explicação objectiva e defenderam que a explicação deve voltar a ser considerada um dos objectivos das ciências. Os seus trabalhos recapitularam em termos mais precisos uma perspectiva que surgira previamente nas reflexões sobre a ciência, a partir de Aristóteles. As formulações de Hempel foram as mais detalhadas e sistemáticas, e as mais influentes.
Hempel concedeu explicitamente que muitos avanços científicos não nos fazem sentir em casa com os fenómenos — e, na verdade, que substituem por vezes um mundo familiar por algo mais estranho. Negou, contudo, que fornecer uma explicação deveria fazer-nos sentir “estar em casa”. Em primeiro lugar, as explicações devem dar bases para esperar a ocorrência do fenómeno a explicar, de modo a que já não nos perguntemos por que razão ocorreu, vendo ao invés que deveria ter sido antecipado; em segundo lugar, as explicações devem fazê-lo tornando visível como os fenómenos exemplificam as leis da natureza. Assim, segundo Hempel, as explicações são argumentos. A conclusão do argumento é uma afirmação que descreve um fenómeno a explicar. As premissas têm de incluir pelo menos uma lei da natureza e têm de dar apoio à conclusão.
No caso mais simples de explicação, a conclusão descreve um facto ou ocorrência e as premissas dão-lhe bases dedutivas. O célebre exemplo de Hempel pode ser formulado na afirmação “O radiador avariou-se na noite de 10 de Janeiro”. Entre as premissas, encontraríamos afirmações que descrevem as condições (“A temperatura da noite de 10 de Janeiro caiu para -10 graus centígrados”, etc.), assim como as leis acerca do congelamento da água, a pressão que o gelo exerce, e assim por diante. As premissas constituiriam uma explicação, porque a conclusão se segue delas dedutivamente.
Hempel permitia outras formas de explicação — casos em que se deduz uma lei da natureza de leis mais gerais, assim como casos em que se invoca leis estatísticas para atribuir uma elevada probabilidade à conclusão. Em conformidade com a sua proposta principal de que explicar é usar as leis da natureza para demonstrar que o fenómeno a explicar era de se esperar, Hempel insistiu que todas as explicações genuínas têm de apoiar a conclusão (seja dedutivamente, seja conferindo-lhe uma elevada probabilidade). Os seus modelos de explicação foram amplamente aceites entre os filósofos durante cerca de vinte anos, e muitos investigadores das ciências sociais também os acolheram. Nas décadas seguintes, contudo, encontraram críticas graves.
Uma linha de ataque óbvia é que as explicações, tanto na vida comum como nas ciências, raramente têm a forma de argumentos completos. Uma pessoa desajeitada, por exemplo, pode explicar por que razão há uma nódoa na carpete confessando que entornou café, e um geneticista poderá dar conta de uma mosca da fruta pouco habitual afirmando que houve uma recombinação dos genótipos dos seus progenitores. Hempel respondeu a esta crítica distinguindo entre o que efectivamente se apresenta a quem pede uma explicação (o “esboço explicativo”) e a explicação objectiva completa. Uma resposta a quem pede uma explicação funciona, porque o esboço explicativo pode ser combinado com informação que a pessoa já tem para lhe permitir chegar à explicação completa. O esboço explicativo ganha a sua força explicativa da explicação completa e inclui a parte da explicação completa que quem perguntou precisa de saber.
Uma segunda dificuldade da abordagem de Hempel resulta da sua admissão cândida de que era incapaz de oferecer uma análise completa da noção de lei científica. As leis são generalizações acerca de um domínio de fenómenos naturais, por vezes universais (“Dois corpos atraem-se com uma força proporcional ao produto da massa e inversamente proporcional ao quadrado da distância”), outras vezes estatísticas (“A probabilidade de qualquer alelo particular ser transmitido a um gâmeta na meiose é de cinquenta por cento”). Contudo, nem todas as generalizações contam como leis científicas. Há ruas em que todas as casas são feitas de tijolo, mas nenhum juízo da forma “Todas as casas da rua X são feitas de tijolo” é uma lei científica. Como Reichenbach fez notar, há generalizações acidentais que têm aparentemente um âmbito muito amplo. Ao passo que a afirmação “Todas as esferas de urânio têm um raio de menos de um quilómetro” diz respeito a uma lei da natureza (as esferas maiores seriam instáveis devido a propriedades físicas fundamentais), a afirmação “Todas as esferas de ouro têm um raio de menos de um quilómetro” exprime apenas um acidente cósmico.
Intuitivamente, ao que parece, as leis da natureza dão corpo a um tipo de necessidade: não se limitam a descrever como por acaso são as coisas, mas, em algum sentido, descrevem como têm de ser. Se tivéssemos a tentação de construir uma esfera muito grande de urânio, estaríamos condenados ao fracasso. A atitude dominante do empirismo lógico, na esteira da célebre discussão das “conexões necessárias” na natureza do filósofo escocês David Hume (1711–1776), foi evitar invocar a noção de necessidade. Claro que os empiristas lógicos reconheciam a necessidade da lógica e da matemática, mas as leis da natureza dificilmente poderiam ser concebidas como necessárias nesse sentido, pois seria possível logicamente (e matematicamente) que o Universo tivesse leis diferentes. Na verdade, uma importante esperança de Hempel e dos seus colegas era evitar dificuldades com a necessidade, apoiando-se nos conceitos de lei e de explicação. Dizer que há uma conexão necessária entre dois tipos de acontecimentos é, segundo a sua proposta, afirmar simplesmente uma sucessão legiforme — aos acontecimentos do primeiro tipo sucede-se regularmente acontecimentos do segundo, e essa sucessão é uma questão de lei da natureza. Contudo, para que este programa pudesse ser bem-sucedido, o empirismo lógico exigia uma análise da noção de lei da natureza que não se baseasse no conceito de necessidade. Os empiristas lógicos foram admiravelmente claros quanto ao que queriam e quanto ao que tinha de se fazer para o conseguir, mas o projecto de fornecer a análise pertinente de leis da natureza continuou a ser para eles um problema em aberto.
Os escrúpulos sobre as conexões necessárias geraram também uma terceira classe de dificuldades para o projecto de Hempel. Há exemplos de argumentos que obedecem aos padrões que Hempel aprova mas que não são explicativos, pelo menos em termos comuns. Imagine-se o mastro de uma bandeira que faz sombra no chão. Podemos explicar o comprimento da sombra deduzindo-o da altura do mastro (usando trigonometria), do ângulo de elevação do Sol e da lei da propagação da luz (i.e., a lei de que a luz viaja em linha recta). Até aqui isto não é problemático, pois o pequeno argumento esboçado está de acordo com o modelo de explicação de Hempel. Repare-se, contudo, que há uma maneira simples de trocar uma das premissas pela conclusão: se começarmos pelo comprimento da sombra, pelo ângulo de elevação do Sol e pela lei da propagação da luz, podemos deduzir a altura do mastro (usando trigonometria). A nova derivação também está de acordo com o modelo de Hempel. Mas isto é inquietante, porque ao passo que pensamos que a altura do mastro explica o comprimento da sombra, não pensamos que o comprimento da sombra explica a altura do mastro. Intuitivamente, a segunda derivação vê as coisas ao contrário, invertendo a ordem adequada da dependência. Dados os compromissos do empirismo lógico, contudo, estes diagnósticos não fazem sentido, e os dois argumentos estão ao mesmo nível com respeito ao poder explicativo.
Apesar de Hempel se inclinar por vezes a “engolir o sapo”, defendendo o poder explicativo dos dois argumentos, a maior parte dos filósofos concluiu que faltava alguma coisa. Além disso, parecia óbvio qual era o ingrediente em falta: as sombras dependem causalmente dos mastros num sentido em que os mastros não dependem causalmente das sombras. Dado que a explicação tem de respeitar as dependências, a derivação modificada não tem valor explicativo. Contudo, tal como o conceito de necessidade natural, também a noção de dependência causal era um anátema para os empiristas lógicos — ambos tinham sido alvo das famosas críticas de Hume. Para desenvolver uma explicação satisfatória da assimetria explicativa, portanto, os empiristas lógicos precisavam de captar a ideia de dependência causal, formulando numa linguagem aceitável as condições em que as explicações são genuínas. Também aqui o programa de Hempel se revelou infrutífero.
A quarta e última área em que surgiram dificuldades foi no tratamento da explicação probabilística. Como se viu na discussão da secção anterior, a probabilidade atribuída a um resultado pode variar, mesmo muito dramaticamente, quando se acrescenta nova informação. Hempel dava-se conta deste ponto, reconhecendo que alguns argumentos estatísticos que satisfazem as suas condições para que algo seja uma explicação têm a propriedade seguinte: apesar de todas as suas premissas serem verdadeiras, o apoio que dão à conclusão seria radicalmente abalado caso se acrescentasse premissas. Hempel tentou resolver o problema acrescentando exigências. Contudo, acabou por se tornar patente que as novas condições ou eram ineficazes ou então tornavam trivial a actividade da explicação probabilística.
Não é também óbvio que se consiga sustentar a ideia fundamental de que explicar é tornar os fenómenos expectáveis. Para mencionar um exemplo famoso, podemos explicar o facto de o presidente da câmara ter contraído paresia fazendo notar que já teve sífilis e não se tratou, apesar de apenas oito a dez por cento de pessoas que tiveram sífilis e não se trataram acabarem por desenvolver paresia. Neste caso, não há um argumento estatístico que confira uma probabilidade elevada à conclusão de que o presidente contraiu paresia — essa conclusão continua improvável à luz da informação avançada (oitenta e cinco por cento das pessoas que tiveram sífilis que não trataram não desenvolvem paresia). O que parece crucial é o aumento da probabilidade, ou seja, o facto de a probabilidade da conclusão ter aumentado de um valor verdadeiramente diminuto (a paresia é extremamente rara na população em geral) para um valor significativo.
No início dos anos 70 do século XX, a abordagem da explicação de Hempel (conhecida como modelo da cobertura por leis) parecia enfrentar dificuldades em várias frentes, levando os filósofos a esboçar tratamentos alternativos. Uma primeira proposta influente desenvolveu o diagnóstico do parágrafo anterior. Wesley Salmon (1925–2001) defendeu que a explicação probabilística devia ser considerada primária e que funcionava avançando informação que aumenta a probabilidade do acontecimento (ou facto) a explicar. Partindo das ideias sagazes de Reichenbach, Salmon fez notar que há casos em que dar informação que aumenta a probabilidade não é explicativo: a probabilidade de haver uma tempestade aumenta quando nos dizem que o barómetro está em queda, mas este fenómeno não explica a ocorrência da tempestade. Reichenbach analisara exemplos como este, considerando que tanto a queda do barómetro como a tempestade eram efeitos de uma causa comum, e ofereceu uma condição estatística para abranger situações nas quais estão presentes causas comuns. Salmon alargou a abordagem de Reichenbach, considerando efectivamente que as explicações identificam as causas dos fenómenos e, em harmonia com os escrúpulos empiristas, tentou fornecer uma análise da causalidade em termos de relações estatísticas. Infelizmente, revelou-se muito difícil reconstruir as noções causais em termos estatísticos, e nos anos 80 do século XX a maior parte dos filósofos tinham abandonado essa tentativa, considerando-a sem futuro.
Contudo, muitos filósofos — incluindo Salmon — continuaram convencidos de que a noção de causalidade é central para compreender a explicação e que a explicação científica é uma questão de rastrear causas. Dividiam-se (e continuam a dividir-se) em dois grupos: aqueles que acreditavam que as preocupações humianas sobre a causalidade são importantes e que, em consequência, é preciso uma análise prévia da causalidade, e aqueles que pensavam que Hume e os seus sucessores adoptaram uma imagem inadequada do conhecimento humano, não reconhecendo que as pessoas são capazes de detectar relações causais perceptualmente. Salmon foi o mais proeminente membro deste grupo, oferecendo uma explicação intricada dos processos causais, da propagação causal e da interacção causal apelando (no seu trabalho mais tardio) à conservação de quantidades físicas. Defendeu também, ao arrepio da sua perspectiva inicial, que a explicação causal pode por vezes ocorrer fazendo o acontecimento explicado parecer menos provável do que anteriormente. (Imagine-se um jogador de golfe cuja bola bate numa árvore e é desviada para o buraco; uma descrição da trajectória inicial diminuiria a probabilidade de o resultado ser acertar no buraco.)
Ainda que encarar as explicações como uma questão de rastrear causas responda de uma maneira muito directa a vários dos problemas com que a abordagem de Hempel se deparou, não foi o único programa na teoria mais recente da explicação. Alguns filósofos tentaram continuar mais próximos do projecto de Hempel, pensando na explicação em termos de unificação. Incidindo em especial em exemplos de explicação teórica nas ciências, propuseram que o que há de distintivo na explicação é a capacidade para tratar de uma perspectiva única fenómenos que previamente eram vistos como díspares. Partiram do comentário do biólogo inglês T. H. Huxley (1825–1895) de que “no fim de contas, todos os fenómenos são incompreensíveis, e a tarefa da ciência é reduzir as incompreensibilidades fundamentais ao menor número possível”. Esta perspectiva, contudo, enfrentou dificuldades técnicas consideráveis, ao responder a alguns problemas que surgiram na abordagem de Hempel. O seu principal mérito é evitar apoiar-se em conceitos causais e conseguir oferecer um tratamento da explicação em áreas da ciência teórica em que falar de causalidade parece forçado.
Uma estratégia diferente começou por questionar a proposta hempeliana de que as explicações comuns são esboços explicativos cuja força deriva de uma explicação ideal por articular. Filósofos como Peter Achinstein e Bas van Fraassen ofereceram teorias pragmatistas, segundo as quais o que conta como explicação é determinado pelo contexto. As suas abordagens continuavam próximas da prática explicativa quotidiana mas, na medida em que renunciavam a condições independentes do contexto para determinar o que é ou não uma explicação, encorajaram o regresso à ideia de que a explicação é uma actividade puramente subjectiva, dependendo do que satisfaz uma audiência. Na verdade, van Fraassen acolheu uma conclusão deste tipo, sustentando que o poder explicativo não é uma virtude objectiva das teorias científicas.
O estado actual da explicação científica é assim muitíssimo fragmentário. Apesar de muitos filósofos sustentarem que as explicações rastreiam causas, há ainda uma discordância considerável acerca de a noção de causalidade dever ou não ser analisada e, em caso afirmativo, porquê. A questão de saber se as explicações teóricas podem ser sempre entendidas em termos causais continua em aberto. Não é claro se unificar os fenómenos é uma virtude explicativa, e como se deverá entender uma noção satisfatória de unificação. Talvez mais fundamentalmente, há controvérsias sobre se há uma única noção de explicação que se aplique a todas as ciências, a todos os contextos e a todos os períodos, e se o poder explicativo conta como uma qualidade objectiva das teorias.
Incertezas semelhantes afectam as discussões recentes sobre as leis científicas. Como se fez notar, o empirismo lógico tinha dificuldade em distinguir leis genuínas de generalizações acidentais. Tal como os teorizadores da explicação se desfaziam por vezes de problemas difíceis invocando um conceito até então tido como tabu — a noção de causalidade — também alguns filósofos defenderam uma ideia de necessidade natural e tentaram caracterizá-la tão precisamente quanto possível. Outros, mais simpáticos às suspeitas de Hume, deram continuidade ao projecto empirista-lógico de analisar a noção independentemente do conceito de necessidade natural. A abordagem mais importante nesta linha identifica as leis da natureza como aquelas generalizações que figurariam na melhor sistematização de todos os fenómenos naturais. Esta sugestão harmoniza-se naturalmente com a abordagem unificacionista da explicação, mas encontra dificuldades semelhantes ao articular a ideia de “melhor sistematização”. O mais fundamental, talvez, é não ser óbvio que o conceito de “todos os fenómenos naturais” seja coerente (ou, se o for, se é algo que deva interessar à ciência).
Há uma questão ainda mais básica. Por que razão é a noção de lei científica de interesse filosófico? No enquadramento do empirismo lógico, e especificamente na abordagem hempeliana da explicação, a resposta era clara. As explicações dependem das leis, e a noção de lei deve ser explicada sem fazer apelo a noções suspeitas, como a necessidade natural. Mas a abordagem de Hempel está agora obsoleta, e muitos filósofos contemporâneos suspeitam das velhas suspeitas, e estão dispostos a ser mais tolerantes a apelos à causalidade e à necessidade natural. Assim, que função teria agora uma perspectiva acerca das leis?
A ideia talvez seja que a procura de leis da natureza é central na actividade científica. Mas, para começar, o hábito científico de chamar “leis”a certas afirmações parece extremamente casuístico. Além disso, há áreas em que é difícil encontrá-las — grande parte das ciências da vida e da Terra — apesar de se atribuir aos cientistas destas áreas o crédito de fazer as descobertas mais importantes. James Watson e Francis Crick (1916–20004) ganharam um prémio Nobel devido a um dos maiores feitos científicos do século XX (na verdade, o mais frutífero), mas é difícil formular a lei que descobriram. Por isso, os filósofos da ciência começam a abandonar a noção de que as leis são centrais na ciência, destacando ao invés a procura de simetrias na física, ou os diferentes usos de generalizações aproximadas na biologia, ou no desenvolvimento de modelos em inúmeras áreas das ciências.
Do mesmo modo, a filosofia contemporânea da ciência está indo além da questão da estrutura das teorias científicas. Por várias razões, essa questão foi de imensa importância para os positivistas lógicos e para os empiristas lógicos. A lógica matemática forneceu uma concepção clara: uma teoria é um agregado de afirmações (os axiomas da teoria) com as suas consequências dedutivas. Os positivistas lógicos mostraram como se poderia aplicar esta concepção aos casos científicos — poder-se-ia axiomatizar a teoria da relatividade, por exemplo. Além disso, o trabalho de axiomatização não era uma tarefa ociosa, pois as dificuldades de formular um critério preciso de importância cognitiva (que visava separar a boa ciência da discussão filosófica sem significado) levantava questões sobre a legitimidade do vocabulário especial que figura nas teorias científicas. Convencidos de que o som e a fúria da metafísica alemã — referência ao “Espírito Absoluto” de Georg Wilhelm Friedrich Hegel (1770–1831) e à conversa sobre “o Nada” de Martin Heidegger (1889–1976) — não queria realmente dizer fosse o que fosse, os positivistas lógicos (e os empiristas lógicos) reconheceram que precisavam de mostrar que termos como electrão e ligação covalente eram diferentes.
Começaram com uma distinção entre dois tipos de linguagem. A linguagem observacional inclui todos os termos que podem ser adquiridos pela presença de amostras observáveis. Apesar de serem cépticos quanto à mistura de psicologia com filosofia, os empiristas lógicos adoptaram tacitamente uma teoria da aprendizagem simples: as crianças conseguem aprender termos como vermelho mostrando-lhes amostras apropriadas, quente pondo as mãos na água, e assim por diante. Os empiristas lógicos negaram que este vocabulário observacional fosse suficiente para definir os termos especiais da ciência teórica, a linguagem teórica que parecia seleccionar entidades e propriedades inobserváveis. Concebendo as teorias como sistemas axiomáticos, contudo, traçaram uma distinção entre dois tipos de axiomas. Alguns axiomas só incluem vocabulário teórico, ao passo que outros incluem tanto termos teóricos como observacionais. Estes últimos, caracterizados ora como “regras de correspondência”, ora como “definições coordenadoras”, relacionam os vocabulários teóricos e observacionais, e é por seu meio que os termos teóricos passam a ter significado.
A última formulação esbate uma diferença importante entre duas escolas no seio do empirismo lógico. Segundo uma delas, os termos teóricos são “parcialmente interpretados” pelas regras de correspondência, de modo que, por exemplo, se uma dessas regras é que um electrão produz um tipo particular de vestígio numa câmara de Wilson, então isso exclui muitas possibilidades quanto ao significado do termo electrão, que anteriormente era desconhecido. Uma escola mais radical, o instrumentalismo, sustentava que, estritamente falando, o vocabulário teórico continua a não ter significado. Os instrumentalistas consideravam que as teorias científicas eram sistemas axiomáticos cujo vocabulário só em parte é interpretada (a linguagem observacional); o resto é um cálculo formal cujo propósito é fornecer previsões formuladas no vocabulário observacional. Contudo, mesmo os instrumentalistas conseguiram manter uma distinção entre a ciência teórica séria e a muito ridicularizada metafísica, pois as suas reconstruções das teorias científicas revelariam que o vocabulário não-interpretado desempenhava um papel funcional importante (um resultado que não seria de esperar no caso metafísico).
Os empiristas lógicos debateram os méritos das duas posturas, explorando as dificuldades de tornar precisa a noção de interpretação parcial e a possibilidade de encontrar sistemas axiomáticos que gerassem todas as consequências observacionais sem usar vocabulário teórico. O debate ficou efectivamente comprometido com o contributo de Hilary Putnam, que reconheceu que a motivação inicial da abordagem das teorias era profundamente problemática. Nos seus breves esboços das diferenças entre as duas linguagens, os empiristas lógicos tinham misturado duas distinções. Por um lado, há um contraste entre coisas que podem ser observadas e coisas que não podem sê-lo — esta é a distinção entre o observável e o inobservável; por outro lado, há uma diferença entre termos cujos significados podem ser adquiridos por meio de demonstração e os que não o podem — a distinção entre o observacional e o teórico. É um erro pensar que as distinções são congruentes, que os termos observacionais se aplicam a coisas observáveis, e os termos teóricos a coisas inobserváveis. Em primeiro lugar, muitos termos que podemos aprender por meio de demonstração aplicam-se a inobserváveis — no marcante exemplo de Putnam, mesmo uma criança pode aprender a falar de “pessoas tão pequeninas que não se podem ver”.
Uma vez reconhecido o segundo ponto, ficou aberta a via para introduzir vocabulário teórico que o empirismo lógico nunca levara a sério (apesar de muitos cientistas eminentes e professores talentosos de ciência terem amiúde desenvolvido essas maneiras de transmitir o significado). Não é difícil ver que o termo parte pode ser aprendido em conexão com pedaços de objectos observáveis e que o seu uso poderá abranger também coisas inobserváveis, de modo que a especificação de átomos como “partes de toda a matéria que em si não têm partes” (independentemente dos méritos que possa hoje ter) poderá ter sido um meio de os contemporâneos de John Dalton (1766–1844), um dos primeiros a desenvolver a teoria atómica, compreenderem as suas afirmações.
O empirismo lógico deu muita atenção ao problema de expor a estrutura das teorias científicas, porque resolver esse problema parecia crucial para a vindicação do vocabulário teórico usado pelos cientistas. Putnam mostrou, com efeito, que esses esforços imensos eram desnecessários.
A partir dos anos 60, os filósofos da ciência exploraram abordagens alternativas às teorias científicas. Uma das mais destacadas foi a chamada “concepção semântica”, originalmente formulada por Patrick Suppes. Nesta concepção, as teorias são vistas como colecções de modelos, juntamente com hipóteses sobre como estes modelos se relacionam com partes da natureza. As diferentes versões da concepção semântica diferem nas perspectivas adoptadas quanto ao carácter dos modelos, considerando por vezes que são estruturas matemáticas abstractas, susceptíveis de especificações formais precisas, e outras vezes que são mais concretos (como fazem os químicos, por exemplo, quando constroem modelos de moléculas particulares).
A concepção semântica de teorias tem várias características atraentes. Primeiro, ao contrário da abordagem mais antiga, fornece uma maneira de discutir aspectos da ciência que são independentes da escolha de uma linguagem particular. Segundo, mais do que as alternativas, parece fazer justiça a áreas da ciência nas quais os feitos teóricos resistem à axiomatização. A teoria darwinista da evolução é um desses casos. Do auge da abordagem axiomática, alguns filósofos tentaram mostrar como a teoria da evolução poderia ser trazida para a concepção ortodoxa de teorias, mas os seus esforços tenderam a produzir teorias formais que eram praticamente triviais. Os debates seguintes sobre se a teoria da evolução ia além de uma tautologia deveria ter gerado um sério constrangimento filosófico. Em contraste, os filósofos que usavam a concepção semântica iluminaram questões teóricas que emergem na biologia evolucionista contemporânea.
Por último, a concepção semântica adequa-se muito mais a um aspecto das ciências que foi frequentemente negligenciado: a prática da idealização. Em vez de considerar que os cientistas pretendem oferecer descrições literalmente correctas de características gerais do mundo, a concepção semântica supõe que propõem modelos, juntamente com a afirmação de que partes particulares da natureza correspondem a estes modelos em aspectos específicos e em graus também específicos.
A obra de Thomas S. Kuhn (1922–1996), que será mais pormenorizadamente discutida na próxima secção, ofereceu uma terceira abordagem das teorias científicas (ainda que alguns defensores da concepção semântica tentassem relacionar as suas próprias propostas com as de Kuhn). Na sua influente monografia A Estrutura das Revoluções Científicas (1962), Kuhn deslocou o termo teoria da posição central que tinha nas discussões filosóficas sobre as ciências, preferindo falar de “paradigmas”. Apesar de a sua terminologia ser agora omnipresente no discurso público, Kuhn acabou por lamentar a expressão, em parte devido à crítica de que o seu uso de paradigma tinha muitas ambiguidades. Na sua descrição do trabalho científico quotidiano (a chamada “ciência normal”), contudo, Kuhn captara aspectos importantes das teorias a que os filósofos não tinham previamente dado atenção. Kuhn viu que os cientistas se inspiram amiúde num feito científico concreto (este é o significado nuclear de paradigma) e que este feito lhes levanta questões de investigação, fornecendo amiúde estilos de experimentação ou explicação que tentam emular. Viu também que o trabalho científico é frequentemente dominado por algo mais vasto e persistente do que uma teoria específica: a saber, um programa de investigação que sobrevive ao longo de toda uma sucessão de teorias. Na sequência do trabalho de Kuhn, muitos filósofos tentaram fornecer descrições mais completas do pano de fundo científico (o “corpo da teoria”) no qual os cientistas se apoiam, falando ora de programas de investigação, ora de tradições de investigação, ora de práticas.
O que é, então, uma teoria científica? Nas últimas décadas, houve debates acalorados sobre esta questão. Mas não é preciso dar uma resposta. No decurso do seu trabalho, os cientistas fazem inúmeras coisas. Os filósofos da ciência tentam compreender aspectos dessa actividade, oferecendo reconstruções da prática científica, na esperança de responder a questões particulares, e não há razão para pensar que um estilo particular de reconstrução será apropriado para toda e qualquer questão. Tal como os carpinteiros decidem que ferramentas usam com base na tarefa que têm em mãos, os filósofos poderão adoptar diferentes técnicas de reconstrução para diferentes propósitos.
Quando as maneiras como o significado atribuído ao vocabulário teórico constituiu uma questão acalorada na filosofia da ciência, foi natural adoptar uma abordagem axiomática das teorias científicas e ter como ponto fulcral as conexões entre os termos teóricos e a linguagem que melhor compreendemos (e na medida em que persistem algumas questões, na esteira das ideias sagazes de Putnam sobre as distinções entre o teórico e o observacional, e entre o observável e o inobservável, a abordagem axiomática pode ter ainda valor nesta área). Do mesmo modo, quando um filósofo (ou um cientista) se pergunta se um pressuposto específico ou uma escolha particular do valor de um parâmetro é necessário, o sistema de axiomatização ajuda a resolver a questão; dada uma apresentação axiomática, pode-se explorar se todas as derivações que usam o pressuposto podem ser transformadas em derivações que não o usem. Contudo, quando o tópico que se estuda é uma ciência na qual há poucas generalizações, ou quando queremos elucidar questões acerca da idealização na ciência, a concepção semântica parece muito mais iluminante. Por último, ao explorar a dinâmica de grandes mudanças na ciência — ao reconstruir a maneira como a teoria evolucionista de Darwin ganhou aceitação, por exemplo — os conceitos introduzidos por Kuhn e por quem reagiu ao seu trabalho são ao que parece mais prontamente aplicáveis. A insistência de que tem de haver uma resposta única quanto ao que são realmente as teorias científicas parece um dogmatismo deslocado que embaraça a investigação filosófica.
Uma grande questão sobre as teorias científicas que desperta a atenção filosófica e científica diz respeito à possibilidade de fornecer uma única teoria que abranja os domínios de todas as ciências. A ideia de uma ciência unificada, ou a perspectiva de que as ciências formam uma hierarquia, atrai muitos pensadores. Há um argumento intuitivo de grande força a favor desta atitude. Se tivermos em consideração o objecto de estudo das ciências sociais, por exemplo, parece que os fenómenos sociais resultam de pessoas que têm relações complexas entre si e que actuam de maneiras também complexas. Estas pessoas, é claro, são sistemas biológicos e psicológicos complexos. A sua actividade psicológica funda-se nos disparos neuronais nos seus cérebros. Assim, as pessoas são sistemas biológicos intricados. Os meandros da biologia baseiam-se na coreografia de reacções moleculares no seio de células individuais e entre estas. Assim, a biologia é uma química muito complexa. As próprias reacções químicas envolvem a formação e ruptura de ligações, e estas são questões de microfísica. No fim de contas, portanto, todos os fenómenos naturais, mesmo os que envolvem interacções entre pessoas, não passam de uma série excepcionalmente complexa de transacções entre os constituintes físicos últimos da matéria. Uma abordagem completa destes constituintes últimos e das suas interacções seria assim equivalente a uma “teoria de tudo”.
Este argumento apoia-se em algumas descobertas científicas importantes. Ao passo que as gerações anteriores pensavam que os seres vivos teriam de conter qualquer coisa além de moléculas complexas (uma “substância vital”, por exemplo), ou que tem de haver qualquer coisa a mais nos seres pensantes além de cérebros intricados (uma “mente imaterial”, por exemplo), a biologia e a neurociência contemporâneas mostraram que não precisamos dessas hipóteses. Dado o firme consenso da ciência contemporânea, há uma hierarquia constitutiva: todas as moléculas são feitas de partículas fundamentais; todos os sistemas orgânicos são feitos de moléculas; as pessoas são sistemas orgânicos; e as sociedades são constituídas por pessoas. Contudo, há uma diferença entre uma hierarquia constitutiva das coisas estudadas pelas várias ciências e uma hierarquia reducionista dessas ciências. A biologia estuda organismos, entidades constituídas por moléculas (e nada mais); não se segue que a biologia pode ser reduzida à ciência que estuda moléculas (a química).
Para compreender esta distinção é necessário ter uma concepção clara de redução. A proposta mais influente, de Ernest Nagel, foi formulada no enquadramento da concepção axiomática das teorias científicas. Nagel sugeriu que uma teoria se reduz a outra quando os axiomas da teoria reduzida podem ser derivados dos axiomas da teoria que opera a redução, juntamente com princípios (“princípios de conexão”) que conectam a linguagem da teoria reduzida à da teoria que opera a redução. Assim, por exemplo, para reduzir a genética à bioquímica, mostrar-se-ia como os princípios da genética se seguem de premissas que incluem os princípios da bioquímica, juntamente com especificações na linguagem bioquímica do vocabulário especial da genética (termos como gene, alelo e assim por diante).
Muitos filósofos criticaram a ideia de ciência unificada defendendo que, quando a redução é entendida no sentido de Nagel, a hierarquia constitutiva não corresponde a uma hierarquia reducionista. Centraram-se especificamente na possibilidade de reduzir a biologia à física e à química, e de reduzir a psicologia à neurociência. As tentativas de fazer essas reduções encontraram dois obstáculos principais. Primeiro, apesar de sérios esforços para os formular, não há ainda princípios de conexão que liguem o vocabulário da biologia ao da química nem o vocabulário da psicologia ao da neurociência. É evidentemente difícil pensar nas especificações químicas da propriedade de ser um predador, ou nas especificações neurológicas do estado genérico de desejar comer um gelado, mas o problema emerge mesmo em casos menos intratáveis, como a tentativa de fornecer condições químicas para ser um gene. Cada gene é um segmento de ácido nucleico (ADN na maior parte dos organismos, ARN nos retrovírus); o desafio é encontrar uma condição química que distinga apenas aqueles segmentos de ácido nucleico que contam como genes. Curiosamente, esta é uma questão séria de investigação, pois, caso fosse respondida, os biólogos moleculares que fazem sequenciação genómica conseguiriam descobrir muito mais depressa do que hoje os genes nos seus dados de sequenciação. A questão está ainda por responder devido ao facto de os genes serem unidades funcionais que não têm qualquer estrutura química comum (além de serem ácidos nucleicos, claro). As linguagens da genética e da química classificam as moléculas de maneiras diferentes e, devido a esta classificação cruzada, não há possibilidade de redução.
A segunda dificuldade depende de questões acerca da explicação. Imagine-se uma criança que está cansada e com calor. O progenitor acossado carrega-a enquanto passa por uma gelataria. A criança começa a gritar. Poder-se-ia explicar este comportamento dizendo que a criança viu a gelataria e exprimiu um desejo por gelados, que o progenitor recusou. Suponha-se ainda que um neurocientista amistoso consegue despistar a história causal dos disparos neuronais do cérebro da criança. Substituiria isto a explicação quotidiana? Aprofundá-la-ia? Constituiria sequer uma explicação inteligível do que aconteceu? Uma inclinação natural é suspeitar que a resposta a todas estas perguntas é “não”.
Quem é amigo da unidade da ciência, por outro lado, poderá responder que esta inclinação natural só surge porque desconhecemos os detalhes neurocientíficos. Se conseguíssemos realmente formular a explicação das causas neuronais e de seguir os detalhes da história, conseguiríamos uma compreensão acrescida do comportamento da criança, e talvez nos inclinássemos até a abandonar a explicação baseada em conceitos psicológicos quotidianos (a “psicologia popular”).
Uma vez mais, a objecção à ciência unificada pode ser formulada num caso em que é possível fornecer pelo menos alguns detalhes bioquímicos. Um dos melhores candidatos a uma regularidade na genética é uma versão revista da regra da segregação independente, concebida por Gregor Mendel (1822–1884): os genes de diferentes cromossomas distribuem-se de maneira independente quando os gâmetas se formam (na meiose). A genética clássica (pré-molecular) dá uma explicação satisfatória do porquê de isso acontecer. Nos organismos que se reproduzem sexualmente, os gâmetas (esperma e óvulos) são formados num processo em que os cromossomas se alinham em pares; depois de alguma recombinação entre os membros de cada par, um cromossoma de cada par é transmitido ao gâmeta. Este tipo de emparelhamento e separação produzirá segregações independentes de segmentos de cromossomas (incluindo genes), independentemente de os cromossomas serem feitos de uma coisa ou de outra e independentemente dos mecanismos moleculares subjacentes. Se nos contarem agora uma história complicada sobre a sequência de reacções químicas que ocorrem em todos os casos de meiose — teria mesmo de ser muito complicada, dado que os casos são surpreendentemente diversificados — nada acrescentaria à explicação original, pois não responderia à pergunta “Por que razão os genes de diferentes cromossomas se segregam independentemente?” A pergunta fica completamente respondida quando compreendemos que a meiose envolve um tipo específico de emparelhamento e separação.
Estes pontos não sugerem que as iniciativas da biologia molecular não são frutíferas, ou que a investigação do futuro da neurociência será irrelevante para a psicologia. Dizer que nem todas as explicações da genética podem ser substituídas por explicações moleculares é perfeitamente compatível com o pressuposto de que a biologia molecular aprofunda muitas vezes a perspectiva oferecida pela genética clássica (como nos casos de mutação, replicação de genes, transcrição e tradução de genes, e variadíssimos outros processos). Além disso, negar a possibilidade de redução no sentido de Nagel não é excluir a possibilidade de que outra noção poderá permitir a redutibilidade numa escala mais vasta. Contudo, é importante compreender este fiasco particular da ideia de ciência unificada, porque muitas vezes, quando os cientistas (entre outros) pensam numa “teoria de tudo”, estão a perspectivar um conjunto de princípios a partir dos quais se possa derivar as explicações de todos os fenómenos naturais. Este tipo de “teoria final” é uma quimera.
Os proponentes da concepção semântica de teorias exploraram noções alternativas de redução. Para alguns filósofos, contudo, conceber as teorias como famílias de modelos foi uma maneira proveitosa de captar o que consideravam que era o carácter parcelar do trabalho científico contemporâneo. Em vez de verem as ciências como algo que visa grandes generalizações, sugeriram que os investigadores oferecem uma manta de retalhos de modelos que, em diferentes aspectos e em diferentes graus, conseguem caracterizar o comportamento de vários aspectos do mundo natural. Este tema foi diligentemente abordado pela filósofa americana Nancy Cartwright, que se revelou em finais do século XX a mais vigorosa crítica da ciência unificada.
Cartwright opôs-se ao tipo de redução considerada acima (a “redução vertical”), mas pensa que as críticas comuns não vão suficientemente longe. Defendeu que os filósofos deviam ser também cépticos quanto à “redução horizontal”, a ideia de que os modelos e generalizações têm um âmbito lato. A filosofia tradicional da ciência dava como garantida a possibilidade de extrapolar as regularidades para lá os contextos limitados em que podem ser proficuamente aplicados. Como ilustração incisiva, Cartwright convidou os leitores a considerar a confiança que têm na segunda lei de Newton, que afirma que a força é igual ao produto da massa com a aceleração. A lei pode ser usada para dar conta dos movimentos de tipos particulares de corpos; mais exactamente, o sistema solar, os pêndulos, e assim por diante, podem ser modelados como sistemas newtonianos. Contudo, há muitos contextos naturais nos quais é difícil criar uma ordem newtoniana. Imagine-se, por exemplo, que alguém deixa cair um pedaço de papel-moeda de uma janela elevada que dá para uma praça. Será que a segunda lei de Newton determina a trajectória? Uma resposta habitual seria que o faz em princípio, ainda que na prática as forças em operação sejam extremamente difíceis de especificar. Cartwright perguntou-se se esta resposta estará correcta. Sugeriu, ao invés, que a ciência moderna deve ser entendida em termos de uma história de construção bem-sucedida de modelos newtonianos para um domínio limitado de situações, e que a ideia de que esses modelos podem ser aplicados sempre e em todo o lado não passa de uma “fé fundamentalista”. Está em harmonia com o conhecimento científico actual, defendeu, que o mundo seja integralmente “malhado”, incluindo algumas bolsas de ordem, nas quais os modelos funcionam bem, e bolsas de desordem, que não se pode captar com os tipos de modelos que os seres humanos conseguem formular.
Apesar de algumas das propostas discutidas nas secções anteriores terem sido influenciadas pela reacção crítica ao empirismo lógico, os tópicos eram os que figuravam na ordem do dia dos empiristas lógicos. Em muitos círculos filosóficos, essa ordem do dia continua a ser central na filosofia da ciência, por vezes acompanhada da rejeição das críticas ao empirismo lógico, outras vezes de uma tentativa de integrar ideias críticas na discussão das questões tradicionais. Para alguns filósofos, contudo, a filosofia da ciência foi profundamente transformada por uma sucessão de críticas que começaram nos anos 50, quando alguns estudiosos com uma orientação histórica ponderaram questões acerca da mudança científica.
A crítica historicista teve início com os filósofos N. R. Hanson (1924–1967), Stephen Toulmin, Paul Feyerabend (1924–1994) e Thomas Kuhn. Apesar de estes autores diferirem em muitos pontos, partilhavam a perspectiva de que as explicações empiristas lógicas comuns da confirmação, da teoria e de outros tópicos eram inadequadas para esclarecer as grandes transições que ocorreram na história das ciências. Feyerabend, o mais radical e extravagante do grupo, formulou o desafio fundamental com o seu brio característico: se procuramos uma regra metodológica que dê conta de todos os episódios históricos que os filósofos da ciência tendem a aplaudir — o triunfo do sistema coperniciano, o nascimento da química moderna, a revolução darwinista, a transição para as teorias da relatividade, e assim por diante — então o melhor candidato é “vale tudo”. Mesmo em formulações menos provocatórias, contudo, as reconstruções filosóficas de partes da história da ciência tiveram o efeito de pôr em questão os próprios conceitos de progresso científico e de racionalidade científica.
Uma concepção natural do progresso científico é que consiste na acumulação da verdade. No auge do empirismo lógico, uma versão mais comedida poderá ter parecido preferível: o progresso científico consiste numa acumulação de verdades na “linguagem da observação”. Os filósofos da ciência deste período pensavam também que tinham uma perspectiva clara da racionalidade científica: ser racional é aceitar e rejeitar hipóteses segundo as regras do método, ou talvez distribuir graus de confirmação de acordo com os padrões bayesianos. O desafio historicista consistiu em defender, com respeito a exemplos históricos detalhados, que as próprias transições nas quais parece que se faz grandes avanços científicos não podem ser vistas como o resultado da simples acumulação da verdade. Além disso, as pessoas que participaram nas maiores controvérsias científicas do passado não se dividiam higienicamente entre derrotados irracionais e vencedores racionais; com muitíssima frequência, sugeriu-se, os heróis violavam os cânones da racionalidade, enquanto o raciocínio dos supostos reaccionários era exemplar.
Nos anos 60 não era claro qual das versões da crítica historicista teria o maior impacto mas, nas décadas seguintes, a monografia de Kuhn afirmou-se como o texto de referência. A Estrutura das Revoluções Científicas oferecia um padrão geral de mudança científica. As investigações num dado campo começam com um conflito de diferentes perspectivas. A dado ponto, uma abordagem consegue resolver uma questão concreta, e os investigadores aceitam adoptá-la — seguem o “paradigma”. O compromisso com a abordagem dá início a uma tradição de ciência normal, na qual há problemas bem delimitados, ou “quebra cabeças”, para os investigadores resolverem. Na prática da ciência normal, a incapacidade para resolver um quebra-cabeças não põe em questão o paradigma, mas antes a proficiência do investigador. Só quando os quebra-cabeças se revelam repetidamente recalcitrantes é que a comunidade começa a ter a noção de que alguma coisa está errada; os quebra-cabeças por resolver adquirem um novo estatuto, passando a ser vistos como anomalias. Mesmo assim, a tradição científica normal irá continuar desde que não haja alternativas viáveis. Se surgir realmente uma rival, e se conseguir atrair um novo consenso, ocorre uma revolução: o velho paradigma é substituído pelo novo, e os investigadores entregam-se a uma nova tradição científica normal. A resolução de quebra-cabeças é agora direccionada pelo paradigma vencedor, e o velho padrão poderá repetir-se, acabando alguns quebra-cabeças por se revelar anomalias, gerando um sentido de crise, que em última análise dará lugar a uma nova revolução, uma nova tradição científica normal, e assim indefinidamente.
As propostas de Kuhn podem ser entendidas de várias maneiras. Muitos cientistas consideraram que esta explicação da ciência normal oferece ideias sagazes quanto às suas próprias experiências e que a ideia de resolver quebra-cabeças é particularmente apropriada. Contudo, apesar de alguns estudiosos terem tentado aplicar a sua abordagem, a maior parte dos historiadores da ciência mostraram-se cépticos com respeito às categorias kuhnianas. Os filósofos da ciência, por outro lado, não se centraram nas suas sugestões quanto à ciência normal nem na sua historiografia geral, mas antes no tratamento dado por Kuhn aos episódios a que chamou “revoluções”. Pois é ao discutir as revoluções científicas que Kuhn pôs em questão ideias tradicionais acerca do progresso e da racionalidade.
Na base da impugnação está a tese de Kuhn de que os paradigmas são incomensuráveis entre si. A sua complicada noção de incomensurabilidade começa com uma metáfora matemática, aludindo à descoberta pitagórica de números (como ) que não podem ser expressos como racionais; as dimensões irracionais e racionais não têm uma medida comum. Kuhn deu atenção a três aspectos da incomensurabilidade dos paradigmas (que nem sempre distinguiu). Primeiro, os paradigmas são conceptualmente incomensuráveis na medida em que as linguagens nas quais descrevem a natureza não podem ser facilmente traduzidas entre si; nos debates revolucionários, sugeriu, a comunicação é inevitavelmente parcial. Segundo, os paradigmas são observacionalmente incomensuráveis, na medida em que quem trabalha em diferentes paradigmas irá responder de diferentes maneiras aos mesmos estímulos — ou, como por vezes dizia, verá coisas diferentes quando procura nos mesmos sítios. Terceiro, os paradigmas são metodologicamente incomensuráveis, na medida em que têm diferentes critérios de sucesso, atribuindo diferentes valores às questões e às maneiras que se propõem para lhes dar resposta. Em combinação, defendeu Kuhn, estas formas de incomensurabilidade são tão profundas que, depois de uma revolução científica, haverá um sentido em que os cientistas trabalham num mundo diferente.
Estas teses surpreendentes são defendidas dando atenção a um pequeno número de exemplos históricos de mudança revolucionária. Kuhn centrou-se sobretudo na revolução coperniciana, na substituição da teoria flogística pela nova química de Lavoisier, e na transição da física de Newton para as teorias especial e geral da relatividade. Assim, por exemplo, Kuhn apoiou a doutrina da incomensurabilidade conceptual defendendo que a astronomia pré-coperniciana não podia dar sentido à noção coperniciana de planeta (na astronomia anterior, a própria Terra não podia ser um planeta), que a química flogística não podia dar sentido à noção de oxigénio de Lavoisier (para os defensores do flogisto, a combustão é um processo que emite flogisto, e falar de oxigénio como uma substância que é absorvida é um equívoco profundo), e que as teorias da relatividade distinguem duas noções de massa (massa em repouso e massa própria), nenhuma das quais faz sentido em termos newtonianos.
Todos estes argumentos receberam uma atenção filosófica detalhada, e tornou-se óbvio que se pode resistir às conclusões adoptando uma abordagem mais sofisticada da linguagem do que a pressuposta por Kuhn. A questão crucial é se as linguagens de paradigmas rivais são suficientes para identificar objectos e propriedades referidos nos termos da outra. Apesar de Kuhn ter razão ao ver dificuldades neste ponto, é um exagero supor que a identificação é impossível. Da perspectiva de Lavoisier, por exemplo, o antiquado termo “ar desflogisticado” significa “o que resta quando o flogisto é removido do ar” (caso em que o termo não selecciona seja o que for no mundo, porque o flogisto não é uma substância que exista). Mas noutros casos, o termo é usado para designar um gás específico (oxigénio) que os dois grupos de químicos tinham isolado. Com respeito à incomensurabilidade conceptual, é possível ver os exemplos de Kuhn como casos nos quais a comunicação é escorregadia, mas não impossível, respondendo os dois lados a um mundo em comum, e falando também desse mundo.
A tese da incomensurabilidade observacional ilustra-se melhor com o exemplo de Kuhn da revolução coperniciana. Em finais do século XVI, Johannes Kepler (1571–1630), um seguidor firme de Copérnico, trabalhou como assistente do grande astrónomo Tycho Brahe (1546–1601), que pensava que a Terra estava imóvel. Kuhn imaginou Tycho e Kepler a ver juntos o Sol nascer e, como Hanson já o fizera, Kuhn sugeriu que Tycho veria um Sol em movimento a tornar-se visível, ao passo que Kepler veria um Sol estático a tornar-se visível à medida que a Terra gira.
Claro que Tycho e Kepler poderiam relatar as suas experiências visuais de diferentes maneiras. E não se deve também supor que há uma linguagem “primitiva” privilegiada — uma linguagem que seleccione formas e cores, talvez — na qual todos os observadores possam descrever o que vêem, chegando a um consenso com quem está situado no mesmo plano. Mas estes pontos, apesar de terem sido talvez negligenciados na filosofia da ciência anterior, não dão lugar às radicais conclusões kuhnianas. Em primeiro lugar, a diferença nos relatos da experiência dos observadores é perfeitamente compatível com a percepção de um objecto comum, talvez correctamente descrito por um dos participantes, e talvez relatado com precisão pelo outro; tanto Tycho como Kepler vêem o Sol, e ambos percepcionam o movimento relativo do Sol e da Terra. Além disso, apesar de poder não haver uma linguagem basilar de observação incontaminada à qual ambos possam recorrer, têm ao seu dispor formas de descrição que só pressupõem ideias de senso comum, que ambos partilham, acerca de objectos nas redondezas. Caso se cansem de usar os seus relatos preferidos — “Vejo um Sol em movimento”, “Vejo um Sol estacionário que está ficando visível devido à rotação da Terra” — ambos podem concordar que a mancha cor-de-laranja acima da colina é o Sol, do qual se vê agora mais partes do que há dois minutos. Não há, pois, razão para negar que Tycho e Kepler têm experiência do mesmo mundo nem para supor que este não tem aspectos observáveis quanto aos quais ambos podem concordar.
A tese da incomensurabilidade metodológica pode também ser ilustrada por meio do exemplo coperniciano. Depois da publicação do sistema de Copérnico, em 1543, os astrónomos profissionais depressa se deram conta de que, para qualquer sistema centrado no Sol, como o de Copérnico, seria possível apresentar um sistema de igual exactidão centrado na Terra, e inversamente. Como se poderia resolver o debate? Uma das diferenças entre os sistemas repousava no número de dispositivos técnicos necessários para gerar previsões exactas dos movimentos dos planetas. Copérnico saía-se melhor neste aspecto, usando menos truques geométricos do repertório admitido do que os seus oponentes. Mas havia também uma tradição de argumentos contra a possibilidade de uma Terra em movimento. Os estudiosos sustentavam de há muito que, caso a Terra se deslocasse, os objectos que caíssem de grandes alturas deslocar-se-iam para trás, as aves e as nuvens ficariam para trás, os materiais soltos da superfície do planeta acabariam por cair da Terra, e assim por diante. Dado o estado de então das teorias do movimento, não havia erros óbvios nestas maneiras de pensar. Assim, poderá ter parecido que uma decisão acerca do movimento da Terra teria de incluir um juízo de valores (talvez a ideia de que é mais importante não introduzir absurdos quanto ao dinamismo do que reduzir o número de dispositivos técnicos da astronomia). Ou talvez a decisão só se pudesse tomar como um acto de fé — a fé de que se acabaria por encontrar respostas para as questões acerca do comportamento das aves e das nuvens. (Isto ilustra um ponto que foi levantado na secção “Descoberta, Justificação e Falsificação”: nomeadamente, que as tentativas de justificar a escolha de uma hipótese dependem de expectativas acerca de futuras descobertas.)
A incomensurabilidade metodológica representa a dificuldade mais grave das perspectivas sobre o progresso e a racionalidade das ciências. No fundo, Kuhn ofereceu uma versão diferente da tese da subdeterminação, mais solidamente ancorada na prática efectiva das ciências. Em vez de supor que qualquer teoria tem rivais que fazem exactamente as mesmas previsões e que se harmonizam igualmente bem com todos os cânones do método científico, Kuhn sugeriu que certos tipos de grandes controvérsias da história da ciência põem em competição abordagens com diferentes virtudes e defeitos, e que não há uma maneira privilegiada de equilibrá-los. A única maneira de responder a este desafio é examinar os exemplos, tentando compreender as maneiras como os vários tipos de prós e contras podem ser defendidos ou criticados.
Uma maneira de pensar acerca do exemplo coperniciano (e de outras revoluções kuhnianas) é reconhecer a evolução dos debates. Em 1543, a controvérsia poderá ter parecido bastante longe de estar resolvida; a simplificação da maquinaria técnica poderá ter inspirado algumas pessoas a trabalhar mais no programa coperniciano, ao passo que os problemas do dinamismo levantados pela Terra em movimento levou outras pessoas a articular a perspectiva mais tradicional. Se nenhuma das escolhas pode ser vista como exclusivamente racional, também nenhuma pode ser rejeitada por não ser razoável.
Mais tarde, depois de Kepler propor órbitas elípticas, depois das observações telescópicas de Galileu e depois também da resposta deste aos argumentos do dinamismo, o equilíbrio mudou. O copernicianismo livrou-se de vários dos seus defeitos, ao contrário da perspectiva tradicional, que os ganhou. Dado que as duas abordagens enfrentavam ainda problemas residuais — as ciências raramente resolvem todos os problemas que se encontram no seu domínio, e há sempre questões sem resposta — teria em princípio sido ainda possível dar mais peso às virtudes da astronomia tradicional, ou aos defeitos do copernicianismo. Contudo, em meados do século XVII, não teria sido razoável adoptar qualquer juízo de valor que considerasse os feitos da tradição tão gloriosos, ou as deficiências da sua rival tão graves, que o copernicianismo devesse ainda ser rejeitado. Esse tipo de juízo seria semelhante a preferir uma carripana decrépita, com um motor que não trabalha e um chassis ferrugento, a um carro novo funcional, com base unicamente no facto de o velho destroço ter um ornamento mais atraente no capô.
Apesar de alguns filósofos da ciência terem tentado tornar esta linha de resposta ao desafio de Kuhn mais geral e também mais precisa, muitas discussões contemporâneas parecem dar corpo a uma das duas reacções prematuras. Há quem sustente que as preocupações com a mudança revolucionária foram adequadamente respondidas e que a filosofia da ciência pode voltar ao que era. E há quem conclua que os argumentos de Kuhn são definitivos e que não há esperança de salvar o carácter progressivo e racional da ciência (algumas versões mais radicais desta posição serão consideradas nas próximas duas secções).
As discussões de Kuhn da incomensurabilidade põem em questão teses acerca da racionalidade da ciência, perguntando se é possível mostrar como as perspectivas aceites do método e da justificação permitiriam a resolução das revoluções científicas. A tarefa filosófica aqui é adaptar uma das abordagens já existentes da confirmação (o bayesianismo ou o eliminativismo, por exemplo) aos contextos complexos que Kuhn apresenta ou, se isso não se puder fazer, formular novas regras metodológicas, regras que podem ser defendidas como condições da racionalidade que irão aplicar-se a estes contextos.
Na esteira da obra de Kuhn, todas estas opções foram exploradas. Partindo de um enquadramento popperiano, o filósofo de origem húngara Imre Lakatos (1922–1974) tentou fornecer uma “metodologia dos programas de investigação” que entendesse o progresso em termos do aumento do “conteúdo verídico” das teorias científicas. O filósofo americano Larry Laudan tentou mostrar como é possível conceber o progresso científico em termos de “resolução de problemas”, e ofereceu uma metodologia da ciência baseada na avaliação da capacidade para resolver problemas. Infelizmente, contudo, parece difícil dar sentido à noção de uma solução a um problema sem invocar de alguma maneira o conceito de verdade; a perspectiva mais óbvia sobre o que é isso de resolver um problema científico identifica a solução com uma resposta verdadeira a uma pergunta.
A posição dominante entre os filósofos que tentaram explicar a noção de progresso científico, nada surpreendentemente, foi tentar reabilitar ideias de convergência com a verdade, face à preocupação de que não se consegue dar sentido à verdade nem à convergência. Isto alimentou uma disputa abrangente sobre a viabilidade do realismo científico, à qual se entregaram filósofos, historiadores e outros estudiosos da ciência. Esta controvérsia será o tópico da próxima secção.
Já tinham surgido questões acerca do realismo científico no seio das discussões empiristas-lógicas das teorias científicas. Os filósofos que sustentavam que a linguagem teórica era, estritamente falando, destituída de significado, considerando que as teorias eram instrumentos para prever afirmações formuladas num vocabulário observacional, concluíram que as afirmações científicas das ciências não têm valor de verdade (i.e., não são verdadeiras nem falsas) e que o uso do formalismo da ciência teórica não nos compromete com a existência de entidades inobserváveis. Os instrumentalistas sugeriram que não se deve considerar que termos como electrão referem partes ínfimas da matéria; ao invés, limitam-se a funcionar num cálculo formal que nos permite fazer previsões verdadeiras acerca de observáveis. Em contraste, os filósofos que sublinhavam o poder explicativo das teorias científicas defendiam que não se consegue dar sentido à explicação teórica a menos que se reconheça a realidade das entidades inobserváveis; compreende-se o carácter das ligações químicas e vê-se por que razão os elementos se combinam de certa maneira se levarmos a sério as propostas acerca de electrões preenchendo camadas à volta dos núcleos mas, se supomos que electrão, camada e núcleo não passam de maneiras de falar, não se compreende.
Uma disputa inicial acerca do realismo científico centrou-se assim no estatuto dos inobserváveis. Num sentido óbvio, era um debate acerca da democracia, com respeito à linguagem científica: tanto os realistas como os instrumentalistas pensavam que o conceito de verdade fazia sentido em parte da linguagem científica — a linguagem observacional — apesar de diferirem quanto a saber se se deve alargar este estatuto privilegiado à linguagem científica como um todo.
Durante as décadas de 60 e 70, vários desenvolvimentos fizeram a controvérsia inclinar-se a favor dos realistas. O primeiro foi o diagnóstico de Putnam, já discutido, de que a abordagem empirista-lógica dos significados de termos teóricos dependia de confundir duas distinções. O segundo foi a aceitação cada vez maior, na esteira dos escritos de Kuhn e Hanson, da perspectiva de que não há uma linguagem observacional neutra. Se toda a linguagem tem pressupostos teóricos, então parece não haver base para supor que a linguagem que pretende falar de inobserváveis tem de ser tratada de maneira diferente da linguagem acerca de observáveis. O terceiro foi um influente argumento do filósofo americano Grover Maxwell (1918–1981), que fez notar que o conceito de observável varia com a gama de dispositivos disponíveis: muitas pessoas são incapazes de observar grande coisa sem interpor pedaços de vidro (ou plástico) entre os olhos e o mundo; consegue-se observar mais coisas se usarmos lupas, microscópios, telescópios e outros dispositivos. Fazendo notar que parece haver aqui uma continuidade, Maxwell perguntou onde devemos marcar a viragem ontológica decisiva: em que ponto não devemos considerar reais as entidades que pensamos que estamos observando?
Talvez o mais decisivo tenha sido uma linha de pensamento que se tornou conhecida como “o argumento último a favor do realismo”, e que surgiu em duas grandes versões. Numa delas, desenvolvida por Salmon, abordava-se com algum detalhe o processo histórico ao longo do qual os cientistas se convenceram da realidade dos átomos. Centrando-se na obra do físico francês Jean Perrin (1870-1942), Salmon fez notar que havia muitos métodos, aparentemente independentes, para determinar os valores de quantidades que diziam respeito a alegados inobserváveis, cada um dos quais dava a mesma resposta, e Perrin defendeu que isto seria uma coincidência extraordinária se os inobserváveis não existissem de facto. A segunda versão, elaborada por J. J. C. Smart, Putnam e Richard Boyd, foi ainda mais influente. Aqui, em vez de se centrar em maneiras independentes de determinar uma quantidade teórica, os realistas fizeram notar a existência de teorias que dão origem a sucessos sistemáticos num vasto domínio, como a computação, com uma exactidão extraordinária, da energia das reacções, ou a produção de organismos com características precisas e muitíssimo raras. A menos que estas teorias fossem pelo menos aproximadamente verdadeiras, defendiam os realistas, os sucessos a que dão origem seriam equivalentes a coincidências de proporções cósmicas — um autêntico milagre.
Na década de 90, contudo, a controvérsia acerca da realidade dos inobserváveis ganhou vida nova graças ao desenvolvimento de sofisticados argumentos anti-realistas. Van Fraassen defendeu uma posição a que chamou “empirismo construtivo”, uma perspectiva que visa captar as ideias sagazes do empirismo lógico, ao mesmo tempo que evita os seus defeitos. Sendo também um defensor da concepção semântica de teorias, propôs que os cientistas constroem modelos que são concebidos para “salvar os fenómenos”, ao resultar em previsões correctas acerca de observáveis. Adoptar o modelo é simplesmente supor que os acontecimentos observáveis e os estados de coisas são como se os modelos fossem verdadeiros, mas não é preciso comprometermo-nos com a existência das entidades e processos inobserváveis que neles figuram. Ao invés, devemos continuar agnósticos. Porque o objectivo da ciência é conseguir previsões correctas acerca de observáveis, não é preciso aceitar os riscos acrescidos do compromisso com a existência de inobserváveis.
Um argumento anti-realista diferente, apresentado por Laudan, ataca directamente o “argumento último” a favor do realismo. Laudan reflectiu sobre a história da ciência e considerou todas as teorias do passado que já foram consideradas imensamente bem-sucedidas. Ofereceu uma lista de teorias ultrapassadas, afirmando que todas foram bem-sucedidas, e fez notar que não só cada uma delas é agora considerada falsa, como incluem vocabulário teórico que agora se reconhece que não identifica seja o que for na natureza. Se tantos cientistas das gerações anteriores consideravam que as suas teorias eram bem-sucedidas e, nessa base, concluíam que eram verdadeiras, e se, à luz do nosso entendimento contemporâneo, estavam todos enganados, como se pode supor que a situação contemporânea é diferente, ou seja, que os cientistas contemporâneos têm razão quando apontam para sucessos aparentes e inferem a verdade aproximada das suas teorias? Laudan formulou uma “indução pessimista baseada na história da ciência”, generalizando a partir do facto de grande número de teorias bem-sucedidas do passado se terem revelado falsas, para concluir que as teorias bem-sucedidas contemporâneas são também incorrectas.
Uma terceira objecção anti-realista, formulada por Laudan e Arthur Fine, acusa as defesas populares do realismo de petição de princípio. Os realistas tentam convencer os oponentes sugerindo que só uma perspectiva realista dos inobserváveis explicará o sucesso da ciência. Ao fazê-lo, contudo, pressupõem que o facto de uma certa doutrina ter poder explicativo é uma razão para aceitá-la. Mas o objectivo de muitos argumentos anti-realistas é insistir que as alegações acerca do poder explicativo não têm a ver com as questões da verdade. Os anti-realistas não ficam persuadidos quando se sugere, por exemplo, que se deve aceitar uma hipótese acerca de átomos porque explica fenómenos químicos observáveis. Não ficarão também impressionados quando lhes dizem que se deve aceitar uma hipótese filosófica (a hipótese do realismo científico) porque explica o sucesso da ciência. Nos dois casos, querem saber por que razão as características das hipóteses para as quais os realistas chamam a atenção — a capacidade dessas hipóteses para gerar conclusões correctas acerca de questões observáveis — devem ser tidas como indicadores da verdade dessas hipóteses.
Os realistas tentaram responder a estes poderosos pontos. Uma réplica popular é que os anti-realistas não conseguem dar conta de importantes facetas da prática científica. Assim, sugere-se por vezes que o método rotineiro de combinar afirmações teóricas de diferentes teorias científicas (como, por exemplo, nas ciências da terra, quando os cientistas se apoiam em partes da física e da química) não faria sentido, a menos que houvesse um compromisso sério com a verdade aproximada dos princípios teóricos. Alternativamente, podemos considerar que a prática de escolher certos tipos de experiências científicas (que se considera que são particularmente reveladoras) reflecte uma crença na realidade das entidades subjacentes; assim, um médico de investigação poderá escolher uma classe particular de animais para injectar um antibiótico, porque a concentração de bactérias nesses animais é provável que seja especialmente elevada.
Ou o realista pode tentar defender que o tipo de inferências que o anti-realista irá reconhecer que não são problemáticas — por exemplo, a generalização que parte de amostras observadas e traça conclusões acerca de uma população mais vasta de coisas observáveis — só podem ser levadas a cabo à luz de um entendimento de entidades e mecanismos inobserváveis. Não se consegue dizer o que torna uma amostra apropriada para fazer uma generalização a menos que tenhamos perspectivas acerca das maneiras como essa amostra poderá ser tendenciosa, e isso irá tipicamente acarretar crenças acerca de causas relevantes inobserváveis. Os anti-realistas têm de mostrar que têm recursos para dar sentido a estas e outras características da prática científica, ou então têm de oferecer razões para pensar que as maneiras de proceder em questão devem ser revistas.
A indução pessimista de Laudan sobre a história da ciência atraiu um escrutínio considerável. Os realistas fizeram notar, correctamente, que a sua lista de teorias bem-sucedidas do passado inclui vários casos dúbios. Assim, seria difícil defender que a teoria medieval de que a doença era provocada por um desequilíbrio dos humores era particularmente bem-sucedida, aplicando-se juízos semelhantes ao catastrofismo geológico do século XVIII e à teoria flogística da combinação química.
Contudo, é impossível pôr de lado todos os exemplos de Laudan. Um dos pontos mais reveladores é que a abordagem da propagação das ondas de luz de Augustin-Jean Fresnel (1788–1827) foi imensamente bem-sucedida para explicar e prever factos sobre a difração e a interferência; um dos seus mais dramáticos sucessos, por exemplo, foi a previsão do ponto de Poisson, um ponto de luz no centro da sombra de um pequeno disco rotativo. (Ironicamente, o matemático francês que lhe deu nome, Siméon-Denis Poisson (1781–1840), pensava que Fresnel estava enganado e que a previsão do ponto era uma consequência absurda de uma teoria falsa.) Fresnel, contudo, baseou a sua teoria na hipótese de que as ondas de luz se propagam no éter omnipresente. Dado que a ciência contemporânea rejeita o éter, tem também de rejeitar a teoria de Fresnel, considerando-a falsa.
Este exemplo é especialmente instrutivo, porque aponta para um aprimoramento do realismo. A óptica contemporânea acolhe a abordagem matemática de Fresnel da propagação das ondas, mas nega a necessidade de qualquer meio no qual essa propagação tenha lugar. Assim, parte da sua teoria tem a honra de estar aproximadamente correcta, ao passo que se considera que a restante se extravia, devido à crença de Fresnel de que qualquer movimento ondulatório precisa de um meio no qual as ondas se propaguem. Perante a escolha de dizer que a teoria de Fresnel está correcta ou que está errada, os cientistas contemporâneos optaram pelo veredicto negativo. Contudo, seria mais apropriado não tratar a teoria como um todo, ajuizando antes que algumas partes são verdadeiras e outras falsas. Além disso, quando a obra de Fresnel é analisada desta maneira, vê-se que as partes correctas são responsáveis pelas previsões correctas. Os apelos ao éter não desempenham qualquer papel quando Fresnel dá conta dos dados experimentais acerca de faixas de interferência e padrões de difração. Assim, este exemplo apoia a ligação realista entre ser bem-sucedido e a verdade, revelando que as partes da teoria que são postas em acção ao gerar previsões bem-sucedidas continuam a ser consideradas correctas.
Na verdade, os realistas podem até ir mais longe: é defensável que há provas empíricas, de um tipo que os anti-realistas deveriam estar dispostos a aceitar, de uma conexão entre ser bem-sucedido e a verdade. As pessoas dão por vezes consigo em situações nas quais serão bem-sucedidas ou não numa dada tarefa em função das suas perspectivas acerca de entidades observáveis que são temporariamente incapazes de observar (pense-se, por exemplo, em jogos de cartas nos quais os jogadores têm de fazer juízos acerca das cartas dos outros jogadores). As provas que emergem dessas situações mostram que ser sistematicamente bem-sucedido depende de formar hipóteses aproximadamente correctas acerca de coisas escondidas. Não há boas bases para pensar que a regularidade se suspende quando as entidades em questão estão para lá do limite da observação humana. Na verdade, seria uma estranha forma de húbris metafísica supor que o mundo está estruturado de maneira tal que a conexão entre ser bem-sucedido e a verdade está cuidadosamente ajustada aos poderes perceptivos contingentes dos seres humanos.
O debate sobre a realidade das entidades inobserváveis que as teorias científicas postulam com frequência ainda não acabou, mas o realismo é de novo a posição dominante. A perspectiva realista contemporânea, contudo, foi aprimorada pelas críticas de van Fraassen, Laudan e Fine. A versão mais plausível é um “realismo parcelar”, uma perspectiva que defende a permissibilidade de interpretar literalmente o discurso sobre inobserváveis, mas insiste em dar atenção aos detalhes de casos particulares. Os realistas aprenderam também a desistir da ideia de que as teorias no seu todo devem ser avaliadas como verdadeiras ou falsas. Defendem assim a aceitação de entidades inobserváveis particulares e a verdade aproximada de teses particulares acerca dessas entidades.
A discussão anterior centrou-se apenas numa das controvérsias que rodeiam o realismo científico: o debate sobre se o discurso acerca de inobserváveis deve ter o mesmo estatuto que o discurso acerca de observáveis. Os debates contemporâneos, contudo, visam com frequência uma questão mais vasta: a possibilidade de ajuizar se há de todo alguma afirmação verdadeira. Alguns destes debates envolvem questões tão antigas quanto a filosofia — questões muito gerais sobre a natureza e possibilidade da verdade. Outros emergem de críticas à filosofia da ciência tradicional que, com frequência, se inspiram na obra de Kuhn, mas são mais radicais.
Muitas pessoas, incluindo muitos filósofos, acham natural conceber a verdade como correspondência com a realidade. A imagem que subscrevem considera que a linguagem humana (e o pensamento) selecciona coisas e propriedades num mundo independente da mente e supõe que o que as pessoas dizem (ou pensam) só é verdadeiro se as coisas que seleccionam tiverem as propriedades que lhes atribuem. Um enigma profundo e antigo é como as palavras (ou ideias) conseguem ligar-se a determinadas partes da natureza. É claramente impossível que os seres humanos ocupem alguma vez uma posição a partir da qual possam observar simultaneamente a sua linguagem (e pensamento) e o mundo independente da mente, estabelecendo (ou determinando) essa conexão. Essa impossibilidade levou muitos pensadores (incluindo Kuhn, numa rara mas influente discussão da verdade) a perguntar-se se a ideia de verdade como correspondência com uma realidade independente da mente faz sentido.
As questões aqui são complexas e entram em áreas técnicas da metafísica e da filosofia da linguagem. Alguns filósofos sustentam que se pode desenvolver e defender uma teoria da verdade como correspondência sem pressupor qualquer absurdo ponto de Arquimedes a partir do qual se institui ou detecta correspondências. Outros pensam que é um erro procurar uma teoria da verdade. Asserir que uma dada afirmação é verdadeira, defendem, não é senão outra maneira de asserir a própria afirmação. Fine elaborou melhor esta ideia no contexto da filosofia da ciência, propondo que não devemos aceitar o realismo nem o anti-realismo; ao invés, devemos deixar de falar acerca da verdade em conexão com as hipóteses científicas, e adoptar aquilo a que chama a “atitude ontológica natural”. Adoptar essa atitude é simplesmente aceitar as afirmações da ciência contemporânea sem nos entregarmos ao floreado filosófico desnecessário de declarar que são “verdadeiras”.
Estas propostas sofisticadas, e os intricados argumentos avançados a seu favor, contrastam com uma crítica mais acessível da ideia de “verdade científica” que também começa com a suspeita de Kuhn de que a ideia de verdade como correspondência com uma realidade independente da mente não faz sentido. Inspirando-se no reconhecimento de Kuhn do carácter social do conhecimento científico (um paradigma é, afinal, o que é partilhado por uma comunidade), vários estudiosos propuseram uma abordagem mais integralmente sociológica da ciência. Insistindo que as crenças aclamadas como “verdadeiras” ou “falsas” podem ser explicadas da mesma maneira, concluíram que a verdade tem de ser relativizada a comunidades: uma afirmação conta como verdadeira para uma comunidade apenas no caso de os membros dessa comunidade a aceitarem.
A proposta de uma sociologia séria do conhecimento científico deve ser bem-vinda. Como defenderam os sociólogos David Bloor e Barry Barnes no início dos anos 70, é insatisfatório supor que só as crenças que contam como incorrectas precisam de explicação social e psicológica. Pois seria tolo sugerir que as mentes humanas atraem a verdade e que só os casos em que as pessoas se extraviam têm de ser explicados em termos da operação de distorções sociais ou psicológicas que interferem com essa aptidão natural. Todas as crenças humanas têm causas psicológicas, e essas causas envolvem comummente factos acerca das sociedades em que as pessoas em questão vivem. Uma abordagem abrangente de como um cientista individual chegou à sua nova conclusão referiria não apenas as observações e inferências que fez, mas também as maneiras como se formou, o leque de opções disponíveis para se entregar à investigação, e os valores que guiaram várias escolhas — conduzindo tudo isto, relativamente depressa, a aspectos da prática social da comunidade circundante. Barnes e Bloor tinham razão ao advogar a simetria, considerando que todas as crenças estão sujeitas a explicação psicológica e sociológica.
Mas nada de momentoso se segue disto. Em harmonia com a ênfase na simetria, tal como entendida até agora, poder-se-ia continuar a fazer a distinção quotidiana entre aquelas formas de observação, inferência e coordenação social que tendem a gerar crenças correctas e aquelas que levam tipicamente ao erro. O observador lúcido e o bêbado cambaleante poderão ambos ter passado a acreditar que há um elefante na sala, e poder-se-á oferecer explicações psicológicas sobre o processo de formação de crenças em cada caso. Isto não significa, é claro, que estamos obrigados a tratar os dois processos de formação de crenças como se estivessem ao mesmo nível, vendo-os como igualmente fidedignos na detecção de certos aspectos da realidade. De modo que podemos entregar-nos à actividade de procurar as causas psicológicas e sociais da crença científica sem abandonar a distinção entre as que estão bem fundadas e as que não o estão.
As críticas sociológicas da “verdade científica” tentam por vezes chegar às suas conclusões radicais oferecendo um análogo rudimentar do argumento histórico de Laudan contra o realismo científico. Fazem notar que diferentes sociedades contemporâneas têm perspectivas que divergem das doutrinas científicas ocidentais; os povos indígenas da polinésia poderão ter ideias acerca da hereditariedade, por exemplo, que não estejam em harmonia com as que estão inscritas na genética. Insistir que os ocidentais têm razão e que os polinésios estão enganados, sugere-se, é não dar atenção ao facto da “racionalidade natural”, é supor que há uma diferença de constituição psicológica que favorece os ocidentais.
Mas este raciocínio é falacioso. Por vezes, pode-se explicar as diferenças nas crenças das pessoas mencionando diferenças nas suas faculdades sensoriais ou no seu acúmen intelectual. Esses casos, contudo, são relativamente raros. A explicação típica da razão de ocorrer discordância identifica diferenças nas experiências ou nos interesses. Esta é certamente a maneira correcta de abordar a divergência entre ocidentais e polinésios em questões de hereditariedade. Sustentar que é mais provável que as perspectivas ocidentais sobre este tópico particular estejam correctas do que as polinésias não é supor que os ocidentais são individualmente mais inteligentes (na verdade, é fortemente defensável que, em média, as pessoas que vivem em condições menos mimadas são mais inteligentes), mas antes fazer notar que a ciência ocidental se interessou colectiva e persistentemente sobre questões de hereditariedade e que organizou recursos consideráveis para adquirir experiências que os polinésios não partilham. Assim, quando se invoca o “argumento último a favor do realismo” e se usa o sucesso da genética molecular contemporânea para inferir a verdade aproximada das ideias subjacentes acerca da hereditariedade, não se nega arrogantemente a racionalidade natural dos polinésios. Pelo contrário, os ocidentais devem estar dispostos a ser deferentes perante os polinésios em tópicos que estes investigaram, mas não os ocidentais.
Outra tentativa ainda de defender que a única noção operacional de verdade se reduz ao consenso social começa pela tese quiniana forte da subdeterminação das teorias pela experiência. Alguns historiadores e sociólogos da ciência defenderam que as escolhas de doutrina e de método estão sempre em aberto no decurso da prática científica. Faz-se essas escolhas sem apelar para as provas, mas antes com base em valores sociais anteriormente adoptados ou, em alguns casos, “construindo” simultaneamente tanto a ordem natural como a social. As melhores versões destes argumentos tentam especificar com algum detalhe quais são as alternativas relevantes; nesses casos, como nos argumentos de Kuhn acerca da insolubilidade das revoluções científicas, as respostas filosóficas têm de dar atenção aos detalhes.
Infelizmente, essas especificações detalhadas são relativamente raras, e a estratégia habitual é a crítica sociológica avançar invocando a tese geral da subdeterminação e declarar que há sempre maneiras rivais de prosseguir. Como já se fez notar, contudo, uma afirmação genérica acerca da subdeterminação inevitável é muitíssimo suspeita, e sem isso a confiança sociológica na “verdade por consenso” não oferece garantias.
As questões acerca do realismo científico e do correcto entendimento da verdade continuam por resolver. É importante, contudo, ter consciência de quais são as opções filosóficas genuínas. Apesar da sua popularidade na história e sociologia da ciência, a rudimentar redução sociológica da verdade não é uma dessas opções. Contudo, como a história, o estudo sociológico da ciência pode oferecer ideias perspicazes valiosas para ponderação dos filósofos.
A filosofia tradicional da ciência é implacavelmente individualista. Centra-se em agentes individuais e nas condições que devem satisfazer para que as suas crenças tenham apoio apropriado. À primeira vista, isto é uma limitação curiosa, pois é evidente que a ciência contemporânea (e a maior parte da ciência do passado) é uma actividade social. Os cientistas apoiam-se uns nos outros para obter resultados, amostras, técnicas e muitas outras coisas. As suas interacções são com frequência cooperativas, e por vezes competitivas. Além disso, nas sociedades em que se leva a cabo a maior parte da investigação científica, o trabalho coordenado da ciência situa-se numa rede de relações sociais que ligam laboratórios a agências governamentais, a instituições educativas e a grupos de cidadãos. Poderá a filosofia da ciência ignorar simplesmente este contexto social?
Muitos filósofos pensam que sim. Vale a pena recordar, contudo, que uma das principais influências no desenvolvimento da ciência moderna, Francis Bacon, estava explicitamente preocupado com a ciência como actividade social e que os fundadores da Royal Society tentaram criar uma instituição que seguisse as directrizes de Bacon. Além disso, como a discussão anterior da revolução coperniciana parece mostrar, a noção de racionalidade social (ou colectiva) é filosoficamente importante. Em 1543, a escolha entre copernicianismo e a astronomia tradicional centrada na Terra não era clara; a discussão evoluiu porque alguns cientistas estavam dispostos a entregar-se à exploração de cada uma das perspectivas. Isso foi bom — mas o que tinha de bom era uma característica da comunidade, e não dos indivíduos. Caso uma das posições rivais tivesse estagnado e todos os membros da comunidade se tivessem dedicado a um único ponto de vista, teria sido difícil acusar qualquer indivíduo singular de um erro de racionalidade. Não teria sido, contudo, uma comunidade racional.
Este é um exemplo elementar de uma característica social da ciência que exige uma abordagem mais alargada da racionalidade do que é comum nas discussões filosóficas. Uma maneira de entender por que razão alguns métodos ou princípios merecem ser designados “racionais” é sugerir que o padrão último para avaliá-los é em termos da sua capacidade para dar lugar a crenças verdadeiras. Do mesmo modo, poder-se-ia supor que as instituições ou métodos de organização da investigação contam como racionais se for provável que aumentem as hipóteses de um estado futuro em que os membros da comunidade acreditam na verdade. (Esconde-se aqui complicações, que irão surgir daqui a pouco, mas podemos ignorá-las para já.) Não é difícil pensar em maneiras de promover a diversidade numa comunidade científica. Talvez o sistema educativo possa encorajar algumas pessoas a assumir grandes riscos e outras a seguir estratégias relativamente seguras. Talvez o sistema de recompensas por conquistas científicas possa ser configurado de maneira a que os indivíduos gravitem na direcção de linhas de investigação que pareçam negligenciadas. As técnicas comuns de modelagem matemática revelam que estruturas institucionais como estas produzem resultados colectivamente racionais em situações que parecem ocorrer repetidamente na história das ciências. Descobre-se assim que factores que se poderia pensar serem antitéticos à procura racional da verdade — distorções individuais ou interesse em recompensas sociais — desempenham efectivamente um papel positivo na actividade colectiva.
Exige-se investigação sociológica detalhada para descobrir as maneiras como os cientistas interagem entre si e com partes da sociedade em geral; precisa-se de investigações psicológicas detalhadas para compreender as maneiras como fazem escolhas. Uma explicação filosófica satisfatória das ciências deve estar tão interessada em saber se a matriz sociopsicológica conduz à obtenção da verdade pela comunidade como está em saber se linhas ou estilos particulares de raciocínio levam os indivíduos a ter crenças correctas. Hoje em dia, contudo, a sociologia e a psicologia da ciência estão na sua infância, e a filosofia pouco tem em termos de dados nos quais possa apoiar-se. Já é possível, contudo, entrever uma futura abordagem filosófica que evite as limitações da perspectiva individualista hoje comum.
Essa explicação poderia descobrir que as estruturas sociais herdadas do início do período moderno são bastante satisfatórias como meio de procurar atingir os objectivos das ciências (ainda que isso fosse surpreendente). Alguns filósofos contemporâneos pensam que já são visíveis boas razões para pensar que isto não será assim. Destacando a exclusão, ou marginalização, de alguns grupos de pessoas, sugerem que a actual prática colectiva da ciência é tendenciosa a favor da realização de um conjunto parcial de valores. A articulação mais vigorosa desta perspectiva é oferecida na recente filosofia feminista da ciência.
Há várias maneiras de explorar temas feministas em conexão com as ciências. Um projecto importante, com frequência desvalorizado por ser demasiado limitado, é documentar as maneiras como as mulheres têm sido excluídas da participação em projectos de investigação. Mais ambicioso filosoficamente é a tentativa de mostrar como a exclusão das mulheres levou a um tendenciosismo nas conclusões que os cientistas aceitam. Eis um exemplo clássico e premente: nos anos 50 e 60, os primatólogos chegaram a hipóteses sobre a territorialidade e agressão nos bandos de primatas que estudaram; à medida que mais mulheres entraram nessa área de estudos, nos anos 70, reparou-se em aspectos da vida social dos primatas que tinham ficado invisíveis, e foi preciso rever radicalmente as hipóteses anteriores. A moral da história específica deste caso é que combinar as observações de homens e mulheres pode alargar o domínio de indícios disponíveis à comunidade científica; o ponto mais geral é que uma diversidade de proveniências sociais e de papéis sociais pode por vezes fornecer o corpo de dados mais inclusivo.
As feministas quiseram por vezes defender uma tese mais ousada. Invocando a tese geral da subdeterminação das teorias pelos indícios, afirmaram que as escolhas entre teorias rivais igualmente boas se fazem introduzindo considerações valorativas que reflectem o tendenciosismo masculino da comunidade científica. Contudo, este estilo de argumentação não funciona melhor neste contexto do que no caso da invocação sociológica genérica da subdeterminação considerada na secção anterior. Nos casos em que as feministas conseguem defender em detalhe a existência de rivais equivalentes, é importante examinar o processo de decisão, para ver se uma escolha arbitrária tem um fundamento problemático. Não há uma razão geral para pensar que as considerações indiciárias ficam sempre a desejar, criando um vácuo que só pode ser preenchido pela irrupção de valores masculinos.
O argumento feminista aponta, porém, para uma questão mais profunda. Quando se compreende que a ciência é uma actividade social, poder-se-á supor que as instituições que guiam o desenvolvimento das ciências absorvem algumas características gerais da sociedade de fundo, incluindo a posição privilegiada dos homens, e que isto afecta os objectivos estabelecidos para a ciência e a valorização dada a certos tipos de feitos científicos. Esta forma de crítica feminista é extremamente importante por pôr a descoberto questões que eram evitadas nas discussões anteriores e que têm sido negligenciadas na filosofia tradicional da ciência. A melhor maneira de abordá-las é regressar à questão inacabada da natureza do progresso científico.
Suponha-se que o realismo científico consegue desembaraçar-se dos desafios à ideia de que as ciências chegam à verdade (ou a acumulam, ou para ela convergem). Será que isto quer dizer que há agora uma compreensão satisfatória do progresso científico como algo que aumenta a apreensão da verdade? Não necessariamente. Pois há demasiadas verdades acerca da natureza, e não vale a pena conhecer a maior parte delas. Mesmo que nos centremos numa pequena região do Universo — uma sala particular, digamos, durante uma hora — há um número infinito de linguagens para descrever essa sala, e para cada linguagem há um número infinito de afirmações verdadeiras acerca da sala durante aquela hora. Acumular apenas verdades sobre o mundo é excessivamente fácil. Não se conseguiria progresso científico enviando exércitos de investigadores para contar folhas ou grãos de areia. Se as ciências progridem, é porque oferecem um número cada vez maior de verdades significativas acerca do mundo.
A questão do progresso científico está inacabada, porque a noção do que é significativo não foi suficientemente analisada. Muitos filósofos escreveram como se o objectivo das ciências fosse fornecer a verdade completa sobre o mundo (um objectivo seguramente inatingível, e que não é obviamente coerente) ou então como se houvesse uma certa noção objectiva do que é significativo, dada por natureza. O que poderia ser tal coisa? Talvez que as verdades desejadas são as leis da natureza ou os princípios fundamentais que regem os fenómenos naturais. Mas este tipo de propostas são vulneráveis a preocupações acerca do papel das leis e acerca da possibilidade de uma ciência unificada, que já discutimos. Além disso, em muitas ciências pujantes não se trata aparentemente de enunciar leis; parece haver obstáculos de monta a uma “teoria de tudo” que integre e subsuma todas as ciências que têm sido cultivadas (para não falar das que poderão vir a sê-lo). Um exame sóbrio da diversidade da investigação científica levada a cabo hoje sugere que as ciências procuram respostas verdadeiras a questões que são consideradas significativas, seja porque despertam a curiosidade das pessoas, seja porque são instrumentais para objectivos práticos que as pessoas querem atingir. A ordem do dia da investigação é estabelecida não pela natureza, mas pela sociedade.
Neste ponto, a crítica feminista fica em terreno firme, pois a imagem acabada de esboçar identifica a centralidade dos juízos de valor na direcção da investigação científica — procuramos as verdades que nos importam. Mas quem é o “nós” cujos valores entram na identificação dos objectivos das ciências? Até que ponto os juízos de valor que efectivamente se faz deixam de fora fatias importantes da população humana? Estas são perguntas sérias, e um dos principais contributos da filosofia feminista da ciência é chamar a atenção filosófica para elas.
O ponto principal, contudo, é geral. Uma explicação dos objectivos da ciência não pode apoiar-se na asserção simples de que as ciências procuram a verdade. Os filósofos devem oferecer uma análise dos tipos de verdades que são importantes e, a menos que possam ressuscitar a ideia de uma “ordem de trabalhos objectiva estabelecida pela natureza”, terão de concluir que os juízos acerca dos interesses e valores humanos fazem parte de uma explicação filosófica da ciência. Isto quer dizer que a filosofia da ciência já não pode limitar-se a tratar questões relacionadas com a lógica, a epistemologia e a metafísica (questões acerca da reconstrução de teorias científicas, da natureza da necessidade natural e das condições sob as quais se confirma hipóteses). A filosofia moral e política irá entrar também na filosofia da ciência.
Os filósofos que reflectiram na ética da ciência consideraram com frequência que as questões são relativamente óbvias. A aplicação de praticamente qualquer das grandes teorias morais irá apoiar restrições no tipo de coisas que podem ser feitas a pessoas nas experiências científicas; as máximas quotidianas acerca da honestidade irão gerar as conclusões acerca da fraude e da deturpação que são rotineiramente formuladas quando surgem casos de improbidade científica. Estas questões acerca dos comportamentos que é de esperar dos cientistas no seu trabalho diário são superficiais; as questões morais e políticas mais profundas dizem respeito à maneira como se estabelece os objectivos da investigação (e, paralelamente, como se entende o progresso). Poder-se-ia dizer, vagamente, que as ciências devem procurar aquelas verdades cuja descoberta promova melhor o bem colectivo; mas isto, é claro, deixa-nos com a tarefa filosófica árdua de compreender “o bem colectivo”. Como se deve pesar os interesses divergentes de diferentes grupos de pessoas? Como se deve atingir o equilíbrio entre a satisfação da curiosidade humana e a resolução de problemas práticos? Como devemos ajuizar ganhos futuros em relação a exigências de curto prazo? A filosofia da ciência tem até agora dito pouquíssimo em resposta a estas perguntas.
Muitos dos tópicos filosóficos tão claramente formulados pelos positivistas lógicos, e pelos empiristas lógicos, estão ainda, correctamente, no centro das preocupações do século XXI. Um maior entendimento da história das ciências e do carácter social da actividade científica estabeleceu tarefas mais alargadas para a filosofia da ciência. Num mundo em que o poder da investigação científica, para o bem e para o mal, se torna cada vez mais óbvio, é de esperar que as questões acerca dos valores adoptados ao fazer ciência se tornem mais centrais na discussão filosófica.
Encontra-se muitos artigos clássicos da tradição do empirismo lógico em Carl G. Hempel, Aspects of Scientific Explanation, and Other Essays in the Philosophy of Science (1965); os manuais canónicos nesta tradição são os seguintes: Carl G. Hempel, Philosophy of Natural Science (1966) e, num nível mais avançado, Ernest Nagel, The Structure of Science: Problems in the Logic of Scientific Explanation, 2.ª ed. (1979). Uma monografia extremamente influente que é agora lida em muitas disciplinas e contextos diferentes é Thomas S. Kuhn, The Structure of Scientific Revolutions, 3.ª ed. (1996).
A abordagem empirista recente mais exaustiva das questões da confirmação é John Earman, Bayes or Bust?: A Critical Examination of Bayesian Confirmation Theory (1992). A explicação científica é abordada em Wesley C. Salmon, Scientific Explanation and the Causal Structure of the World (1984), e Causality and Explanation (1998). Uma valiosa antologia de ensaios sobre este tópico é Joseph Pitt (ed.), Scientific Explanation (1986). Bas van Fraassen, The Scientific Image (1980), e Laws and Symmetry (1989), discute questões sobre teorias e leis científicas. Estas questões são também discutidas de uma perspectiva diferente em Ronald Giere, Explaining Science (1988).
As questões levantadas por Thomas Kuhn são retomadas em Larry Laudan, Progress and Its Problems: Toward a Theory of Scientific Growth (1977), e Philip Kitcher, The Advancement of Science: Science Without Legend, Objectivity Without Illusions (1993). O último livro responde também à perspectiva histórico-social mais radical oferecida em David Bloor, Knowledge and Social Imagery, 2.ª ed. (1991), e Steven Shapin e Simon Schaffer, Leviathan and the Air-Pump: Hobbes, Boyle, and the Experimental Life (1985). David Papineau (ed.), Philosophy of Science (1996), é uma colectânea dos principais artigos sobre o realismo científico.
Nancy Cartwright, The Dappled World: A Study of the Boundaries of Science (1999), e John Dupré, The Disorder of Things: Metaphysical Foundations of the Disunity of Science (1993), põem em questão as ideias empiristas acerca da unidade da ciência.
Os aspectos sociais da investigação científica são discutidos em Helen E. Longino, Science as Social Knowledge: Values and Objectivity in Scientific Inquiry (1990), e The Fate of Knowledge (2002). Uma perspectiva diferente sobre este tópico, muito negligenciado na filosofia tradicional da ciência, é oferecida em Philip Kitcher, Science, Truth, and Democracy (2001).