28 fevereiro 2009

tristeza ou depressão?


A palavra “tristeza” está em baixa no vocabulário contemporâneo. Afinal, em nossos dias, todos temos de ser felizes (e bonitos, e jovens) o tempo todo. Quando isto não é possível, as pessoas estão preferindo se dizer “depressivas”, pois aí existe o álibi de estarem doentes, e não sentirão a vergonha de terem se deixado abater por algo. Além disto, desde sempre as palavras tristeza e depressão têm sido usadas como sinônimos. Dizer que alguém está deprimido pode se referir a sentimentos de decepção, desesperança, desânimo e, é claro, de tristeza. No entanto, na psiquiatria há uma distinção importante entre elas, embora nem sempre muito facilmente compreensível para os leigos.



No campo médico, a tristeza é apenas um dos sintomas de um conjunto de manifestações que compõem a doença depressiva. Assim, não basta, do ponto de vista psiquiátrico, estar triste para que seja feito um diagnóstico de “depressão”. O sentimento de infelicidade deve ter uma duração determinada, e vir acompanhado de pelo menos certo número de outros sintomas, dentre os quais a falta de prazer e de disposição; pensamentos de doença, morte ou desvalorização; alterações de sono e apetite; e dificuldades de concentração e memória. Além disso, nem sempre o sintoma principal da doença depressiva é a tristeza. Às vezes ela dá lugar à irritabilidade e ao mau humor. Outras vezes, a tristeza fica menos evidente sob uma camada de ansiedade intensa.

Além disso, na sociedade contemporânea vem ocorrendo uma banalização e espetacularização da morte, o que contribui também para o isolamento emocional diante das perdas significativas. A morte é tão ostensiva e frequentemente mostrada em filmes e em noticiários, que paradoxalmente se torna um fenômeno emocionalmente distante de nós. Há ainda um mito social de que a pessoa deve reagir logo a uma perda (o que inclui o falecimento de alguém próximo), tocar a vida adiante, não se deixar abater. Tudo o que impede que o necessário luto seja vivenciado no seu devido tempo e com a necessária tristeza, sem o que a superação saudável se torna muito mais difícil.

Assim como se pode afirmar que a ansiedade e o medo são as reações naturais e esperadas frente ao desconhecido, a tristeza é a resposta normal frente às perdas de toda natureza: materiais, pessoais ou simbólicas. Entretanto, tem havido uma excessiva medicalização da tristeza e de outras características normais do comportamento humano. Esquece-se que a tristeza é fundamental para a elaboração de nossas experiências e para o aprendizado emocional. Se não nos entristecemos diante das perdas, ou dos sofrimentos próprios e alheios, não somos capazes de “elaborar” (resolver emocionalmente) essas experiências. A isto chamamos de “luto”, o período que se segue a qualquer perda importante.

Em psicoterapia, por exemplo, é necessário que o paciente tenha a oportunidade de se entristecer com as frustrações, com os insucessos, ou quando entra em contato com suas próprias limitações e responsabilidades nesses eventos. Ou seja, quando perde algumas idealizações sobre si mesmo. É por isso que uma terapia que somente forneça apoio ou consolo não ajuda ninguém a crescer, embora em algum momento estes recursos sejam fundamentais.

Muitas vezes o sentimento normal e saudável de tristeza é indevidamente tratado como depressão também pelos médicos e pelos serviços de saúde. Contribui para isso a má qualidade dos serviços públicos de saúde em nosso país, levando a atendimentos excessivamente rápidos e à busca de soluções simplificadoras. Se até recentemente o médico, diante de qualquer queixa emocional, entregava ao paciente uma receita de tranqüilizante (os famosos “faixas pretas”), agora a receita é de fluoxetina, o antidepressivo mais difundido, e disponível no sus. É evidente também a falta de uma formação adequada dos médicos para lidar com problemas emocionais dos pacientes, tanto no contexto privado quanto público. Tem havido um gradual progresso neste sentido; uma crescente tomada de consciência dos aspectos emocionais e psiquiátricos dos pacientes pelos futuros médicos, e não apenas pelos que pretendem seguir a carreira de psiquiatras. No entanto, este é um processo lento.

Sempre é bom lembrar que ficar triste nem sempre é estar com uma doença depressiva, e muito menos algo indesejável.



ILUSTRAÇÃO: foto de Marcus Claesson


26 fevereiro 2009

processo de hominização


Descoberta a primeira pegada humana (veja.com 26/2/2009)



Pesquisadores encontraram no Quênia (África) as mais antigas pegadas humanas já descobertas. As marcas têm 1,5 milhão de anos e mostram que os primeiros hominídeos já andavam com a postura ereta e tinham pés anatomicamente semelhantes aos do homem de hoje.

A descoberta, revelada na edição desta semana da revista Science, permite aos cientistas obter informações sobre os tecidos moles e outras estruturas do corpo que normalmente não são preservados no processo de fossilização. A interpretação das pegadas ficou a cargo da equipe internacional do cientista John W.K. Harris, da Universidade Rutgers, nos Estados Unidos.

As pegadas foram atribuídas ao Homo erectus. Esse hominídeo tinha a altura do homem moderno e um cérebro com metade do tamanho dos homens de hoje. Ainda assim, era bastante inteligente e foi o primeiro a dominar o fogo, o que permitiu à espécie manter uma estrutura social complexa e viver agrupados em comunidades.

As marcas foram descobertas em duas camadas sedimentares perto de Ileret, no norte do Quênia. Elas já são consideradas a evidência mais antiga de uma anatomia de pé essencialmente humana, pois pegadas mais antigas, de 3,7 milhões de anos, já foram descobertas, mas têm a anatomia mais semelhante à do macaco.

Nas pegadas do Quênia, os cientistas identificaram que o dedão é paralelo aos demais dedos, o que não acontece nos macacos. As marcas mostram ainda um arco alongado no pé e dedos curtos, marcas comuns associadas à postura bípede ereta.


25 fevereiro 2009

indekx


Os principais jornais e revistas do mundo num só site: AQUI.



22 fevereiro 2009

fritz müller e darwin


Este post foi publicado pelo Tambosi, a propósito de matéria publicada na National Geographic brasileira, e tomo a liberdade de transcrevê-lo.


A edição brasileira da revista National Geographic traz neste mês uma série de matérias sobre os 200 anos de Darwin. Numa delas, lembra - com justiça - um grande colaborador do cientista britânico: Fritz Müller, o naturalista alemão que viveu em Blumenau (SC) e testou pela primeira vez no Brasil a teoria da evolução. (Já me referi a ele aqui, no ano passado).

Ele costumava vestir seus trajes de perambular pelo mato: um facão e uma lata pendurados na cintura, além de um longo cajado. Daí caminhava sem sapato, como gostava, até a praia para capturar caranguejos. Não fazia isso por lazer. Muito menos os animais que encontrava na areia eram levados a sua mulher, Karoline, para preparar o almoço.

Seus propósitos eram outros. O naturalista Fritz Müller era um sujeito com ideias arrojadas, sobretudo para o fim do século 19 no arcaico sul do Brasil, povoado por pioneiros europeus, conforme contextualiza Moacir Werneck de Castro na biografia de Müller, O Sábio e a Floresta. Naquele verão, ele tinha decidido realizar um experimento que colocaria à prova teorias do inglês Charles Robert Darwin, lançadas em livro na Inglaterra menos de dois anos antes. Em A Origem das Espécies, Darwin chegou a assumir que haveria "repugnância natural" para os leitores aceitarem uma das suas teses: a de que uma espécie daria origem a outra distinta. O inglês solicitava no livro o envolvimento de outros naturalistas para que eles estudassem, imparcialmente, os dois lados dessa questão. Müller não pensou duas vezes: encarou como uma oportunidade e resolveu colaborar com Darwin. (Continua).


21 fevereiro 2009

versus Gray - 2


Continuação
deste post, sobre o livro Cachorros de palha, de John Gray


Um dos problemas de Gray é a apropriação muito particular que faz dos conceitos, adaptando-os a seu próprio interesse. Por exemplo, para ele as formigas detêm tecnologia, uma vez que são capazes de cultivar colônias de fungos para servirem de alimento. Parece estranho usar a palavra “tecnologia” dissociada da idéia de “ferramenta”. Esta última implica na utilização de algo como algo diferente. Pode ser um osso que serve para agredir ou matar. Pode ser uma vareta que serve para tirar cupins de dentro de sua colônia e se alimentar.

Podemos aceitar sem problemas que outros animais, especialmente primatas, sejam capazes de fazer uso de ferramentas. O animal começa a se tornar animal humano, entre outras coisas, quando pode usar uma ferramenta para fazer outra: uma linha com a qual constrói um machado unindo uma pedra lascada ao cabo, ou com a qual tece uma rede... Formigas, e outros insetos sociais, podem apresentar comportamentos complexos e mesmo divisão de tarefas, mas não produzem ferramentas ou criam novas tecnologias. Até onde se saiba, há milênios seguem reproduzindo esses mesmos comportamentos instintivamente.

Além da construção de novas ferramentas é preciso lembrar outros traços únicos no ser humano, como a menor especialização dos comportamentos -- e consequente maior capacidade de adaptação a ambientes adversos -- a partir da utilização mais complexa das mãos (o polegar opositor) e da bipestação, assim como a capacidade superior de utilização de linguagem oral, para além da emissão de sinais sonoros.

E lá vamos nós de volta à velha e desgastada dicotomia, neste caso, ainda mais problemática: enquanto o humanismo (no sentido que Gray atribui ao termo) sugere a existência de um abismo intransponível entre nós e os outros animais, “o normal é o sentimento animista de ser parte da natureza, assim como tudo o mais. Por mais débil que se revele hoje, o sentimento de partilhar um destino comum com outras coisas vivas está entranhado na psique humana” (grifo meu). Ou demasiado humanos, ou demasiado animais. Isto que é fundamentalismo!

No item “Contra o fundamentalismo – religioso e científico”, Gray acena inicialmente com alguma possibilidade de concordância entre nós. Ele reconhece que “uma vez passadas, formas de vida tradicionais não podem ser recuperadas”, para desespero, talvez, das tribos alternativas. É verdade também que a ciência proporciona um senso de progresso do qual a vida política e a ética nos privam. Mas nosso acordo termina aí. Em “A irracionalidade da ciência”, Gray avalia a ciência tendo como parâmetro o método científico tradicional, cartesiano e positivista.

Relutantemente, tentei ver na crítica a estes fundamentalismos um ponto de convergência com o autor. Entretanto, sua argumentação segue por caminhos tortuosos até chegar à afirmação de que “a ciência é o lugar onde nos refugiamos da incerteza, pois ela nos promete [...] o milagre de nos livrar de pensar, enquanto as igrejas passaram a ser lugares de proteção e refúgio para as dúvidas”. No wonder I can’t understand him! Ele afirma que a ciência é para os que não querem pensar e que as igrejas são o refúgio das dúvidas. Sempre acreditei que a ciência estivesse alicerçada na capacidade de fazer perguntas, de duviar, portanto, e que a religião na capacidade da fé, em poder crer de olhos fechados. Gray coloca isso tudo de pernas para o alto. Vivemos, o autor e eu, em mundos tão diferentes? (Veja o que Nietzsche afirma sobre os crentes.)



Em favor de seu argumento, Gray sustenta que os primeiros cientistas não estavam livres de superstição, citando o misticismo de Newton e de Kepler, baseado exatamente no fundamentalista anti-científico Feyerabend. Avaliar a ciência atual a partir daquela de seus fundadores é forçar a barra. Seu argumento é de que a ciência é irracional também porque na história da ciência muitos cientistas ignoraram as regras do método científico (novamente, o método científico como o parâmetro de ciência racional Nada mais fundamentalista!).

Enfim, razão versus não razão é outra dicotomia cartesiana à qual Gray se apega para defender seus pontos de vista. Recentemente, Antonio Damásio, em seu ótimo O erro de Descartes, argumentou com brilhantismo que a razão jamais está dissociada da emoção. Antes disso, Edgar Morin já propôs um paradigma para a ciência contemporânea que reconheça a criatividade e a intuição, necessárias a qualquer formulação de hipótese. Segundo ele, a ciência deve ser concebida como um conjunto de empreendimentos complementares (ainda que eventualmente estejam em conflito), no qual estão conjugados o empirismo, o racionalismo, a verificação e imaginação. A ciência precisa ser pensada como uma ciência que se autoproduz, que está condicionada historicamente, e cuja autonomia depende do processo de regeneração permanente e de revisão crítica dos dogmatismos e da hiperespecialização.

O debate que necessita ser travado não é entre ciência e não-ciência, mas entre a ciência tradicional e a ciência contemporânea. Que Gray leia um pouco de Morin. Enquanto isso eu leio, sofregamente, Gray...


F
OtO-

Peça de artilharia pesada dos anos 40, nas ruínas do forte da Ilha do Mel, PR. Janeiro de 2009.

20 fevereiro 2009

aganactesis


Aganactesis
(ag’-an-ak-tee’-sis): An exclamation proceeding from deep...



But he couldn't! Couldn't believe like a child in some stupid god! Couldn't listen to their ass-kissing hymns! Couldn't sit in their hallowed church! And the prayers, those shut-eyed prayers -- putrified primitive superstition! Our Folly, which art in Heaven! The disgrace of religion, the immaturity and ignorance and shame of it all! Lunatic piety about nothing! (p.230)

...and the last sentence of the book:

[...] have postponed learning what his uneducated father had been trying so hard to teach him all along: of the terrible, the incomprehensible way one's most banal, incidental, even comical choices achive the most disproportionate result. (p.231)


Philip Roth, Indignation, 2008.

18 fevereiro 2009

formidable



Laura Fygi ( nascida em 27 Agosto de 1955 em Amsterdã), é filha de pai alemão e mãe egípcia. Passou os primeiros oito anos de sua vida na América do Sul.
Aqui, ela numa deliciosa interpretação da canção de Charles Aznavour, For Me Formidable.

Para os saudosistas e fãs da cancão, aqui a interpretação original do seu autor.

17 fevereiro 2009

my genome, my self


Artigo do psicólogo de Harvard STEVEN PINKER, publicado em janeiro na NYT Magazine, trata do impacto do descobrimento do genoma humano sobre a identidade pessoal, e sobre as vantagens, os limites e os riscos das informações genéticas das predisposições tanto para os traços de personalidade quanto para as doenças hereditárias.







[...] With the genome no less than with the Internet, information wants to be free, and I doubt that paternalistic measures can stifle the industry for long (but then, I have a libertarian temperament). For better or for worse, people will want to know about their genomes. The human mind is prone to essentialism — the intuition that living things house some hidden substance that gives them their form and determines their powers. Over the past century, this essence has become increasingly concrete. Growing out of the early, vague idea that traits are “in the blood,” the essence became identified with the abstractions discovered by Gregor Mendel called genes, and then with the iconic double helix of DNA. But DNA has long been an invisible molecule accessible only to a white-coated priesthood. Today, for the price of a flat-screen TV, people can read their essence as a printout detailing their very own A’s, C’s, T’s and G’s.

A firsthand familiarity with the code of life is bound to confront us with the emotional, moral and political baggage associated with the idea of our essential nature. People have long been familiar with tests for heritable diseases, and the use of genetics to trace ancestry — the new “Roots” — is becoming familiar as well. But we are only beginning to recognize that our genome also contains information about our temperaments and abilities. Affordable genotyping may offer new kinds of answers to the question “Who am I?” — to ruminations about our ancestry, our vulnerabilities, our character and our choices in life. [...]

[...] None of us know what made us what we are, and when we have to say something, we make up a good story. An obvious candidate for the real answer is that we are shaped by our genes in ways that none of us can directly know. Of course genes can’t pull the levers of our behavior directly. But they affect the wiring and workings of the brain, and the brain is the seat of our drives, temperaments and patterns of thought. Each of us is dealt a unique hand of tastes and aptitudes, like curiosity, ambition, empathy, a thirst for novelty or for security, a comfort level with the social or the mechanical or the abstract. Some opportunities we come across click with our constitutions and set us along a path in life.

This hardly seems radical — any parent of more than one child will tell you that babies come into the world with distinct personalities. But what can anyone say about how the baby got to be that way? Until recently, the only portents on offer were traits that ran in the family, and even they conflated genetic tendencies with family traditions. Now, at least in theory, personal genomics can offer a more precise explanation. We might be able to identify the actual genes that incline a person to being nasty or nice, an egghead or a doer, a sad sack or a blithe spirit.

Há, sim, um viés no artigo de Pinker, no sentido de menosprezar as influências do contexto social, como se, pelo fato de pessoas crescerem no mesmo ambiente familiar e cultural, devessem igualmente compartilhar o mesmo perfil psicológico e comportamental, salvo pelas diferenças genéticas. Falta a ele considerar variações mais sutis, mesmo quando tomadas as diferenças entre irmãos gêmeos, no que diz respeito a aspectos inconscientes vinculados à história pessoal e aos papéis familiares reservados a cada um. Note-se no segmento a seguir:

The discoveries of behavioral genetics call for another adjustment to our traditional conception of a nature-nurture cocktail. A common finding is that the effects of being brought up in a given family are sometimes detectable in childhood, but that they tend to peter out by the time the child has grown up. That is, the reach of the genes appears to get stronger as we age, not weaker. Perhaps our genes affect our environments, which in turn affect ourselves. Young children are at the mercy of parents and have to adapt to a world that is not of their choosing. As they get older, however, they can gravitate to the microenvironments that best suit their natures.

As influências mais importantes para a formação da personalidade - afora as genéticas - são aquelas que ocorrem nos primeiros estágios da infância, o que vem sendo comprovado inclusive pelos neurocientistas, que identificam nestes estágios a formação das conexões neuronais que serão mais perenes, e que determinarão fortemente as representações e os afetos no futuro. Não há dúvidas de que outros fatores se agregarão ao longo da vida, mas eles estarão sempre sobrepostos aos fundamentos estabelecidos. Assim, as predisposições biológicas não se resumem às genéticas, mas incorporam aquelas resultantes de experiências precoces estressantes ou gratificantes, tanto umas quanto as outras gravadas indelevelmente no tecido neuronal, ou no psiquismo, o que, em última instância, são a mesma coisa. (mais aqui)

Entrevista de Steven Pinker a Jorge Pontual, no programa Milênio (aqui) de 10/02/2009, sobre psicologia evolucionária.


16 fevereiro 2009

connectome


In order to understand how each nerve cell integrates into the functional organization of a neural circuit, it is necessary to obtain the complete wiring diagram (connectome) of the circuit by tracing out all the neural processes in the sample. We used confocal laser scanning microscopy to image all the axons that innervate a small ear muscle in transgenic mice that express fluorescent protein in motor neurons. Shown here is a piece of one of the reconstructed image stacks containing branches of ~ 10 axons. Each axon was traced out in a semi-automated image processing program and rendered in 3D with a distinct color. This image stack is representative of the hundreds of image stacks from which the entire connectome was reconstructed.

Publicado em HarvardScience

15 fevereiro 2009

indignation


Um trecho do fantástico - e mais recente - livro de Philip Roth. Trata-se de parte do diálogo entre o protagonista, Marcus Messner, e um dos vice-reitores do Winesburg College, aonde ele fora se refugiar de um pai excessivamente protetor. Aquela que deveria ser uma instituição laica, obrigava todos os alunos a assistirem a sermões e cerimônias francamente cristãs. É sobre isto que Marcus fala:

" [...] I don't see where the college has the right to force me to listen to a clergyman of whatever faith even once, or to listen to a Christian hymm involking the Christian deity even once, givem that I am an atheist who is, to be truthful, deeply offended by the practices and beliefs of organized religion." Now I couldn't stop myself, weakened as I felt. "I do not need the sermons of professional moralist to tell me how I should act. I certainly don't need any God to tell me how. I am altogether capable of leading a moral existence without crediting beliefs that are impossible to substantiate and beyond credulity, that, to my mind, are nothing more than fairy tales for children held by adults, and with no more foundation in fact than a belief in Santa Claus. I take it you are familiar, Dean Caudwell, with the writings of Bertrand Russel. Bertrand Russel, the distinguished British mathematician and philosopher, was last year's winner of the Nobel Prize in Literature. One of the works of literature for which he was awarded the Nobel Prize is a widely read essay first deliveres as a lecture in 1927 entitled, 'Why I Am Not a Christian.' Are you familiar with that essay, sir?"

O ensaio em questão é aquele parcialmente reproduzido aqui.

14 fevereiro 2009

prazeres fugazes


Numa sociedade de consumo de massas, na qual cada vez mais a auto-estima está alicerçada nos símbolos externos de status e de poder, a frustração das expectativas torna-se uma fonte permanente de insatisfação. Valores morais e abstratos, como a generosidade, a simpatia, a amizade e o conhecimento, deixam de ser fontes de auto-estima e de reconhecimento social.
É esse o sentido que o termo tem no trabalho de importante pensador da cultura de massas Cristopher Lasch, autor do livro O mínimo eu. Lasch usa a expressão “retração narcísica” para caracterizar a busca da sobrevivência psíquica a partir de uma posição fundamentalmente individualista. O perfil do ser narcisista desenhado por Lasch é aquele de um indivíduo cético e cínico, oprimido pela cultura do individualismo competitivo e guiado por uma lógica de auto-preservação. Ganancioso, no sentido de que seus desejos não têm limites, exige imediata gratificação e vive em estado de um desejo perpetuamente insatisfeito.
É esse narcisismo patológico que torna as pessoas mais dependentes tanto da aquisição de bens, como as roupas de grife, os carros portentosos e os celulares de última geração. E é também o que leva as pessoas a buscarem a todo custo a exposição na mídia: nas colunas sociais, nos reality shows, e daí por diante É esse narcismo que não se satisfaz com o que tem, o que é vivenciado na forma de inveja e ingratidão, e que leva à busca sempre frustrada de um ideal de beleza e juventude eternas, como verdadeiras utopias do corpo.



O potencial desagregador do consumismo é percebido e criticado por muitas pessoas, embora seja muito difícil fugir a ele, uma vez que isto implicaria num considerável isolamento social. É o caso das tribos urbanas alternativas (neo-hippies, “bichos-grilos”, Hare-Krishnas, naturalistas, ecologistas e esquerdistas radicais, etc.). A inserção nos mercados de trabalho e o sucesso profissional na maioria das vezes dependem da aceitação dos códigos culturais que associam competência com os símbolos externos de sucesso. Em outras palavras, um certo grau de adaptação aos padrões de consumo deve ser considerado como um sinal de adaptação ao contexto social.
As relações entre globalização, consumo e narcisismo, não podem ser reduzidas a fórmulas esquemáticas. Assim como não se trata de ser a favor ou contra a globalização (que está aí independentemente das nossas vontades), o consumismo faz parte do estágio atual do capitalismo, que sem ele já não se sustenta. O capitalismo cria novas necessidades a cada dia, e a propaganda se encarrega de convencer-nos de que “não podemos não ter” o novo modelo de automóvel ou de celular; ou deixar de frequentar os lugares da moda.
Novamente, aqui encontramos o dilema entre individualidade e sociabilidade, ou, entre autenticidade e pertencimento. O quanto é possível sermos “nós mesmos” sem deixar de estarmos sintonizados com a cultura de nosso tempo, que está marcada pelo consumismo e pelas utopias do corpo, de beleza e juventude eternas. Em outras palavras, como fugir ao narcisismo cultural?
Mais do que fugir, o problema está em conviver com ele sem se deixar engolfar pelas pressões que exerce a ponto de nos sentirmos escravizados. O dilema aqui é aquele que coloca em polos opostos, de um lado a possibilidade de usufruir dos bens de consumo que trazem maior conforto, quando não são indispensáveis à vida nos grandes centros urbanos, e de outro a preservação de valores não materiais ou exteriores, como as qualidades morais, a afetividade, a solidariedade e conhecimento.

09 fevereiro 2009

o ateísmo de russel


No momento em que o debate entre criacionismo e evolucionismo ganha as ruas, ressucitado pelo bicentenário de nascimento de Darwin, aconteceu de ter encontrado uma referência à conferência "Porque não sou cristão", proferida pelo filósofo e matemático inglês Bertrand Russel em 1927, e publicada em 1957. Quem a menciona é Philip Roth no livro Indignation (post de 02/10/08), ainda não publicado no Brasil.
Nela, Russel, que se destacou por sua contribuição ao campo da lógica, discute cinco argumentos em defesa de seu ponto de vista, de rejeição tanto a Deus quanto ao cristianismo. São eles:


O argumento da causa primeira

O argumento da lei natural

O argumento do plano ou teleológico

O argumento moral a favor da divindade

O argumento da reparação da injustiça





Encontrei uma tradução no site Filosofia & Educação - uma escola para o século XXI, e transcrevo aqui apenas o primeiro tópico de sua contra-argumentação:

O argumento da causa primeira

O argumento da causa primeira é talvez o mais simples e o de mais fácil compreensão. (Mantém que tudo o que existe no mundo tem uma causa, e que percorrendo a cadeia de causas se chegará fatalmente à causa primeira, a que se dá o nome de Deus). Este argumento, suponho, não pesa demasiado na nossa época, porque, entretanto, a noção de causa não é a mesma de outrora. Os filósofos e cientistas têm estudado esse conceito e ele não possui actualmente a força que se lhe atribuía; mas, no entanto, podereis verificar que o argumento da causa primeira é daqueles que não possui qualquer validade. Devo dizer-vos que, quando era jovem e debatia estes problemas muito seriamente comigo próprio, aceitei por largo tempo o argumento da causa primeira, até que um dia, pelos meus dezoito anos, lendo a Autobiografia de Stuart Mill, descobri esta frase: "Meu pai ensinou-me que a pergunta "Quem me criou?" não comporta qualquer resposta porque imediatamente ela levantaria outra interrogação: "Quem criou Deus?" Esta frase tão simples revelou-me, como ainda creio, a falácia do argumento da causa primeira. Se tudo deve ter uma causa também Deus a deve possuir; e se algo existe sem causa tanto pode ser o mundo como Deus ― razão da inutilidade desse argumento. Ocorre-me a história do indiano que afirmava estar o mundo assente num elefante e este sobre uma tartaruga; e quando se pergunta: "E a tartaruga?" o indiano responde: "E se mudássemos de assunto?" Na verdade o argumento não tem mais valor do que este.

Não há razão para que o mundo não tenha nascido sem causa; nem, além disso, e por outro lado, que não tenha existido sempre. A ideia de que as coisas devem ter um começo é uma opinião resultante da pobreza da nossa imaginação. Assim não me parece ser necessário ocupar mais tempo com o argumento da causa primeira.

(Leia o artigo inteiro aqui)


No mesmo site, artigo de Richard Dawkins, A ciência é uma religião?