O que Poincaré sussurou para Valéry
Resumo
Nas primeiras décadas do século XX, Jacques Hadamard, matemático francês de grande renome, examinou questionários que haviam sido distribuídos entre seus colegas indagando acerca dos métodos de trabalho que cada um adotava e perguntou-se se seria possível, mesmo no âmbito das limitações das ciências psicológicas de seu dia, estabelecer um fator comum presente nos (muitíssimo variados) processos de elaboração criativa neles expostos, com vistas a formular um princípio geral da invenção na matemática – e, quem sabe, por extensão, da criatividade em qualquer domínio. Sua inspiração para debruçar-se sobre esse problema adveio da célebre conferência pronunciada em 1937 no Centre de Synthese de Paris por Henri Poincaré, um dos maiores matemáticos de todos os tempos. Nesse simpósio, Poincaré descreve como, depois de semanas de laboriosa investigação sobre as chamadas funções fuchsianas, uma solução completa ocorreu-lhe, de um só golpe, no momento em que subia num ônibus que o levaria a uma expedição geológica. Continuou conversando sobre temas de geologia na viagem e, embora estivesse certo da correção da solução encontrada, comprovou-a, em casa, de modo rigoroso. “À primeira vista, o aspecto mais impressionante é a ocorrência de tal iluminação súbita, um sinal manifesto de um trabalho prévio longo e inconsciente”, ele comentou. “O papel do trabalho inconsciente na invenção matemática parece-me incontestável.” A partir desse e de outros exemplos de inspiração súbita, ocorridos depois de esforços consideráveis, Hadamard sugere dividir o processo criativo nas seguintes etapas consecutivas: preparação, incubação, iluminação e verificação. O estágio preparatório envolve a deliberação de enfrentar o problema, a pesquisa e aquisição dos recursos necessários para abordá-lo e os esforços iniciais para resolvê-lo. Quando a solução não ocorre com facilidade, acontece, com frequência, de o investigador examinar infrutiferamente uma variedade de hipóteses ou caminhos presumíveis e acabar por deixar o problema de lado. Aí se dá o estágio de incubação: com a atenção consciente do investigador voltada para outros temas, sua mente ainda assim se dedica a explorar as linhas de desenvolvimento abertas durante a preparação do problema anterior, o que pode requerer meses ou mesmo anos. Um belo dia, a solução… surge. Ou seja: num rasgo de iluminação, ela vem à tona, inteira, acabada, incontroversa. Poincaré compara o surgimento da solução ao perscrutar-se a noite durante uma tempestade. Súbito, o clarão de um raio ilumina toda a paisagem; num átimo, tudo pode ser visto. É preciso então reconstruir passo a passo a imagem vista, em seus mínimos detalhes. Resta ao investigador, nesse último estágio, comprovar a adequação da solução encontrada, antes de anunciá-la ao mundo. Hadamard entende que o primeiro e o último estágios, preparação e comprovação, são razoavelmente bem compreendidos e não causam grandes controvérsias, mas a determinação dos processos cognitivos que atuam durante a incubação e a iluminação constituem um caso inteiramente diferente. A começar pela instância do aparelho mental em que se situariam: “inconsciente”, afirmam os psicanalistas; “subconsciente”, afirmam os pragmatistas; “consciência liminar”, para William James; “antecâmara da consciência”, para Galton… O que é o denominador comum a todos esses pontos de vista é a admissão de que boa parte do processo criativo ocorre para além da mente consciente – e, muitas vezes, até mesmo durante o sonho. Através das obscuras rotas de sua mente, o inventor explora o desconhecido, oferecendo-se ao encontro com o variável, o imprevisível; ao cabo da descoberta, resta polir a gema bruta que, escavada das profundezas do possível, acabou por aflorar à razão.
Como figurar os meios que dão lugar a esse momento de criação? Ora, o indeterminado apresenta sempre caráter múltiplo. É nesse sentido que Poincaré afirma que a invenção “consiste precisamente em evitar combinações inúteis e em adotar as úteis, que constituem pequena minoria”. Também orador no simpósio no Centre de Synthese, Valéry concorda ao concluir que “são necessários dois para se inventar alguma coisa. Um produz combinações; o outro faz escolhas, reconhece o que deseja, o que para ele é importante, na massa de coisas que o primeiro lhe ofertou. O que chamamos de gênio é menos o labor do primeiro que a aptidão do segundo em perceber o valor do que lhe foi exposto e selecioná-lo”.
Daí que o jogo do inventar envolve uma maquinação inconsciente que produz uma conclusão inesperada. Algo bem distante, portanto, do aspecto glacial ou cristalino do conhecimento já consolidado. “O pensamento é apenas um lampejo entre duas longas noites, mas esse lampejo é tudo” – escreve, não por acaso, Poincaré. Não é impossível que esse aforismo tenha se insinuado no espírito de Valéry.
Parece haver um consenso entre muitos dos praticantes das chamadas Ciências Humanas acerca da proeminência, na cultura contemporânea, da peculiar combinação de conceitos e receitas de aplicação que nos acostumamos a denominar, desde os anos 1950, de Tecnociência. De fato, parece bastante difundida, se não mesmo hegemônica, entre esses praticantes a convicção de que a experiência do pensamento, tal como a define a tradição clássica (“A mãe de todas as coisas”, como recorda Adauto Novaes), encontra-se hoje subjugada pelo predomínio da Tecnociência. Mas nesse caso a experiência do pensamento recairá em um vazio – o da “perda da experiência histórica, a derrota da experiência”, segundo Benjamin. Privados da experiência histórica, na presente Era das Mutações, os homens se veem empobrecidos pelo vazio de uma vida sem sentido e sem espírito.
A pobreza tecnocientificamente engendrada da experiência de pensamento foi enunciada por Paul Valéry, por exemplo, já nos dias tumultuosos após a Grande Guerra, numa sentença de concisão e precisão terríveis: “Tudo o que sabemos, isto é, tudo o que podemos, passou hoje a se opor a tudo o que somos”; e repercutida meio século depois por Hannah Arendt, que perante feitos técnicos do porte do lançamento do Sputnik e da detonação da Bomba de Hidrogênio concluiu que estávamos sob risco crescent de testemunhar “a abolição das maiores invenções humanas, o Passado e o Futuro”. Com efeito, ocorreria na atualidade uma tal proliferação de fraturas insondáveis na textura dos acontecimentos, uma tal fragmentação do presente em um infinito de possibilidades insopesáveis, que o pensamento se desnorteia, emperra e afunda no vazio desse excesso. Jorge Luis Borges, mais uma vez, nos socorre com uma imagem sugestiva, no conto “Os dois reis e os dois labirintos”:
Contam os homens dignos de fé (porém Alá sabe mais) que nos primeiros dias houve um rei das ilhas da Babilônia que reuniu seus arquitetos e magos e ordenou a construção de um labirinto tão perfeito e sutil que os varões mais prudentes não se aventuravam a entrar nele, e os que nele entravam, se perdiam. Essa obra era um escândalo, pois a confusão e a maravilha são atitudes próprias de Deus e não dos homens. Com o correr do tempo, chegou à corte um rei dos árabes, e o rei da Babilônia (para zombar da simplicidade de seu hóspede) fez com que ele penetrasse no labirinto, onde vagueou humilhado e confuso até o fim da tarde, Implorou então o socorro divino e encontrou a saída. Seus lábios não pronunciaram nenhuma queixa, mas disse ao rei da Babilônia que tinha na Arábia um labirinto melhor e, se Deus quisesse, lhe daria a conhecer algum dia. Depois regressou à Arábia, juntou seus capitães e alcaides e arrasou os reinos da Babilônia com tão venturoso acerto que derrubou seus castelos, dizimou sua gente e fez prisioneiro o próprio rei. Amarrou-o sobre um camelo veloz e levou-o para o deserto. Cavalgaram três dias, e lhe disse: “Oh, rei do tempo e substância e símbolo do século, na Babilônia me quiseste perder num labirinto de bronze com muitas escadas, portas e muros; agora o Poderoso achou por bem que eu te mostre o meu, onde não há escadas a subir, nem portas a forçar, nem cansativas galerias a percorrer, nem muros que te impeçam os passos”. Em seguida, desatou-lhe as ligaduras e o abandonou no meio do deserto, onde morreu de fome e de sede. A glória esteja com Aquele que não morre.
Mas a fissura entre a Ciência (e, decerto, suas derivações técnicas) e a atividade positiva do pensar já havia sido antevista por Nietzsche, que mesmo num período em que vigorava amplamente a ideologia do “Progresso” – talvez o mais autêntico substrato mítico da Cosmovisão clássica – assinalou com agudeza que “(…) o problema da Ciência não pode ser abordado no domínio da Ciência”. E seguindo esta linha encontraremos, no próprio coração da postura crítica das Humanidades perante o vulto assumido pelos saberes e práticas da Ciência Natural, a bem conhecida observação de Heidegger: “A Ciência não se move na dimensão da Filosofia, mas, sem o saber, se liga a essa dimensão.[…] A Ciência, enquanto Ciência, não pode decidir o que são Movimento, Espaço, Tempo. Portanto, a Ciência não pensa, não pode pensar com seus métodos (a Física não é o método da Física!) (…) É próprio de sua essência que dependa do que pensa a Filosofia, mas se esqueça e negligencie o que aí se exige ser pensado”.
Para avaliar esses juízos, convém começar pela pergunta: o que é a Ciência? Tomemos por base a conceituação bastante concisa de Ernesto Sábato acerca da especificidade dos afazeres científicos. Para ele, a Ciência seria, antes de tudo, uma forma de dialogar com a Natureza, ou seja, de estabelecer uma linguagem comum entre o espírito humano e o mundo natural. Surpreendente ideia, a de que podemos dialogar com as estrelas, com os relâmpagos, com os minerais. Toda prática de saber legitimamente científica, porém, deverá consistir de dois elementos, um sempre invariante, e outro sempre variável. O elemento permanente, que não muda nunca, é a regra fundadora dessa possibilidade de diálogo: o Método (do grego meta +odós, “caminho a seguir”). O método nos dá assim a diretriz a ser perseguida ao longo do empreendimento científico, e para este fim consta, ele mesmo, de dois componentes, que Sábato denomina de Observação Cuidadosa e Raciocínio Impecável.
Observação cuidadosa é a arte (no sentido original do termo, de saber-fazer) do experimentador, que se encontra com o fato ou fenômeno bruto e, por meio de seus instrumentos de medida, consegue traduzir esse fenômeno em um conjunto de grandezas, um painel de quantidades. Esses esquemas quantitativos descreveriam os estados de coisas manifestos ao se realizarem os fatos. Raciocínio impecável, por sua vez, é a arte do teorizador, que elabora, a partir dos dados da observação, propostas para a regra que governaria as relações entre as grandezas representativas do acontecimento, isto é, diagramas ou esboços da forma que presidiria as características do comportamento exibido pelo sistema sob exame. A partir dessa modelização do fenômeno seria possível, em princípio, não apenas descrever os diferentes estados já observados do comportamento do sistema, como também, e ainda mais importante, predizer a ocorrência de configurações futuras. Em resumo: o experimentador oferece ao teórico a tradução do fenômeno em dados; com estes dados o teórico elabora um modelo; este modelo permite fazer previsões, ou seja, antecipar estados que este sistema deverá realizar se cumpridas certas condições, e então – e este é o aspecto crucial da aplicação do método – a investigação é devolvida ao experimentador, que irá aferir a eficiência das previsões deste modelo por meio de novas observações. Somente este crivo empírico, este retorno da teorização para a medição, é que irá validar – ou não – o modelo sugerido. Ele será considerado adequado se as previsões forem próximas o suficiente das observações, e inverossímil se este não for o caso.
O método empírico é, portanto, o elemento que, na produção do saber científico, não muda nunca. Já o elemento que muda sempre, que não pode nunca permanecer o mesmo, diz Sábato, são os diferentes enunciados elaborados, em cada domínio de conhecimento, a partir da aplicação do método. Ou seja, o método permite gerar modelos que são chancelados, em dadas circunstâncias, pela verossimilhança das previsões que engendram, mas essa corroboração jamais é final; o jogo do conhecimento não termina, não pode terminar, pois a própria reiteração do método irá sempre dar lugar a novos enunciados, mais eficazes, mais aproximados. Os saberes científicos têm assim uma característica inescapável: os enunciados que produzem são necessariamente provisórios, estão sempre sujeitos à superação e à renovação. Karl Popper, de fato, afirma que o mais indispensável atributo de um enunciado científico é ser refutável pela observação; essa refutabilidade inerente aos resultados do método empírico, por sua vez, irá assegurar o caráter cumulativo, progressivo, dos empreendimentos científicos, que reconhecemos ao estudar a História da Ciência. Mas se os saberes científicos tão somente operam com “verdades”, no sentido restrito de adequação de modelos a fatos observacionais, então não se prestam a alcançar “Verdades”, enunciados cabais, universais, absolutos; no máximo, podem nos descrever, aproximadamente, progressivamente, um estar, mas não um ser. Outros exercícios do espírito humano, como a cogitação filosófica, a inspiração poética ou a exaltação mística poderão talvez aspirar a pronunciar ‘Verdades” últimas; as ciências só podem pretender formular “verdades” transitórias, sempre inacabadas. Sábato observa, não sem ironia, que todas as vezes que se pretendeu elevar um enunciado científico à condição de Dogma, de ‘Verdade” final e inquestionável, um pouco mais à frente a própria continuidade da aplicação do método científico invariavelmente acabou por demonstrar que tal Dogma não passava senão… de um Equívoco. Não há melhor exemplo que a fundamentação da doutrina nazista sobre a noção, biologicamente infundada, de raça. Esta precariedade, porém, não é um defeito ou carência da prática científica, mas sim a própria raiz de seu poder e eficácia.
Em contrapartida, os objetos da Ciência – seus princípios teóricos, suas leis empíricas, suas relações funcionais – não possuem conteúdos formais imediatamente expressivos (como os da Arte), nem se vinculam diretamente a fundamentos ontológicos ou a sistemas de valores (como os da Filosofia). Em particular – e aqui nos aproximamos do cerne do problema-, o método empírico não pode justificar-se por si mesmo, isto é, o método não pode ser aferido pelo método; nem por seus sucessos, isto é, a eficácia de seus resultados não basta como princípio para sua adoção. Dito de outro modo: a Ciência não pode se autofundar, referir-se a si mesma como meio de legitimar-se como exercício do pensamento. O exame de suas condições de possibilidade (ou, no caso, pensabilidade) requer, portanto, um ponto de vista exterior, autônomo com respeito ao método empírico, que envolveria os preceitos de uma MetaCiência – que haverá de se identificar, por certo, com a própria Filosofia. Com efeito, se toda prática de saber requer um MetaSaber a partir do qual seus objetos e objetivos, seus recursos e estratégias, suas fronteiras e pressupostos possam ser organizados e integrados, para que não se recaia numa regressão infinita de contextualizações (qual é o MetaSaber do MetaSaber, e assim por diante), é necessário um termo derradeiro, isto é, um Saber que se debruce sobre suas próprias condições de possibilida de e seja assim o MetaSaber de si mesmo; ora, este domínio último das fundamentações não é senão a Filosofia. A Ciência e a Arte requerem uma MetaCiência e uma MetaArte, mas a Filosofia se define exatamente pela identificação, ou congruência, com a MetaFilosofia.
Reencontramos assim a motivação das objeções de Nietzsche e Heidegger que alinhamos acima. De uma perspectiva mais pragmática, o questionamento sobre os fundamentos da Ciência assume a forma mais prosaica, e ingente, de um silêncio embaraçado: se nos perguntarmos qual seria a “postura filosófica” mais comumente adotada pelos cientistas naturais na atualidade, teríamos como resposta a opção, muitas vezes tacitamente assumida, se não mesmo inconsciente, por um “materialismo realista”, ou seja, a afirmação da existência de uma Realidade material plenamente autônoma diante da mente humana, sendo o método empírico exatamente o meio apropriado para cartografar, de passo em passo, esse continente desconhecido. Contudo, por mais razoável, ou conveniente, ou mesmo bem-sucedida que essa posição ontológica possa se revelar, ela evidentemente não é suscetível de demonstração empírica. E então…? Outro viés de crítica, exercido com desenvoltura por filósofos neo-heídeggertanos, enfoca a crescente submissão das Ciências às Técnicas, isto é, a subordinação cada vez mais frequente, na sociedade contemporânea, da ‘busca do conhecimento” a finalidades econômicas ou utilitárias – como exemplificado, de modo cristalino, pelos departamentos de Pesquisa & Desenvolvimento das indústrias farmacêuticas. Qual o “pensamento” que poderia vigorar aí?
Contudo … Seria esse o enfoque exclusivo, ou mesmo preferencial, a partir do qual se deveria abordar as (indispensáveis) vinculações da Ciência com a Filosofia – ou, antes, a inserção mesma da Ciência no campo do Pensamento? Não haveria outras características da atividade da Ciência, ademais da fundamentação bem-posta, da argumentação consistente e da corroboração empírica, que nos obrigassem a refletir, filosoficamente, sobre os modos pelos quais as Ciências se desempenham – e, talvez, discernir nesses modos de ação elementos próprios ao pensar? Ou, invertendo a orientação do questionamento: não haveria, nas múltiplas dimensões do Pensamento, instâncias que fossem plenamente atendidas pelo mister científico (ou artístico), tanto quanto pelo a fazer filosófico? Se o campo do Pensar não fosse obrigatoriamente configurado a partir das distinções entre os meios empregados e os objetos focalizados – o desvelar do “Ser”, para a Filosofia; a descrição dos “entes”, para a Ciência; a expressão dos “afetos”, para a Arte -, então seria possível, porventura, vislumbrar um caractere essencial, um traço comum a todas essas práticas de pensamento. Como determinar esse atributo decisivo?
Consta que, certa feita, um aprendiz ingênuo perguntou a mestre Oscar Niemeyer: “Como é isso que você faz?”. A pergunta era, evidentemente, impossível, mas a resposta foi imediata, direta e extraordinária: “Busco sempre o inesperado”. O ethos da arquitetura oscariana consistiria assim na identificação integral entre pensar e inovar; essa constatação sugere estatuir como núcleo efetivo do Pensar a capacidade de engendrar novas formas, isto é, a potência de Criar. A principal vantagem que se pode antecipar, com vistas a justificar a escolha desta diretriz de pesquisa, é a de permitir levar-se em conta, de modo natural, a intensa criatividade manifesta pelas Ciências (e Técnicas) contemporâneas. Podemos então de(sen)volver a pergunta e indagar aos filósofos: a Filosofia sabe como a Ciência pensa? Exploraremos, no presente exercício de problematização, dois argumentos principais, o primeiro dizendo respeito à psicologia das descobertas científicas, e o segundo a aspectos revolucionários manifestos em certas inovações técnicas.
Nas primeiras décadas do século XX, Jacques Hadamard, matemático francês de grande renome, examinou questionários que haviam sido distribuídos entre seus colegas indagando acerca dos métodos de trabalho que cada um adotava, e perguntou-se se seria possível, mesmo no âmbito das limitações das ciências psicológicas de seu dia, estabelecer um fator comum presente nos (muitíssimo variados) processos de elaboração criativa neles expostos, com vistas a formular um princípio geral da invenção na Matemática – e, quem sabe, por, extensão, da criatividade humana em qualquer domínio. Sua inspiração para debruçar-se sobre este problema adveio da célebre conferência pronunciada em 1937 no Centre de Synthese de Paris por Henri Poincaré, um dos maiores matemáticos de todos os tempos. Nesse simpósio, Poincaré descreve como, após semanas de laboriosa investigação sobre as chamadas funções fuchsianas, uma solução completa lhe surgiu, de um só golpe, no momento em que subia em um ônibus que o levaria a uma expedição geológica. Continuou conversando sobre temas de geologia na viagem e, embora tivesse a íntima certeza da correção da solução encontrada, ao retornar a sua casa comprovou-a de modo rigoroso.- “À primeira vista, o aspecto mais impressionante é a ocorrência de tal iluminação súbita, um sinal manifesto de um trabalho prévio longo e inconsciente”, ele comentou. “O papel do trabalho inconsciente na invenção matemática me parece incontestável.” A partir desse e de outros exemplos de inspiração súbita, surgida após certo prazo de consideração esforçada, embora insuficiente, a um dado problema, Hadamard sugere dividir o processo criativo em quatro etapas consecutivas: preparação, incubação, iluminação e verificação. O estágio prepara tório envolve a deliberação de enfrentar o problema, a pesquisa e aquisição dos recursos necessários para abordá-lo, e os esforços iniciais para resolvê-lo. Por vezes, a solução ocorre com facilidade; em muitos casos, contudo, o investigador examina infrutiferamente uma variedade de hipóteses ou caminhos presumíveis, e acaba, após certo prazo, por deixar o problema de lado. Aí se dá o estágio de incubação: com a atenção consciente do investigador voltada para outros temas e questões, sua mente ainda assim se dedica a explorar as linhas de desenvolvimento abertas durante a preparação. Pode suceder que esse período de incubação se estenda por meses ou mesmo anos. Um belo dia, porém, uma solução é inconscientemente obtida, e num rasgo de iluminação vem à tona, inteira, acabada, incontroversa. Poincaré compara o surgimento da solução ao perscrutar-se a,noite escura, durante uma tempestade. Súbito, o clarão de um raio ilumina toda a paisagem; num átimo, tudo pode ser visto – mas em seguida é preciso reconstruir passo a passo a imagem obtida, para que os detalhes possam surgir. Resta ao investi gador, nesse último estágio, comprovar a adequação da solução encontrada, antes de anunciá-la ao mundo. Hadamard entende que o primeiro e o último estágios, preparação e comprovação, são razoavelmente bem compreendidos e não causam grande controvérsia, mas a determinação dos processos cognitivos que atuam durante a incubação e a iluminação é um caso inteiramente diferente. A começar pela instância do aparelho mental em que se situariam: “inconsciente”, afirmam os psicanalistas, “subconsciente”, dizem os pragmatistas, “consciência liminar”, para William James, “antecâmara da consciência”, para Galton… O que é o denominador comum a todos esses pontos de vista é a admissão de que boa parte do processo criativo ocorre para além da mente consciente – e, muitas vezes, até mesmo durante o sonho. Através das obscuras rotas de sua mente, o inventor explora o desconhecido, oferecendo-se ao encontro com o variável, o imprevisível; ao cabo da descoberta, resta polir a gema bruta que, escavada das profundezas do possível, acabou por aflorar à razão.
Como figurar os meios que dão lugar a esse momento de criação? Ora, o indeterminado tem sempre o caráter da multiplicidade. Poincaré afirma que a invenção se trata, antes de tudo, de discernimento, isto é, seleção: “Criar consiste precisamente em evitar combinações inúteis e em adotar aquelas que são úteis e que constituem uma pequena minoria”. Valéry, também um orador no simpósio no Centre de Synthese, concorda: “São necessários dois para se inventar alguma coisa. Um produz combinações; o outro faz escolhas, reconhece o que deseja, o que para ele é importante, na massa de coisas que o primeiro lhe ofertou. O que chamamos de gênio é menos o labor do primeiro que a aptidão do segundo em perceber o valor do que lhe foi exposto e selecioná-lo”. Esta concepção.é corroborada, numa carta famosa a Hadamard, por Albert Einstein: “[…]De um ponto de vista psicológico, o jogo de combinatórias parece ser a parte essencial do pensamento inventivo – antes mesmo que haja qualquer conexão com a construção lógica com palavras ou outros tipos de signos que possam ser comunicados a alguém”. O jogo do inventar parece assim envolver uma maquinação inconsciente que produz uma conclusão inesperada – bem distante, portanto, do aspecto glacial, ou cristalino, do conhecimento já consolidado. Poincaré, numa sentença inesquecível, resume a natureza esquiva e surpreendente do afazer criativo: “O pensamento é apenas um lampejo entre duas longas noites, mas esse lampejo é tudo”. Não é impossível que esse aforismo tenha se insinuado no espírito de Valéry.
Se a intempestividade é atributo constitutivo da invenção teórica ou ideativa, o que sucede no âmbito dos próprios fatos, quer dizer, das inovações concretas, das descobertas materiais? O filósofo do Design Sanford Kwinter recorre a uma parábola da história da Química para ilustrar esse ponto. Em 1845, o prestigioso químico alemão C. F. Schöenbein, descobridor do ozônio, tentava encontrar um meio de facilitar o descaroçamento e separação das fibras do algodão bruto. Experimentou dissolver um chumaço de algodão numa solução de ácido nítrico e ácido sulfúrico, em seu laboratório; frustrado com a maçaroca úmida que resultou, colocou-a num forno para secar e foi para casa tomar café. Providencial cafezinho! Em poucos minutos, o laboratório foi pelos ares; pois o espantado Schöenbein acabara, inadvertidamente, de trazer ao mundo o algodão-pólvora, ou nitrocelulose. Esta descoberta, que representa de modo tão característico a classe de fenômenos denominada de “serendipidade” (ou invenção casual), conduziu ao aparecimento de explosivos como a dinamite e o TNT, e teve assim papel crucial nos desenvolvimentos posteriores da arte militar, da mineração, da construção civil, da balística e até da astronáutica.
Podemos nos admirar, retrospectivamente, com a aparente imprevidência de um pesquisador dá conscienciosa escola germânica, mas é preciso ter em conta que o algodão sozinho não é uma substância particularmente ignescente ou inflamável, e que sem o algodão os ácidos sulfúrico e nítrico formam solventes, e não propelentes. Schöenbein não fazia ideia de que o ácido sulfúrico corroera as bainhas de mielina que envolvem as fibras do algodão, expondo seu conteúdo de celulose à ação do ácido nítrico, com a consequente formação de nitratos – estes, sim, compostos altamente combustíveis -, e que bastaria aquecer a massa resultante para obter uma detonação. Kwinter vislumbra, como o cerne dessa novidade, uma reestruturação dos padrões de interação de cada componente, submetendo-os a uma nova disciplina no espaço e no tempo e dotando o novo arranjo coletivo da capacidade potencial de abandonar a lentidão ilimitada da celulose inerte para alcançar a aceleração quase infinita da explosão. Todo invento resultaria, na verdade, do translado ou migração de um reservatório de potenciais que repousa a uma só vez ativo e estocado no interior de todo construto material (e de seu respectivo ambiente), fazendo as vezes de um conjunto de instruções que suporta e organiza as características que serão expressas por esse construto numa dada circunstância. Kwinter denomina de “motor da matéria” a este diagrama de desdobramentos e retenções que controla como o artefato age, isto é, modula o que ele faz.
Há, sem dúvida, algum grau de metáfora na escolha destes termos – motor, diagrama -, mas se atentarmos para os processos fisicos, materiais, envolvidos na formação do invento, veremos que seus sentidos são de fato bastante literais. Manuel de Landa evoca o célebre dictum: ”. A luta de classes é o motor da História”, e assinala que o uso do termo “motor” é aqui puramente metafórico – não há na História engrenagens, rotores ou pistões.’Mas a afirmação “um furacão é uma máquina a vapor” ultrapassa a mera ana logia linguística, pois se trata agora de discernir uma homologia funcional: locomotivas e ciclones encarnam um mesmo projeto termodinâmico, ou seja, contêm um reservatório de calor (a caldeira, o oceano), operam – através de diferenciais térmicos (a caldeira troca calor com a câmara de vapor, o oceano com o ar), circulam energia e matéria (vapor nos pistões, rajadas de vento na atmosfera), segundo um ciclo de Carnot. O mesmo projeto (ou “diagrama”) de engenharia é, portanto, consubstanciado tanto no artefato técnico quanto no fenômeno meteorológico (Deleuze denominará de “máquina abstrata” esse diagrama compartilhado por diferentes suportes materiais). Assim, a “descoberta” ou “invenção” ocorre quando o deslocamento do diagrama em vigor num sistema torna manifestos numa escala humana, isto é, disponíveis para apreensão e manipulação, características e ritmos até então ocultos ou despercebidos no modo anterior de expressão dos materiais e processos agora reunidos no construto produzido. Ao transitar de um conjunto de processos (a tecelagem fabril) para outro (o laboratório químico), novas propriedades, potenciais e efeitos do algodão tornaram-se selecionáveis.
Por exemplo, observa Kwinter, quando um tronco de árvore é aparelhado para funcionar como coluna ou trave, são a rigidez e flexibilidade dos feixes de fibras da madeira que permitem a expressão dessas qualidades tectônicas, já na escala macroscópica da edificação; quando, porém, o tronco é aproveitado como lenha, é o poder de combustão – que preexiste na madeira, só que adormecido, ou infinitamente arrestado – que é selecionado para liberação. Particularmente significativa, aqui, é a constatação de que ambos os modos de expressão, tectônico e químico, possuem exatamente o mesmo grau de realidade fisica, embora um seja durável e o outro instantâneo; é a seleção da via de conjunção dos potenciais microfísicos com o ambiente macroscópico que determinará as propriedades expressas pelo material. Não há talvez exemplo mais marcante que a transição da imobilidade amorfa do silício nas areias das praias para a atividade transmutadora do mesmo silício nos semicondutores eletrônicos.
Reencontramos, nesta conclusão, as teses de Gilbert Simondon acerca da gênese fisico-biológica dos artefatos e dos organismos a partir de uma constelação de tensões anterior à sua aparição como indivíduos constituídos, que Simondon denomina de Realidade Pré-Individual. O surgimento de uma forma, natural ou artificial, nas ordens fisica, vital, ou psíquica, resulta sempre de uma conjunção de elementos que inicialmente se encontram dispersos num dado meio e que, através de uma operação de síntese, se associam para constituir o indivíduo recém-produzido, ao mesmo tempo, e necessariamente, deixando o meio original empobrecido dos componentes que agora estão integrados sob a nova organização. Deixando de lado as venerandas tradições substancialistas e essencialistas, Simondon nos oferece uma abordagem renovada ao problema da individuação, enfatizando os processos concretos de tomada de forma pelos quais, a partir de um “caos” pré-individual em que o indivíduo acabado não está presente nem mesmo como princípio, os componentes disparatados são recombinados e redistribuídos segundo um novo diagrama de tensões e agregações, de modo a fazer emergir simultaneamente, no mundo, o indivíduo formado e o vazio deixado por sua extração. Este ponto de vista nos permite compreender a incrível proliferação de inovações revolucionárias que teve lugar ao longo das últimas décadas, encarnadas numa miríade de objetos dotados de funcionalidades cada vez mais sofisticadas e específicas.
De fato, em virtude da grande Revolução Científica ocorrida na alvorada do século XX, foram profundamente transformados os próprios fundamentos da Cosmovisão de cunho mecanicista vigente desde a obra capital de Newton. Teorizações audaciosas e experimentos decisivos acabaram por demonstrar a inadequação da abordagem newtoniana, ou “clássica”, para dar conta de uma série de fenômenos naturais que ocorrem em escalas (de comprimentos, durações ou velocidades) inumanas, estranhas à nossa percepção costumeira dos acontecimentos – como os que envolvem tanto os componentes microscópicos da matéria (partículas, átomos, moléculas) quanto a estrutura dinâmica do universo astronômico (galáxias, grupos, aglomerados), ou que emergem a partir do comportamento coletivo dos integrantes de sistemas altamente diferenciados e hierarquizados (fluidos, organismos, sociedades). Dependendo da escala de atividade ou do grau de organização do sistema considerado, diferentes conjuntos de fenômenos, com seus padrões típicos, seus caracteres próprios, se tornarão manifestos.
Podemos tentar resumir as consequências desse conjunto de inovações radicais sobre o panorama epistemológico da atualidade fazendo-as corresponder à aparição de um novo objeto do conhecimento – que, por contraste à “simplicidade” almejada (e engajada) pelos paradigmas clássicos, denominaremos de Objeto Complexo. Evidentemente, sua introdução irá requerer a formulação correlata de uma nova noção de sujeito do conhecimento. Objetos complexos são encontrados nos mais variados domínios da Natureza, do mais elementar ao mais abrangente, e, em tqdos os setores, possuem em comum a capacidade de surpreender – isto é, suas ações são eivadas de imprevisibilidade.
Vejamos: a Microfisica quântica, na escala atômica, sugere uma “realidade” básica fundamentalmente incerta, operando com uma matéria des substanciada, elusiva, eivada de paradoxalidades, em que desaparece, por exemplo, a distinção tradicional entre corpúsculo e onda, ou padrão localizado e padrão extenso, e para cuja descrição noções probabilísticas são indispensáveis. Uma vez que as leis quânticas incidem sobre as possibilidades de uma dada configuração vir a ser efetivada, o que chamamos de “mundo objetivo” não seria mais que a expressão macroscópica de uma trama de relações microscópicas quânticas que não padecem, elas mesmas, de “objeti vidade”. Por detrás – ou aquém – da realidade atual, efetiva, regras matemáticas governam o possível. Como numa realização ampliada do Epicurismo, na Microfisica dos Quanta, um clinamen indeterminista parece governar a fisica dos processos fundamentais.
A inauguração da atual Cosmologia Relativística, por sua vez, na escala astronômica, possibilitou a aparição de uma nova figura de totalidade: o espaço-tempo da Relatividade Geral, que pelas equações de Einstein se articula não linearmente com a distribuição de matéria-energia em escala cósmica. Duas consequências dessa nova imagem de Tudo-o-que-existe (que doravante terá a denominação de Espaço-tempo-matéria-energia) são particularmente notáveis: primeiro, a Totalidade pode ser observada; segundo, a observação nos diz que o Todo é evolutivo. A elaboração de uma história térmica do material cósmico desde uma configuração primordial de máxima condensação (o Big Bang) até o presente estado de expansão global acarreta a conclusão de que habitamos, e somos parte, de um Cosmos dinâ mico, inacabado; em suma, de uma totalidade aberta.
Presentemente, os cosmólogos consideram ultrapassada a versão simplista, muito popular nas últimas décadas, que atribui a origem do Universo a uma singularidade inicial clássica (Big Bang no sentido estrito), em que todas as grandezas fisicas relevantes teriam valores infinitos. Limite absoluto para o conhecimento do mundo fisico, a concepção de um tal momento indescritível de criação vem sendo substituída por uma inovadora proposta de uma matriz cósmica primordial, um estado fundamental, mas instável, dos campos fisicos, no qual ainda não se desdobraram as dimensões métricas nem se distinguiram as linhagens de matéria e que, ao instabilizar-se, desembocaria na geração de formas e na produção de ordem, acabando por dar lugar à estrutura clássica que hoje identificamos com o Universo. O Todo Evolutivo, que tem uma história, teria também uma pré-História, ou seja, um contexto. Embora essencialmente aleatório, o processo de instabilização experimentado pela matriz primordial possuiria tal generalidade que, como Maria Novello observa com fina ironia, seria dificil, quase impossível, o Cosmos não existir… Tal concepção de um Todo em contínua construção, identificado com o próprio reino da complexidade, parece requerer a refundação do conceito de Casualidade no âmbito das próprias ciências tisicas.
Mesmo na escala mesofisica, de fenômenos que podemos experimentar diretamente pelos sentidos, o estudo dos chamados Sistemas Dinâmicos não lineares – iniciado por ninguém menos que o próprio Poincaré – conduziu à conclusão de que a previsibilidade irrestrita não é um atributo necessário dos sistemas dinâmicos (embora tenha sido precisamente esta a vertente pela qual veio a se instalar a doutrina mecanicista, em vista da pressuposição implícita de linearidade das relações dinâmicas). Se um sistema pode ser descrito como a simples associação de partes elementares, onde cada uma delas guarda sua individualidade inalterada, então cada configuração que vier a exibir pode ser entendida como a mera justaposição de outras. Processos não lineares, por outro lado, rompem com esse reducionismo simplista ao envolverem uma composição recorrente, autoafetiva, entre o sistema como um todo e seus elementos constituintes: o todo serve como meio para a parte agir sobre si mesma, e vice-versa. À época das primeiras iniciativas de Poincaré, chegou-se a duvidar da efetividade das abordagens não lineares no tratamento de problemas concretos. Hoje, sabemos que mesmo sistemas mecânicos bastante simples, regidos por leis estritamente deterministas, podem manifestar comportamentos muito sofisticados – e até mesmo cabalmente impredizíveis – mercê de uma forte sensibilidade a variações das condições iniciais. A não linearidade explorada pelas modernas “teorias do caos determinístico” permite que minúsculas flutuações dos dados iniciais acumulem-se e amplifiquem-se até engendrar significativos efeitos globais (como é o caso do famoso “efeito borboleta”). A distinção entre sistemas simples e complexos com base na ocorrência de imprevisibilidades não mais terá portanto, validade genérica.
Esses tremendos avanços na descrição de uma variedade, de fenômenos nas diversas escalas naturais, a partir da constituição do campo da Complexidade, foram acompanhados por desenvolvimentos técnicos de radicalidade comparável. Retomando a perspectiva simondoniana que esboçamos acima, podemos distinguir com clareza os modos e vias pelos quais tem sucedido a revolução tecnológica dos séculos XX e XXI: à medida que foram exploradas a composição, estrutura e atividade, em dimensão cada vez mais diminuta, de sistemas físicos, biológicos e artificiais, novos e potentes diagramas puderam ser manejados, modificados e realocados de maneira a manifestar, no plano da vida quotidiana, uma vasta legião de capacidades técnicas inéditas. Kevin Kelly se refere ao domínio dos objetos técnicos, de todo tipo, como integrando uma Tecnosfera, ou Technium. Ao longo da maior parte da história humana, a Tecnosfera e a Antroposfera praticamente se sobrepuseram (poucas outras espécies carecem de uma mediação técnica ampla em suas relações vitais com os outros seres e o ambiente), mas em nossos dias já é possível antever a dissociação do Technium de seus tutores orgânicos, isto é, de nós.
A razão é que nossa habilidade progressivamente mais desenvolvida de intervir nos níveis constitutivos básicos de todos os tipos de sistema material – manipulando compostos, reações, formas, distribuições, topologias, agentes, elementos – avançou da precisão de milímetros, necessária para as peças de relógio nos tempos de Newton, para os micrômetros dos circuitos eletrônicos que hoje estão por toda a parte, e já se anuncia a era dos artefatos construídos na escala do bilionésimo de metro, ou nanômetro. Paralelamente, da precisão de décimos de segundo dos carrilhões mecânicos passamos aos Gigahertz (bilhão de ciclos por segundo) dos processadores eletrônicos, já tão nossos conhecidos, e laboratórios de ponta disputam a palma da divisão do segundo em 1017 partes – isto é, alcançar a precisão de 1/100000000000000000 do segundo. As virtualidades associadas a processos em tais escalas são simplesmente incalculáveis, e as redistribuições de diagramas atualmente em pleno curso já dissolveram ou ultrapassaram inúmeras categorias que até bem recentemente eram empregadas com toda a confiança para embasar a Weltanschauung moderna – como as dicotomias clássicas entre naturatos e artefatos; entre matéria e vida; entre sujeito e objeto; entre corpo e pensamento.
Examinando as vicissitudes experimentadas pelos desenvolvimentos tecnológicos ao longo do século XX, Kelly atribui ao Technium três tendências: tornar-se menor, tornar-se mais rápido, fazer o que fazemos. As duas primeiras implicam uma disseminação cada vez mais ampla, rumo a uma quase onipresença, e em uma proximidade cada vez mais íntima, rumo a uma quase invisibilidade, da esfera técnica perante a humana; a terceira indica a autonomização crescente dos objetos técnicos, que no limite convergirá para a emergência de entidades cognitivamente superdesenvolvidas, isto é, inteligentes. Recordemos que a inteligência já surgiu, pelo menos uma vez, a partir de materiais simples engajados em processos complexos: o DNA não exibe aparato cognitivo algum, e no entanto estamos aqui. Parece razoável, assim, antever a eclosão de uma imensa atividade criativa nas próximas décadas como resultado do aperfeiçoamento e da difusão das Tecnologias Moleculares ou Bilionesimais, abrangendo a produção de artefatos capazes de exibir propriedades materiais, funcionalidades orgânicas, ou capacidades cognitivas sem termo de comparação com as conhecidas até recentemente. Em resumo, avanços como a mensuração indeterminista, as matemáticas deslineares e a evolução cósmica deslocaram as figuras clássicas do sujeito e do objeto do conhecimento, tornando insuficientes ou obsoletos os pressupostos epistêmicos de cunho positivista que informavam a cosmovisão moderna. Quer se trate da constituição, da formação ou do comportamento dos sistemas materiais (incluindo os orgânicos e os inteligentes), os eventos ou “fatos” neles manifestos adquiriram uma “‘espessura existencial” (que Heisenberg denominou de “Real potencial”) que parece sugerir, ou requerer, a subscicuição das noções tradicionais pelas quais a Filosofia exercia o papel de Metadiscurso para as práticas científicas (e tecnológicas). Se, em linha com o diagnóstico de que nossa civilização se encontra em estado de mutação – seja pelo surgimento de tendências aleatorizantes nos efeitos da tecnologia e da economia, seja pela deriva dos limites orgânicos e cognitivos do Homo sapiens -, considerarmos a exigência, antecipada por Simondon, de um novo suporte para a Filosofia Natural, por exemplo, um novo Materialismo conforme a uma Ontologia não essencialista e a uma Epistemologia não generalista, o foco da reflexão sobre as relações causais e funcionais que a Ciência descortina em sua experiência dos acontecimentos do mundo se desloca; e, da mesma maneira, as inter-relações da Ciência com outras potências do Espírito – a Filosofia, a Arte – precisam se renovar.
Que avaliação podemos fazer hoje, no encerramento da primeira década do novo milênio, sobre estas questões? Há sessenta anos, o cientista, romancista e político britânico C. P. Snow publicou uma obra imensamente influente: As duas culturas. Nela, Snow constata, e deplora, dois abismos, duas fissuras marcantes, na cultura ocidental do pós-guerra: a primeira sucedia entre os praticantes das Ciências ditas “Exatas” e os das chamadas “Humanidades”; a segunda se dava, nos planos econômico e político, entre nações (regiões, de fato) “ricas” e “pobres”, ou seja, entre países economicamente afluentes (ou “desenvolvidos”) e economicamente carentes (ou “subdesenvolvidos”). Na maior parte do texto, Snow brande vigorosamente argumentos em favor de se reconhecer a educação pública e universalmente difundida como o meio régio de superar a segunda fissura (e assim, em atitude destemida, em tempos de guerra fria, elogia o sistema educacional da então União Soviética). Contudo, foi sua crítica à cizânia entre cientistas e homens de letras vigente a essa altura nos círculos acadêmicos britânico e norte-americano que se tornou célebre; talvez a essência dessa crítica possa ser resumida pela famosa anedota que se segue: numa reunião de eruditos de ambas as áreas, numa prestigiosa e tradicionalíssima instituição universitária inglesa, Snow percebeu que a divisão de disciplinas se reproduzia na separação das conversas – literatos dialogavam com literatos, cientistas proseavam com cientistas (e ambas as coortes ignoravam os matemáticos!). Na dupla qualidade de fisico e escritor, Snow procurou romper a barreira e indagou, a um grupo de seletos autores, se algum deles estava a par do significado do Segundo Princípio da Termodinâmica. A resposta foi uma negativa unânime, fria e levemente hostil. “Mas”, desferiu Snow, “trata-se do equivalente, para a Ciência, da obra de Shakespeare!”. Se todos os presentes, literatos e cientistas, sem exceção, tinham conhecimento das criações do Bardo, por que a ignorância absoluta acerca de um conceito científico tão fundamental? A causa dessa distorção, concluiu ele, deveria ser buscada no sistema de ensino britânico, que fomentaria nos jovens a segregaçãduas culturas, científica e humanista. (Num comentário posterior, Snow reconhece que a comparação era um tanto exagerada; os químicos ou os fisicos, por exemplo, podem desconhecer noções de suma importância para os biólogos ou os médicos; seria mais justo, assim, equiparar o Segundo Princípio à obra de um autor menos notório que Shakespeare.)
A repercussão dos argumentos de Snow entre os cientistas foi enorme, e marcou fortemente os debates sobre o ensino e a prática de Ciências nas décadas seguintes. A reação de alguns importantes literatos, porém, foi muito outra. R. J. Leavis, um dos mais conhecidos críticos literários da época, publicou um devastador ataque ad hominem as ideias de Snow: “nem sequer pode ser considerado um escritor!”, afirma ele; como então levar a sério suas teses sobre o estado da cultura?! Para Leavis, além do mais, a Ciência está preocupada apenas com “produtividade, padrões de existência material, progresso higiênico e técnico”; desse modo, vê os cientistas como”[…] rasamente otimistas, despercebidos da condição humana” (recordemos que eram tempos em que a tragédia suprema das Grandes Guerras havia abolido a confiança iluminista no progresso humano e avanços técnicos de indiscutível importância – como o início. da Era Espacial e a ameaça do Armagedom termonuclear – inauguravam uma era de incertezas crescentes, rica tanto de oportunidades inéditas quanto de perigos terríveis). A esse ceticismo desesperançado, Snow ofereceu uma resposta à altura: “Há muito da condição humana que não é destino ou fatalidade, e contra o que seríamos menos que humanos se não lhe oferecermos resistência e combate!”.
Se examinarmos as inclinações presentes na cultura contemporânea acerca da Ciência (e da Técnica), decerto encontraremos um quadro distinto daquele de seis décadas atrás; contudo, certos traços muito significativos da atitude dos não cientistas para com a prática tecnocientífica, que já haviam sido assinalados por Snow, parecem ter permanecido – ou até recrudescido. Uma enquete recente acerca da perspectiva dos europeus sobre o funciona mento da Ciência e suas instituições revela uma incompreensão básica de como opera o empreendimento científico: uma larga maioria espera que seja possível aos médicos, por exemplo, garantir “cem por cento de eficácia e segurança” a um medicamento. A especialização cada vez mais restritiva, em particular na formação de doutores, não parece ter arrefecido em parte alguma, e muito menos, como desejava Snow, ter se revertido. E a cesura entre os praticantes das Ciências e das Humanidades tampouco esmoreceu, como sugere a ácida sentença de Martin Amis: “Ciência é Conhecimento, Conhecimento é Poder, Poder corrompe – os mais inteligentes na classe política sempre compreenderam isso!”.
Seria talvez um exagero se concluir, mesmo que tentativamente, que o mainstream filosófico e humanista ainda se vincula a uma imagem clássica, demasiado clássica, da Ciência e da Técnica, ainda se prende ao dialeto newtoniano da Ciência do século XIX? No entanto, os clarins já soaram, e a nova aurora avança com cores mais imprevistas do que nunca. Olhando para amanhã, podemos nos alinhar a Henri Miller: “Para mim, veja, os Artistas, os Poetas, os Filósofos, trabalham duramente polindo lentes. Trata-se de vastos preparativos com vistas a um acontecimento que não cessa de se produzir. Um dia a lente será perfeita, e nesse dia todos veremos com clareza a assombrosa, a extraordinária beleza deste mundo”.
Referências bibliográficas
BELL, Jeffrey. Philosophy at the Edge of Chaos. Toronto: University of Toronto Press, 2007. BORGES, Jorge Luis. O Aleph. São Paulo: Globo, 1997.
CARROLL, Sean. Infinitas formas de grande beleza. Rio de Janeiro: J. Zahar, 2006.
CHRISTIAN, David. Maps of Time. Berkeley: University of California Press, 2004.
DELEUZE, Gilles. Diferença e repetição. Rio de Janeiro: Graal, 1988.
DEUTSCH, David. A essência da realidade. São Paulo: Makron, 2000.
ERNESTO SABATO. Nós e o Universo. Rio de Janeiro: Francisco Alves, 1985.
HADAMARD, Jacques. Psicologia da invenção na Matemdtica. Rio de Janeiro: Contraponto, 2009.
HEISENBERG, Werner. A parte e o todo. Rio de Janeiro: Contraponto, 1996.
JOHNSON, Neil. Simply Complexity. Oxford: Oneworld Publishing, 2007.
JOHNSON, Steven. Emergência. Rio de Janeiro: Jorge Zahar, 2003.
KELLY, Kevin. Disponível emhttp://www.kk.org/ thetechnium/ index.php
LANDA, Manuel de. A Thousand Years of Non-Linear History. Nova York, Swerve Eds., 2000. LESTIENNE, Rémy. O acaso criador. São Paulo: EdUSP, 2,008.
NOVAES, Adauto (org.). Mutações: a condição humana. Rio de Janeiro: Agir; São Paulo: Edições SESC SP, 2009.
.Mutações: ensaios sobre as novas configurações de mundo. São Paulo/Rio de Janeiro: Edições SESC SPI Agir, 2008.
NOVAK, Martin. Evolutionary Dynamics. Cambridge: Belknap, 2006.
NOVELLO, Mario. Do Big Bang ao universo eterno. Rio de Janeiro: J. Zahar, 2010.
.O que é Cosmologia? Rio de Janeiro: J. Zahar, 2006.
OLIVEIRA, Luiz Alberto. “Biontes, Bioides e Borgues”. Adauto Novaes (org.), O homem
-máquina. São Paulo: Companhia das Letras, 2003.
POINCARÉ, Henri. Ensaios fondamentais. Rio de Janeiro: Contraponto/ PUC-RJ, 2008.
.Henri. O valor da ciência. Rio de Janeiro: Contraponto, 1995.
POPPER, Karl R. Conjecturas e refutações. Brasília: EdUnB, 2008.
PRIGOGINE, Ilya e STENGERS, Isabelle. A nova aliança. Brasília: EdUnB, 1984. REEVES, Hubert et al. La sincronicidad. Barcelona: Gedisa, 1987.
REISER + UMEMOTO. Atlas of Novel Tectonics. Nova York: Princeton Architectural Press,
2006.
ROSMORDUC, Jean. Uma história da Física e da Química. Rio de Janeiro: J. Zahar, 1988. SIMONDON, Gilbert. Du Mode d’existence des objets techniques. Paris: Aubier, 1989.
SIMONDON, Gilbert. L’Individu et sa gênese physico-biologique. Grenoble: Millon, 1995. SNOW, C. P As duas culturas. São Paulo: EdUSP, 1995.
SPEYER, Edward. Seis caminhos a partir de Newton. Rio de Janeiro: Campus, 1995. ULPIANO, Claudio. O pensamento de Deleuze ou A grande aventura do espírito. Tese de Doutorado, Instituto de Filosofia e Ciências Sociais da Unicamp, Campinas, São Paulo, 1998 – não publicada.
WAAL, ‘Frans de. TheAge of Empathy. Nova York: Harmony Books, 2009.
WEYL, Hermann. Simetria. São Paulo: Edusp, 1997.