SciELO - Scientific Electronic Library Online

 
vol.11From plausible to probable: a short historical essay"Glue sniffing": social and physiological aspects of chronic solvents use author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Ciências & Cognição

On-line version ISSN 1806-5821

Ciênc. cogn. vol.11  Rio de Janeiro July 2007

 

Revisão

 

Tecnontologia & complexidade

 

Technontology & complexity

 

 

Renata T. S. Lemos; Benjamin L. Franklin; João B. M. Alves; Vinícius M. Kern

Programa de Pós-Graduação em Engenharia e Gestão do Conhecimento, Universidade Federal de Santa Catarina (UFSC), Florianópolis, Santa Catarina, Brasil

 

 


Resumo

Este artigo aborda o entrelaçamento de três fenômenos contemporâneos. O primeiro diz respeito à emergência de uma epistemologia da complexidade, através de evoluções epistemológicas dentro da história da ciência, que trazem a incerteza como fator determinante. O segundo é o fenômeno de re-ontologização tecnológica da realidade e o surgimento de uma tecnontologia mediada pelas tecnologias NBIC (Nano Bio Info Cogno). O ponto de convergência entre a epistemologia da complexidade e a tecnontologia está na percepção, ao mesmo tempo científica, filosófica e tecnológica, de uma unidade informacional entre Múltiplos Níveis de Realidad.  (MNR).  Finalmente, o terceiro se refere às limitações do método científico e às novas posturas metodológicas que emergem em resposta a este entrelaçamento. Estas novas posturas metodológicas podem ser observadas no fortalecimento do Interpretivismo e no uso da Simulação como instrumento de pesquisa transdisciplinar.

Palavras-chave: complexidade; níveis de realidade; ontologia, tecnontologia; interpretivismo; transdisciplinaridade.


Abstract

This article addresses the interlacement of three emerging phenomena. The first concerns the emergence of an epistemology of complexity, configured by advances in the history of science, which have uncertainty at its core. The second addresses the technological re-ontologizing of reality and the appearance of a technontology mediated through NBIC (Nano Bio Info Cogno). There is a point of convergence between epistemology of complexity and technontology embodied in the perception of an informational unity, both philosophical, scientific and technological, between Multiple Levels of Reality (MLR). Finally, the third is related to the limitations of science and to the new emerging methodological approaches to these phenomena. These new approaches can be observed on the renewal of Interpretivism and the use of Simulation as a transdisciplinary research tool.

Keywords: complexity; levels of reality; ontology; technontology; interpretivism; transdisciplinarity.


 

 

Introdução

O conceito de complexidade pode ser definido como "a propriedade que torna difícil a formulação do comportamento geral de um sistema, mesmo quando a informação sobre o funcionamento e inter-relação de seus componentes parece estar completa" (Edmonds, 1996). Este conceito é resultado de uma série de avanços dentro da história da ciência, que demonstram a co-existência de propriedades complexas compartilhadas por todas as áreas do conhecimento. As propriedades transdisciplinares da não-linearidade, não-determinismo, auto-organização e emergência, constituem as características gerais dos fenômenos complexos.

A complexidade possui aspectos científicos, filosóficos e tecnológicos. A partir desta abordagem tríplice, observamos que uma teoria geral da complexidade começa a emergir ao redor do conceito de múltiplos níveis de realidade. A física quântica desdobra outros níveis de realidade microfísica (Nicolescu, 2000); a filosofia da informação (Floridi, 2002) aborda os diversos níveis do Real através da fenomenologia e da ontologia (Poli, 1998); e a tecnologia digital contrapõe o Real ao Virtual (Lévy, 1996).

A ciência, assim como a filosofia e a tecnologia vêm ultrapassando limites disciplinares e adentrando outras áreas do conhecimento. Este diálogo entre ciência, filosofia e tecnologia denota a natureza transdisciplinar da complexidade e faz com que novas modalidades de investigação sejam necessárias à sua pesquisa.

Se a complexidade envolve simultaneamente ciência, filosofia e tecnologia, qual a metodologia apropriada a seu estudo: o método científico, o discurso filosófico ou a experimentação tecnológica? É possível uma combinação entre todos?

A necessidade de elaboração de novos parâmetros intelectuais para a interpretação da complexidade faz com que a ciência gere também uma re-interpretação de si mesma (Fuchs, 2004). A ciência da complexidade traz à tona a complexidade da ciência. Temos então a metaciência da complexidade, fortemente ancorada na tecnologia.

As Tecnologias de Informação e Comunicação (TICs) trazem consigo implicações ontológicas relativas à convergência digital, como nas tecnologias NIBC (Nano, Info, Bio e Cogno), em uma relação direta com a complexidade. A tecnologia em combinação com a complexidade trouxe novas percepções ontológicas sobre o que existe e pode ser conhecido. A esta combinação entre tecnologia e ontologia filosófica chamamos tecnontologia. No decorrer deste artigo iremos fornecer um panorama geral da complexidade; relacionar seus principais aspectos tecnológicos e filosóficos; e identificar elementos cabíveis a uma abordagem interpretativa da complexidade.

 

Origens históricas da complexidade

A ciência tem sido a voz da verdade conhecida na sociedade, desde os tempos do Iluminismo: "o cientista, a partir de então, passa a ser visto como o legítimo portador de verdades absolutas, da eficiência, da neutralidade e da objetividade total sobre os fenômenos naturais" (Dorea & Segurado, 2004). De um período histórico onde a religião estabelecia as verdades e as crenças, a Idade Média, a outro onde esse papel passa gradativamente para a ciência, temos o apogeu da racionalidade científica no positivismo, que modela o pensamento da modernidade.

A certeza da modernidade dá lugar à incerteza do contemporâneo. A noção da incerteza como desafio ao paradigma moderno não pertence inteiramente ao domínio da mecânica quântica. Ela emerge simultaneamente em outras disciplinas. A semente inicial da transição paradigmática que veio dar origem à complexidade pode ser encontrada também na matemática e até mesmo na física clássica. Em um primeiro momento, ela é relativa à mecânica dos corpos celestiais, com Poincaré, para somente depois se aplicar aos níveis subatômicos da realidade material, com Heisenberg, Bohr e Prigogine. Os limites da lógica formal como mecanismo absoluto de saber foram enunciados anteriormente aos do Princípio Quântico da Incerteza de Heisenberg.

Tudo começa no macronível da mecânica celestial, com a formulação do chamado "problema dos n-corpos" de Poincaré (que é basicamente o problema de se determinar a trajetória subseqüente de n-corpos celestiais, dada sua massa, peso, velocidade e posição inicial), o qual foi a primeira demonstração matemática do comportamento caótico e imprevisível de um sistema complexo: o das estrelas. Um século depois, este problema permanece à espera de uma solução que o satisfaça inteiramente (até hoje não se consegue prever completamente a trajetória dos corpos celestiais devido à presença das singularidades, espaços de anti-matéria que habitam o interior dos buracos-negros). Henri Poincaré, ao invés de considerar a lógica como a base principal da matemática, apresentava a intuição como sendo a "vida da matemática". Uma frase muito citada de seu livro Ciência e Hipótese diz que "para um observador superficial, a verdade científica está além da possibilidade da dúvida; a lógica da ciência é infalível, e se os cientistas às vezes cometem erros, isso acontece simplesmente porque eles não seguiram o método científico apropriadamente" (Poincaré, 1905). Infere-se desta afirmação que para um conhecedor profundo da ciência e de seu método, a premissa oposta seja verdadeira: a ciência pode ser questionada, a lógica da ciência é falha, e seu método é incompleto.

A mentalidade moderna, tão contrária à mentalidade de Poincaré (um pensador da complexidade que vivia o auge da mecanicidade), se baseia na crença inamovível na racionalidade todo poderosa e na ciência como primeira e última instância de conhecimento. Gödel desafia esta mentalidade durante a Primeira Conferência Internacional de Matemática, em 1930, onde anuncia seu Teorema da Incompletude: "em qualquer sistema formal tratável pela teoria dos números, haverá uma equação indecidível (impossível de ser resolvida) - uma equação que não pode ser comprovada e cuja negação também não pode ser comprovada" (Tassinari, 2001).

Incompletude

Gödel revolucionou a teoria matemática quando afirma a incompletude da sua racionalidade ao verificar que em qualquer sistema adequado à teoria dos números, existirá um axioma completamente independente a ela.

Segundo o Primeiro Teorema da Incompletude de Gödel, existem algumas afirmações verdadeiras dentro da teoria dos números que não poderão ser provadas por esta mesma teoria (Alkaine, 2006). Gödel chama estas proposições matemáticas de proposições indecidiveis. A partir desta constatação, que foi confirmada e desenvolvida por matemáticos consagrados como Gregory Chaitin, iniciou-se todo um processo de reflexão sobre a inter-relação da matemática com a filosofia, a biologia e a ciência da informação.

Chaitin irá explorar estas idéias a fundo. Desenvolve uma Constante Ω, que confirma a validade do Teorema da Incompletude de Gödel e o aplica à computação, estabelecendo as bases da Teoria da Complexidade Computacional. A Constante Ω, em termos simples, é definida como a medida de probabilidade de mal-funcionamento aleatório de um programa. Basicamente, Chaitin vem acrescentar o conceito de aleatoriedade ao conceito de incompletude de Gödel. A matemática se revela não apenas incompleta, como também aleatória (Chaitin, 1970).

Caos

A ciência formal, fornecedora das certezas, da precisão e da causalidade, mostra-se crivada de imprecisões, aleatoriedade e incerteza. Paralelamente a estas descobertas, o surgimento da Teoria do Caos vem intensificar a relevância desta transição. Em 1962, Edward Lorenz, do MIT, publica um artigo que entraria para a história da ciência. Com este artigo, intitulado Fluxo Determinístico Não-Periódico, inaugura-se o conceito de comportamento sistêmico complexo na meteorologia: "prever um futuro razoavelmente distante é impossível através de qualquer método" (Lorenz, 1963).

Lorenz continua a quebrar paradigmas com a publicação de outro artigo extremamente importante em 1972, no qual cunha a expressão Efeito Borboleta, conceito chave para o estudo de sistemas complexos não-lineares. Com o artigo "Previsibilidade: o bater de asas de uma borboleta no Brasil pode desencadear um tornado no Texas?", Lorenz provoca um verdadeiro efeito borboleta na ciência (Hilborn, 2004). A resposta para esta pergunta auto-explicativa é sim. Ela nos dá a definição de Efeito Borboleta, que é a propriedade de um fenômeno muito pequeno dar origem a outro muito grande. A noção de Efeito Borboleta é central à Teoria do Caos, e tem sido utilizada como referência para milhares de pesquisas científicas, em praticamente todas as áreas do conhecimento.

A Teoria do Caos reforça as idéias de instabilidade e aleatoriedade, e acrescenta o conceito de hiper-conectividade à teoria emergente da complexidade.

Simultaneamente, na biologia, a pesquisa sobre redes neurais (sistemas complexos não-lineares) confirma estas propriedades ao demonstrar que o funcionamento do cérebro ocorre de maneira não-linear (Pavard, 2001).

Incerteza

Enquanto isso, na física, chega-se ao não-determinismo, incerteza e instabilidade por outros caminhos. Heisenberg, Pauli e Brouglie descobrem o mundo subatômico, composto por partículas-onda, instáveis e não-lineares (Fróis, 2004). Todo sistema cujo comportamento não pode ser explicado simplesmente pela soma das relações de suas partes ou múltiplos, é um sistema não-linear. (Khalil, 2001). Na não linearidade, a relação direta entre causa e efeito desaparece.

Desde que nos deparamos com a instabilidade de um quantum (a partícula que se transforma continuamente em onda, ou a onda que se transforma continuamente em partícula) e com a conseqüente comprovação empírica do principio da não linearidade, a complexidade se firma como visão de mundo e novo paradigma.

Reduzida a realidade material a uma só e mesma massa composta de ondas e partículas de comportamento imprevisível, nos resta contemplar como estas micro manifestações de energia sutis e intrinsecamente instáveis se organizam em formas físicas tão distintas entre si quanto uma sinapse cerebral e uma mesa de madeira.

Somos compostos de partículas que quando podemos perceber, tem massa, e quando tem velocidade, são onda. A dimensão física de tudo ao nosso redor, inclusive nós mesmos, é feita da mesma matéria sutil no nível quântico. A forma como o quantum se organiza e se relaciona irá produzir os efeitos da multiplicidade de composições materiais, orgânicas e inorgânicas.

 

O todo é maior que a soma das partes

A partir da instabilidade no nível subjacente emergem degraus variados de aparente estabilidade nos níveis superiores dos compostos, organizações e organismos. Esta afirmação é valida para todas as áreas científicas, exatas, humanas e sociais, pois em todas elas encontramos sistemas complexos. A emergência pode ser observada tanto no funcionamento de um sistema vivo, como no de um elemento químico, tanto em um Estado-nação quanto na combustão de um motor, e assim por diante. A complexidade está intimamente ligada às dinâmicas e propriedades da emergência e da auto-organização. Seja na matéria orgânica ou inorgânica, a imprevisibilidade no nível subjacente a um determinado fenômeno dá origem a gradações de previsibilidade no nível superior observável.

Como compreender a manutenção da estabilidade observável dos compostos materiais (organizações sociais) se ela é produzida a partir da instabilidade microfísica (individual)? Esta característica é implícita ao fenômeno da emergência, e comum a todos os sistemas complexos, sejam eles físicos, biológicos ou sociais.

Bernard Pavard (2001) afirma que a teoria dos sistemas complexos foi desenvolvida ao redor de três áreas de pesquisa: sistemas não-lineares, redes neurais e sistemas auto-organizáveis. Em todos estes sistemas, iremos observar as seguintes propriedades:

  • Não-determinismo: é impossível antecipar com precisão o comportamento do sistema complexo, mesmo se conhecermos o funcionamento de cada uma de suas partes;
  • Desmembramento estrutural limitado: a estrutura do sistema complexo é dinâmica, e isso torna quase impossível estudar suas propriedades decompondo o sistema em partes;
  • Natureza Distribuída da Informação e Representação: não se pode localizar precisamente o lócus de algumas de suas funções;
  • Emergência e auto-organização: uma outra manifestação/organização emerge a partir de interações não totalmente identificáveis.

A contribuição mais importante da teoria dos sistemas complexos para a ciência foi a descoberta de que, mesmo conhecendo todas as etapas observáveis do funcionamento de um sistema, e determinando neste uma seqüência de causalidade perfeita, ainda assim não se pode garantir sua reprodutibilidade e a continuidade de seus efeitos. O que isso quer dizer é que um sistema verdadeiramente complexo pode ou não funcionar da mesma maneira, independentemente das condições iniciais de sua ocorrência serem ou não as mesmas. Em outras palavras: um sistema complexo apresenta um comportamento não-determinado, não-linear, irreproduzível e irreversível. A raiz quântica dos fenômenos físicos e biológicos internos e externos ao ser humano, os quais sempre foram considerados determinísticos e previsíveis, é incerta e imprevisível.

Podemos deduzir que a realidade observável ao macronível é apenas aparentemente sujeita às leis da ciência formal, ou que apenas alguns níveis de realidade estão sujeitos a estas leis.

 

Múltiplos níveis de realidade

A física quântica demonstrou a existência de outros níveis de realidade que desafiam as leis que regem todas as outras formas conhecidas de matéria. Contudo, a noção de níveis de realidade é tradicionalmente filosófica. Na ontologia filosófica clássica, a noção de múltiplos níveis de realidade não é nenhuma novidade. Pelo contrário, a ontologia se fundamenta nesta multiplicidade. As teorias filosóficas dos múltiplos níveis de realidade distinguem quatro grandes níveis: o da realidade natural, física, fenomenológica e intuitiva; distinguindo os níveis da realidade material e os da realidade formal (Poli, 1998). A importância da idéia da multiplicidade dos níveis de realidade é tamanha na filosofia que ela atua como pilar de sustentação para a fenomenologia e também para a metafísica. Heisenberg, um dos pais do não-determinismo quântico, também já havia apontado na direção do conceito de diferentes níveis de realidade (Nicolescu, 2000). Um nível de realidade se diferencia de outro por estar sujeito a leis distintas. As leis que regem a atividade microfísica não são as mesmas que regem a atividade macrofísica. Surge a Lógica do Terceiro Incluído, à qual Nicolescu chama de "lógica privilegiada da complexidade" (Nicolescu, 2000). A Lógica do Terceiro Incluído tem como pressuposto a existência de múltiplas realidades paralelas. Toda matéria é imaterial em sua potência quântica, e aquilo que é a princípio imaterial, como o pensamento, também inversamente exerce uma potência material. Estes outros níveis de realidade entrelaçam o visível ao invisível, em uma rede de ambientes de informação mais ou menos acessíveis à percepção sensorial imediata.

 

Real vs. virtual

Se outros níveis de realidade começam a ser percebidos no universo microscópico das partículas, eles também começam a ser concebidos e explorados através das tecnologias digitais. O cerne do potencial transformador das TICs, assim como o da complexidade, se refere à profunda renovação das idéias que o homem faz de si mesmo, do universo, de sua relação com este universo, e da maneira através da qual ele as representa e comunica. A filosofia da informação aborda este fenômeno.

Existem muitos pontos de contato entre a filosofia da informação e a complexidade. O avanço das TICs traz outras contribuições à teoria da complexidade, quando o Virtual se firma como um dos conceitos chave da convergência digital. Ao estabelecer o Virtual em contraposição ao Real, outras camadas de realidade são desdobradas a partir da tecnologia (Lévy,1996). A possibilidade de imersão em realidade virtual gera novos questionamentos sobre a natureza do que chamamos Real.

Estes novos questionamentos trazidos pelas TICs continuam a se multiplicar na medida em que estas mesmas tecnologias evoluem, interagem e transformam os diversos níveis de realidade acessíveis à consciência humana. Os múltiplos níveis de realidade e as relações de interdependência entre eles são aqui entendidos através da expansão cognitiva digital e reconfigurados a partir das novas tecnologias.

 

Infosfera e realidade úmida

A dimensão tecnológica da complexidade é intrinsecamente transdisciplinar. Tanto na filosofia como na arte contemporânea, encontramos tentativas de lidar com os mesmos processos de evolução ontológica mediada pela TIC. Exemplos importantes são o pensamento de Luciano Floridi e Roy Ascott, os quais interpretam as TICs em abordagens complementares e em perfeita sintonia com a complexidade. De um lado, o foco é na realidade externa, com a filosofia da informação de Luciano Floridi, que interpreta "the internet of things" e a nanotecnologia como elementos criadores de um ambiente infosférico (Infosfera): todos os seres e coisas adquirem uma ITentidade informacional. Ele aborda o impacto da inteligência artificial principalmente na "inteligentização" da realidade externa da experiência humana (Floridi, 2007).

Floridi aponta para uma convergência entre diferentes níveis de realidade em termos do fim próximo da distinção entre online e offline: seja digital ou genético, tudo é código, tudo é informação - e se tudo é informação, tudo se comunica. De outro lado, Roy Ascott, célebre acadêmico e artista de mídias eletrônicas, centra sua análise na transformação da realidade interna do ser humano, quando coloca a expansão digital da consciência no centro de sua pesquisa.

Ascott (2003) apresenta esta mesma idéia de convergência entre realidades distintas através do conceito de "realidade úmida" - o seco (a tecnologia, o inorgânico) se confunde com o molhado (o humano, o orgânico). Isso se dá através do surgimento de tecnologias que fazem com que a diferença entre on-line e off-line, entre digital e analógico, fique cada vez menos visível. Por exemplo, os avanços na tecnologia de selos RFID (radio frequency identification) permitem que qualquer objeto adquira uma identidade informacional, chamada de ITentidade por Floridi (2007). Estes selos são microchips minúsculos que podem ser incorporados tanto a objetos quanto a seres humanos ou animais, e permitem interação com a Internet. A produção de selos RFID tem aumentado exponencialmente, apontando para a popularização desta tecnologia em um futuro próximo. Este tipo de tecnologia nos faz imaginar um novo tipo de comunicação eletrônica, que não é restrita ao uso de computadores, mas se expande a uma rede de objetos interligada pela nanotecnologia. Supondo que a partir da aplicação da tecnologia RFID a objetos se torne possível conferir a cada ente uma ITentidade, e que esta possa se comunicar através da rede, com consciências humanas e agentes inteligentes, ocorre uma "inteligentização" das coisas. Seres adquirem propriedades de artefatos eletrônicos (expansão digital da consciência, comunicação ubíqua) e coisas adquirem propriedades de seres vivos (inteligência e capacidade de comunicação). Nesta rede, a consciência humana se relaciona a agentes de inteligência artificial, formando sub-redes complexas de inteligência coletiva, humanas e artificiais.

Esta combinação entre ser orgânico (consciência humana) e agente inteligente inorgânico (inteligências artificial) é representada pelo conceito de Inforg: "estamos nos transformando em seres conectados e informacionais" (Floridi, 2007). As diferenças fundamentais na essência dos atributos orgânicos e inorgânicos começam a se dissipar tecnologicamente, fazendo com que uma nova perspectiva ontológica de unidade na diversidade comece a surgir. Esta perspectiva é transdisciplinar e se deflagra como um aspecto tecnológico importante que pode ser identificado como elemento ontológico da complexidade. A complexidade pode cada vez mais ser observada nas relações tecnológicas entre artificial e humano, orgânico e inorgânico.

O eixo da transição ontológica tem seu lugar na plataforma telemática (tecnologia + telecomunicações) e é a tônica do pensamento de Roy Ascott (2003). Ascott confere à consciência o papel principal neste enredo informacional, quando outorga ao ciberespaço o status de realidade paralela de expansão da capacidade cognitiva. A esta cognição eletronicamente aumentada ele chama de Cibercepção: "A cibercepção envolve a convergência de processos conceituais e cognitivos nos quais a conectividade inerente às redes telemáticas atua como elemento formador" (Ascott, 1994). O conceito de Realidade Úmida (Ascott, 2003), formada pelo acoplamento do âmbito "molhado" da biologia ao "seco" da tecnologia digital, é equivalente à idéia de Infosfera, pois Ascott também identifica uma espécie de "consciência artificial" nascida desta interação entre homem e máquina.

Estes conceitos estão intimamente relacionados com a Lógica do Terceiro Incluído, pois este reconhecimento da existência de diversos níveis de realidade através do entrelaçamento de pontos que, dentro de uma perspectiva, estão separados, e de outra estão unidos, ocorre dentro de uma mesma lógica complexa. Se de acordo com a Lógica do Terceiro Incluído há um ponto T de convergência entre A e Não-A, na infosfera há também um ponto de convergência que une digital a não-digital; consciência humana a inteligência artificial.

Outro ponto importante de contato entre Floridi e Ascott é que para este último já não se pode mais distinguir, no universo como um todo, o homem do não-homem. Ascott aponta para a fusão entre mente-corpo-mundo, o que equivale ao conceito de unidade informacional na Infosfera, e que por sua vez nos remete à unidade quântica da complexidade.

 

Complexidade tecnológica

A teoria emergente da complexidade se fortalece e se desenvolve a partir de uma plataforma tecnológica. Temos então que a complexidade não é o produto isolado de um colapso generalizado dos axiomas formais da ciência, nem somente da descoberta da unidade quântica da matéria e de suas conseqüências epistemológicas. A complexidade também pode ser compreendida através de uma nova configuração sócio-tecnológica que potencializa seus efeitos e que simula seu significado, ao representar estes conceitos através de metáforas digitais.

Se a Lógica do Terceiro Incluído nos traz a comprovação da existência de outros níveis de realidade física e de sua unidade intrínseca, o desenvolvimento das tecnologias de informação vem literalmente criar novos níveis de realidade, ao alterar e expandir o alcance cognitivo da consciência humana. Temos no ciberespaço e nos ambientes de imersão em realidade virtual âmbitos de realidade paralela na expressão e movimento da consciência humana, que ao se acoplarem à agentes de inteligência artificial e possibilitarem interações complexas à distância, modificam a estrutura da realidade, que passa a ser constituída por uma mistura tecnológica cada vez mais integrada entre níveis do Real e diversos níveis do Virtual. A relação da TIC como plataforma e metáfora pertinente ao entendimento da Lógica do Terceiro Incluído é evidente e se impõe com força: a desmaterialização perceptual da realidade não é apenas quântica, mas também digital.

A percepção de múltiplos níveis de realidade ocorre tanto no espaço quântico quanto no espaço cibernético. A fluidez digital dos mundos virtuais, onde a informação configura múltiplas realidades sensoriais através de um mesmo código binário, acontece como metáfora poderosa à fluidez quântica do mundo real, onde uma mesma polaridade entre onda e partícula configura múltiplos espaços e ambientes. O homem começa a perceber a unidade subjacente entre si e tudo o que o cerca, ao mesmo tempo em que observa uma multiplicidade cada vez maior de níveis e dimensões de realidade dentro desta unidade. A complexidade diz respeito a todos estes níveis e suas inter-relações. São muitas as implicações deste processo. Dentre todas elas, a que iremos analisar neste artigo se refere ao impacto da complexidade no método científico e na nova produção de conhecimento.

 

Para além da razão

A partir desta contextualização histórica, que começou no século passado e veio até a contemporaneidade, vemos que a complexidade se define a partir de um mosaico transdisciplinar de conceitos e propriedades vindos de diversas áreas do conhecimento.

Na matemática: incompletude e aleatoriedade. Na física: não-determinismo e incerteza. Na biologia: emergência e auto-organização. Na ciência como um todo e na filosofia: múltiplos níveis de realidade, que atendem a leis distintas. Na tecnologia: convergência digital NBIC. Temos armada a cena do impasse. Confrontamos a existência de outros níveis fenomenológicos, que simplesmente não podem ser mensurados, quantificados, rotulados, codificados, reproduzidos precisamente, como requer o método científico.

 Como a razão tem sido a capacidade humana que foi escolhida pela modernidade como o instrumento fundamental de operação e regulação da produção de conhecimento, não se sabe o que usar em seu lugar, nos casos em que ela não basta.

Estão em falta novas abordagens. Enquanto estas não emergem, continuam sendo usadas as mesmas metodologias científicas direcionadas à obtenção de respostas e resultados racionais, quantificáveis, e lineares. Se o método científico tem, tradicionalmente, como principais objetivos a reprodutibilidade e a reversibilidade de um fenômeno, com vistas a controlar e prever seu funcionamento, até que ponto é possível aplicá-lo ao estudo de um sistema complexo, por definição irreprodutível e irreversível? Se a razão por si só não é suficiente para dimensionar todos os aspectos da complexidade, o que devemos adicionar a ela? Estas questões estão em aberto.

Não podemos deixar de questionar sobre como o pensamento complexo tem sido aplicado e desenvolvido dentro de uma prática científica baseada em premissas lineares e cartesianas.

 Esse questionamento é basilar; e dirige-se ao centro do entendimento que temos sobre o que é ciência. O método científico se baseia em hipóteses e experimentos, que darão origem a teorias, através de procedimentos supostamente objetivos.

Exclui-se a participação do sujeito na formulação destas hipóteses, partindo-se do pressuposto de que uma total objetividade é possível. Ele se apóia em uma idéia de realidade física, obediente a leis determinadas, previsíveis, lineares, e tem como maior objetivo criar experiências reversíveis que possam ser reproduzidas. Mas a complexidade é o contrário de tudo isso. A realidade complexa é, uma vez mais: indeterminada, imprevisível, não linear, irreproduzível e irreversível.

A ciência contemporânea nos tem mostrado que estas propriedades são intercambiáveis, simultâneas e co-existentes a todas as áreas do conhecimento.

 A complexidade é transdisciplinar, ou seja, existe através, dentro e entre as disciplinas e áreas do conhecimento. A complexidade permeia e se refere ao corpo inteiro da ciência, e sua verdade é uma verdade-conflitante, uma verdade-discursiva, uma verdade-em-desenvolvimento: "toda teoria científica representa uma tentativa de apropriação da verdade, uma verdade baseada em uma metodologia sistemática, em processos permanentes de avaliação e correção, e em um discurso baseado no conflito. Isso quer dizer que as verdades científicas não são verdades absolutas, mas sim verdades-questionáveis, verdades-discursivas, verdades-conflitantes e verdades-em-desenvolvimento" (Fuchs, 2004). A insuficiência operatória do método científico gerou um vácuo metodológico na pesquisa sobre a complexidade. Há que se rever a atitude científica perante a complexidade. Na ausência de uma metodologia adequada à complexidade, e da humildade necessária ao reconhecimento desta limitação, permanece a armadilha de aplicar procedimentos metodológicos tradicionais em pesquisas sobre a complexidade. O resultado é que se pretende abordar o que é intrinsecamente imprevisível, irreproduzível, indeterminado, através de métodos que se destinam a produzir resultados previsíveis, determinados e reproduzíveis.

É impossível reduzir a complexidade a um objeto analisável pelo método científico tal como se apresenta, muito embora seu conceito tenha sido um produto da aplicação deste mesmo método em diversas áreas.

Contudo, como "o conhecimento que possuímos sobre sistemas complexos é baseado nos modelos que fazemos dos sistemas, e para que possam funcionar como modelos - e não apenas como uma mera repetição dos sistemas - eles devem reduzir sua complexidade" (Cilliers, 2005). Quando ocorre uma redução da complexidade, a tal ponto que o método científico possa ser a ela aplicado com aparente correção e precisão, isso se dá porque esta redução altera o status do sistema pesquisado de complexo para dinâmico. Temos aqui a atitude científica mecanicista aplicada ao estudo da complexidade: ao invés de romper com o método científico tradicional quando confronta a complexidade, tentará aplicá-lo a ela; mas para que isso seja possível, reduzirá o escopo do fenômeno complexo até que ele perca suas propriedades, tornando-se meramente dinâmico. O conhecimento produzido por estas tentativas de redução da complexidade é também reduzido. A seguir iremos explorar novas possibilidades, mais amplas, de abordagem à pesquisa da complexidade.

 

Metaciência e complexidade

A lógica clássica é binária e unidimensional, enquanto a lógica da complexidade é difusa e multidimensional. Ela deflagra uma transição paradigmática na ciência, na qual estas propriedades são encontradas em todos os sistemas complexos, incluindo-se o sistema científico. A metaciência contemporânea vê a própria ciência como um sistema complexo auto-organizado e emergente, que obedece a uma lógica complexa. A ciência é um sistema complexo que processa informações advindas de seus subsistemas disciplinares. Deste sistema emerge a transdisciplinaridade como fenômeno de auto-organização científica contemporânea. Dentro da estrutura científica auto-organizada, os processos de pesquisa são interfaces entre o corpo científico e o mundo.

Novas teorias emergem da troca de informações entre membros da comunidade científica e a sociedade como um todo, e estas teorias por sua vez irão gerar novas práticas. A ciência é um sistema de produção, disseminação e validação de conhecimento. Quando este conhecimento é auto-referente, temos a metaciência. A complexidade é um exemplo de teoria emergente que atua circularmente na metaciência através da transdisciplinaridade. A metaciência da complexidade pertence à terceira fase: ela traz consigo uma dialética complexa entre o sujeito da ciência e o objeto da ciência, e nela ambos são interdependentes. A pesquisa da complexidade exige a unidade entre indução e dedução, ação e estrutura, realidades internas e externas, continuidades e descontinuidades (Cilliers, 2005).

 

Interpretivismo

Paralelamente ao desenvolvimento da teoria da complexidade, a pesquisa interpretivista tem se fortalecido como metodologia científica alternativa. O interpretivismo considera o pesquisador como ente inseparável da realidade de pesquisa (Orlikowsky & Baroudi, 1991). No mecanicismo, temos a crença na existência de uma única realidade objetiva; no interpretivismo, busca-se o conhecimento de realidades distintas através da experiência do Sujeito-Observador. O conhecimento interpretativo destas realidades Subjetivo-Objetivas é composto de construções sociais, linguagens simbólicas e interações culturais. A abordagem interpretivista privilegia o contexto situacional em que um determinado fenômeno ocorre, e seu foco é no processo ao invés do resultado (Klein e Myers, 1999). No método científico clássico, assume-se que os dados e informações relativos à realidade são medidas válidas do conhecimento atingido através da pesquisa. No interpretivismo, é a intencionalidade da interpretação destes dados e informações (quando relacionados às implicações da subjetividade do pesquisador) que irá modelar o conhecimento.

Outro contraponto é que o interpretivismo baseia a validade de suas conclusões não na verificação racional da aplicabilidade de uma teoria à realidade, mas sim na hermenêutica e na fenomenologia. A fenomenologia filosófica começa com Hegel, vai até Husserl, e se consolida com Heidegger (Introna & Ilharco, 2004). Para Hegel, é a atitude exploratória diante do fenômeno que conduz à ontogênese. Para Husserl, a relação entre o noético (o ato intencional da consciência) e o noemático (o conteúdo ou o objeto do ato noético) é que define a ontologia. Husserl estava mais interessado na consciência criadora da realidade. Ele chama de mundo-da-vida esta realidade criada através e para a consciência. Husserl já havia descoberto a existência de diversos níveis de realidade através da relação do sujeito-objeto, ou sujeito-observador. Já em Heidegger, a fenomenologia se centra naquilo que se auto-manifesta, e na inexistência de qualquer realidade fora da percepção (Lyotard, 1991). A hermenêutica considera a capacidade de apreensão do significado em sua forma textual. Aqui, é o significado em si mesmo o eixo fundamental do conhecimento da realidade. A hermenêutica é a ciência do como o significado será criado, comunicado, compartilhado e transformado dentro do mundo-da-vida da fenomenologia. O interpretivismo tem, então, como elementos centrais de sua metodologia de pesquisa:

  • A Percepção do Objeto;
  • A Consciência do Sujeito em relação ao Objeto;
  • A Intencionalidade da Ação do Sujeito;
  • O Significado atribuído ao Objeto através do Sujeito;
  • A Unidade do Sujeito-objeto.

O Interpretivismo é sempre exploratório e investigativo, interpretando o Sujeito-objeto da ciência desenvolve suas relações com o mundo-da-vida. Dentro do interpretivismo, a produção de conhecimento científico é um ato de interpretação intersubjetiva de significados, de entrelaçamento semântico entre diferentes níveis de realidade, em uma abordagem metodológica dinâmica e interativa.

 

Tecnontologia e simulação

Floridi assim define o conceito de re-ontologização: "a re-ontologização se refere a uma forma muito radical de re-engenharia, uma que não apenas opera o design, a estrutura e a construção de sistema (por exemplo, uma empresa, uma máquina ou um artefato) de forma inovadora, mas que fundamentalmente transforma sua natureza intrínseca. Neste sentido, as nanotecnologias e as biotecnologias não fazem apenas a re-engenharia do mundo ao nosso redor, mas também a sua re-ontologização" (Floridi, 2007). Esta re-ontologização se faz ainda mais significativa tendo em vista o fato de que ela é o fruto da interação de sistemas complexos (biológicos, tecnológicos, informacionais e cognitivos), os quais apresentam todas as suas propriedades características: não-determinismo, desmembramento estrutural limitado, natureza distribuída da informação e representação, emergência e auto-organização.

A re-ontologização do mundo é tecnológica e complexa. Começa a emergir uma tecnontologia da complexidade. Esta tecnontologia é caracterizada pela multiplicidade de níveis de realidade e pela mediação tecnológica na percepção, apreensão e representação do conhecimento. Assim sendo, a simulação desponta como instrumento cabível à investigação tecnontológica da complexidade, pois se na indução podemos encontrar padrões, e na dedução inferir seus significados, na simulação podemos ter contato direto com realidades que de outro modo permaneceriam inacessíveis, em uma expansão de nossas capacidades intuitivas (Axelrod, 1997). Para navegar na complexidade, é preciso expandir ao máximo nossa capacidade intuitiva. A simulação, que permite, além disso, replicar a multiplicidade dos níveis de realidade, é um instrumento que tende a se transformar em plataforma importante para a pesquisa da complexidade.

 

Conclusão

O impacto da complexidade e da tecnologia na ciência e em seu método é avassalador. Neste esboço, traçamos um pequeno mapa de suas implicações ontológicas, o surgimento de uma tecnontologia e apontamos algumas direções possíveis que começam a emergir. Uma tendência importante é o retorno da filosofia como referência para o estudo da complexidade, mediado tecnologicamente, tendo a simulação como instrumento possível. Outra tendência é a da integração entre sujeito-objeto e o fortalecimento e um interesse renovado pelo interpretivismo como metodologia de pesquisa apropriada à complexidade. Uma característica importante da tecnontologia da complexidade é a da unidade do código e a onipresença da informação.

A unidade quântica presente na diversidade de manifestações do Real - pressuposto da complexidade - está também presente na diversidade de manifestações do Virtual. A unidade do Virtual se dá pela ubiqüidade de um mesmo código binário, que configura todas as manifestações e representações digitais, a partir da polaridade existente entre o 0 e o 1. A unidade ontológica do Real ocorre, similarmente, pela onipresença da informação representada através de códigos genéticos e da polaridade entre onda e partícula.

A unidade subjacente ao Real é, assim como a do Virtual, dinâmica em sua potência e informacional em sua essência. Tanto o Real quanto o Virtual são criados a partir da informação em movimento. A dinâmica tecnológica do Real vs. Virtual, do Natural vs. Artificial, e o progressivo esfacelamento das fronteiras entre eles, é outro ponto de contato entre a complexidade e as novas tecnologias.

É impossível quantificar o complexo, mas é possível vivenciá-lo. É impossível reduzir o complexo sem que ele perca suas propriedades, mas é possível com ele interagir. Ao invés de quantificá-lo, vivenciá-lo. Ao invés de reduzi-lo, interagir com ele. Estes elementos (vivência e interação) são potencialmente formadores de uma nova postura científica perante a complexidade: transdisciplinar em sua natureza, exploratória em sua perspectiva, e interativa em sua dimensão.

 

Agradecimento

Basarab Nicolescu visitou a Universidade Federal de Santa Catarina, em 2006, como palestrante no I Festival Mundial da Paz. Foram o seu carisma e presença que despertaram nosso interesse pelo tema da complexidade. Desde 2006, ele tem se disponibilizado a responder várias de nossas dúvidas e questões, muitas delas relacionadas a este artigo. Fica aqui nosso sincero agradecimento.

 

Referências Bibliográficas

Alkaine, C.V. (2006), "The works of Godel and the so-called accurate sciences". Brazilian Magazine of Physics Education, (28-4).         [ Links ]

Ascott, R.e Shanken, E. (2003), Telematic Embrace: Visionary Theories of Art, Technology, and Consciousness. Berkeley: University of California Press.         [ Links ]

Ascott, R. (1994), "The Architecture of cyberception", 94 ISEA - The 5th International Symposium on Electronic Art, Helsinki, Finland. Retirado em 14/02/2007, de: http://caad.arch.ethz.ch/teaching/praxis/ss99/sources/ascott.html.         [ Links ]

Axelrod, R. (1997), "Advancing the Art of Simulation in the Social Sciences". In: Social Simulating Phenomena. pp. 21-40, Berlin: Springer.         [ Links ]

Chaitin, G. (1970), "Computational Complexity and Godel's Incompleteness Theorem", AMS Notices (17). 672 p.

Cilliers, P. (2005), "Complexity, Deconstruction and Relativism", Theory, Culture & Society. (Vol.22, n. 5).

Dorea, G. e Segurado, R. (2004), "Continuidades e descontinuidades em torno do debate científico". São Paulo Perspectivas, vol. 14, no. 3, 2004. (20 -30).         [ Links ]

Edmonds, B. (1996), "What is Complexity?" In: The Evolution of Complexity, Kluwer: Dordrecht.

Floridi, L. (2007), "A Look into the future impact of ICT on our lives", The Information Society. Retirado em 16/06/2007, de: http://www.informaworld.com/ .         [ Links ]

Floridi, L. (2002), "What is the Philosophy of Information?", CyberPhilosophy: The Intersection of Philosophy and Computing, special issue of Metaphilosophy. Retirado em 15/05/2007, de: http://www.blackwellpublishing.com/ .         [ Links ]

Fróis, K. (2004), "Uma Breve História do Fim das Certezas". Cadernos de Pesquisa Interdisciplinar em Ciências Humanas, UFSC. Retirado em 27/01/2007, de: http://www.cfh.ufsc.br/~dich/cadernos.htm.         [ Links ]

Fuchs, C. (2004), "Science as Self-Organizing System". In: Science of Self-Organization and Self-Organization of Science. Kiew: Abris.

Hilborn, R. (2004), "Sea gulls, butterflies, and grasshoppers: Brief history of the butterfly effect in to nonlinear dynamics", American Journal of Physics, (Vol.72).

Introna, L. e Ilharco, F. (2004), "Phenomenology, Screens, and the World: The Journey with Husserl and Heidegger into Phenomenology". In: Social Theory and Philosophy for Information Systems, Chichester: Wiley.

Khalil, H. (2001), Nonlinear Systems. New York: Prentice Hall.         [ Links ]

Klein, H. e Myers, M. (1999, "A Set of Principles for Conducting and Evaluating Interpretive Field Studies in Information Systems", MIS Quarterly, (23-1), 67-93 p.p.         [ Links ]

Lévy, P. (1996), "O que é o Virtual?" São Paulo: 34.         [ Links ]

Lorenz, E. (1963) "Deterministic Nonperiodic Flow". Journal of the Atmospheric Sciences (Vol. 20, In. 2,pp. 130-141).         [ Links ]

Lyotard, J. F. (1991), Phenomenology. SUNY Series in Contemporary Continental Philosophy. Albany: SUNY Press.         [ Links ]

Nicolescu, B. (2000), "Levels of Reality as a Source of Quantum Indeterminacy". In: Determinismo e complessitá. Rome: Armando Editore.

Nicolescu, B. (2007), The Reform of Education and Thought: complexity and transdisciplinarity. Retirado em 10/06/2007, de: http://www.cetrans.futuro.usp.br/.         [ Links ]

Orlikowsky, W. e Baroudi, J. (1991), "Studying Information Technology in Organizations: Research Approaches and Assumptions", Information Systems Research (Vol.2-n. 1).         [ Links ]

Pavard, B. (2001), "The Complexity Paradigm as a Framework for the Study of Cooperative Systems". In: Sociotechnical Cooperation and Complexity in Systems, Paris: Hermes.         [ Links ]

Poincaré, H. (1905), Leçons de mécanique celèste. Paris: Gauthier-Villars.         [ Links ]

Poli, R. (1998), "Levels", Axiomathes (1-2), pp. 197-211.         [ Links ]

Tassinari, R. (2001), Incompletude e Auto-organização: sobre a determinação de verdades lógicas e matemáticas. 2001. 238f. Tese. (Doutorado em Filosofia) - Departamento de Filosofia da UNICAMP, Campinas.         [ Links ]

 

Notas

R.T.S. Lemos
E-mail para correspondência: renatalemoz@egc.ufsc.br

Creative Commons License