Serviços Personalizados
Journal
artigo
Indicadores
Compartilhar
Ciências & Cognição
versão On-line ISSN 1806-5821
Ciênc. cogn. vol.11 Rio de Janeiro jul. 2007
Artigo Científico
A virada computacional da filosofia e sua influência na pesquisa educacional
The computational turn of the philosophy and its influence in the educational research
Maria Isabel TimmI; Ana Clara Bonini RochaI; Fernando SchnaidI; Milton ZaroI; Marilda ChiaramonteI, II
IPrograma de Pós-graduação em Informática na Educação, Universidade Federal do Rio Grande do Sul (UFRGS), Porto Alegre, Rio Grande do Sul, Brasil;
IIDepartamento de Engenharia e Informática, Universidade de Caxias do Sul, Campus Universitário de Bento Gonçalves (UCS_BENTO), Bento Gonçalves, Rio Grande do Sul, Brasil
Resumo
Este trabalho reflete sobre a confluência epistemológica dos pensamentos filosóficos e científicos, no território tecnológico aberto pela massificação dos computadores em todas as áreas de produção, representação, distribuição e validação de conhecimentos. Descreve e contextualiza expressões como virada computacional da filosofia (década de 90, Estados Unidos), relacionando-a com a familiaridade desenvolvida entre um grande número de pensadores e o universo contemporâneo da inteligência maquínica, que pregam a superação de posicionamentos de recusa ou estranhamento do mundo computacional, pela impossibilidade de abrir mão das potencialidades cognitivas e de compreensão da mente humana, espelhada em hardwares e softwares em níveis crescentes de sofisticação e capacidade de aprendizado. Descreve e contextualiza ainda a expressão mente computacional, cunhada de forma multidisciplinar, simultaneamente reflexiva, científica e pragmática, no escopo das chamadas Ciências Cognitivas, que absorvem o diálogo entre a Filosofia, a IA, as Neurociências, a Lógica, a Lingüística e a Antropologia. Objetiva-se, na convergência das grandes contribuições contemporâneas das áreas citadas, refletir sobre a emergência de novos paradigmas para a pesquisa educacional, que contemplem o novo olhar filosófico, tecnológico e de abrangência multidisciplinar.
Palavras-chave: virada computacional da filosofia; inteligência maquínica; informática na educação.
Abstract
This paper reflects on the confluence of philosophical and scientific thoughts in the technological context that have been revealed by the commoditization of computers in all areas of production, representation, distribution and acknowledgment since the end of the Twentieth century. It describes and contextualizes expressions such as computational turn in philosophy that was mentioned in the USA in the 90's. It also aims at connecting the expression with the familiarity developed by a great number of thinkers and the contemporary universe of the machine intelligence (Daniel Dennet). Those thinkers state the overcoming of refusal or odd attitude towards the computational world for the impossibility of giving up the cognitive potentialities and understanding of human mind reflected in hardware and software in increasing levels of sophistication and learning capacity. It describes and contextualizes the expression computational mind (based on Steve Pinker's description) simultaneously used in a multidisciplinary, reflexive, scientific and pragmatic way in the Cognitive Sciences that promote a comfortable dialogue among Philosophy, IA, Neurosciences, Logic, Linguistics and Anthropology. In the convergence of great contemporary contributions of the areas mentioned, it aims at reflecting on the emergency of new paradigms to educational research, which take into consideration a new philosophical, technological and multidisciplinary view.
Keywords: computational turn, computational mind, educational research.
Caminhos cruzados entre a filosofia, a ciência e a tecnologia
A década de 90 do Século XX consolidou uma tendência - a presença de computadores nos ambientes de praticamente todas as áreas do trabalho e do conhecimento - a qual, nos 40 anos anteriores, vinha sendo silenciosa e talvez involuntariamente semeada, uma vez que estes equipamentos eram inicialmente vistos apenas como ferramentas de pesquisa científica e de uso militar. Seu uso pessoal não foi um projeto acalentado de forma planejada pela comunidade científica e tecnológica, e acabou explodindo pela ação de jovens estudantes californianos entusiasmados pela computação, alguns dos quais com afiadíssimo senso de oportunidade empresarial, aliado a enorme criatividade, como foi o caso de Steve Jobs, desenvolvedor do padrão de interface de janelas, no pioneiro McIntosh; e de Bill Gates, que apropriou e disseminou a idéia de Jobs, associando-a a disseminação de softwares dirigidos a várias atividades profissionais, através do hoje onipresente sistema operacional Windows.
Naquele momento (a década de 90), a Internet dava seus primeiros passos para atingir o público leigo, através de navegadores (browsers) aptos a disponibilizar interfaces gráficas cada vez mais atraentes; e através de canais de transmissão cada vez mais robustos, até virem a ser popularmente conhecidos como acessos à Internet de banda larga, oferecidos por provedores comerciais e institucionais, em escala planetária. Ressalvando-se as desigualdades geográficas e econômicas cristalizadas ao redor do planeta, que relativizam obrigatoriamente qualquer generalização, pode-se dizer que, a partir de então, os computadores transformaram radicalmente a cultura, a comunicação, a formulação e a expressão do pensamento humano, com repercussão evidente sobre os processos educacionais1.
Já naquele momento inicial de massificação do uso computadores, o filósofo francês Pierre Levy2 (1993) refletiu sobre o impacto da cultura informatizada sobre a cognição dos indivíduos e as formas de representação das sociedades do final do Século XX, atribuindo às formas hipertextuais e hipermediáticas - a exemplo do que ocorreu com tecnologias anteriores de aquisição e representação de conhecimento - um valor estruturante do pensamento de seus usuários. As tecnologias da inteligência (de suporte à atividade intelectual) seriam, segundo ele, produto e produtor de formas de raciocínio de seus usuários, e a então nova tecnologia mediada pelo computador, em especial, pela sua forma de organização hipertextual de conteúdos inter-relacionados (além de outras características) seria bastante ergonômica em relação às formas naturais do pensamento humano: não lineares e associativas.
Bem antes da década de 90, entretanto, as reflexões sobre a natureza do conhecimento e as formas do pensamento científico e filosófico já apontavam para o que, à época, poderia ser considerada uma insólita interseção da ciência, da filosofia e...do computador! Brian Magee (2001) faz um vívido relato de sua formação como filósofo nas universidades de Oxford, na Inglaterra, e em Yale, nos Estados Unidos, onde foi fazer pós-graduação, entre 1955 e 56. Nesta última universidade, o jovem filósofo tomou contato com colegas que se dedicavam a "pesquisar laboriosamente as Teorias da Relatividade Geral e Restrita de Einstein, bem como a física quântica" (p. 77), buscando entender não apenas a natureza do espaço e do tempo, mas do conhecimento relacionado a essas novas teorias. Entre esses filósofos, descreve Magee, "os dois jovens lógicos mais brilhantes da universidade costumavam passar as férias em Washington, trabalhando para o governo no desenvolvimento de computadores, que na época estavam na tenra infância" (idem).
O relato do então jovem filósofo dá conta da importante mudança de paradigma que se instalava silenciosamente, tanto no mundo da ciência, cuja complexidade apontava para a volatilidade dos limites conceituais entre matéria/energia e tempo/espaço; como da tecnologia, que definitivamente aprendia a não ser apenas aplicação da ciência básica, mas inaugurava um território híbrido entre o pensar, o planejar, o simular, o testar e o implementar, sintetizado na simbólica figura do computador. Simbólica é também, neste relato, a presença simultânea do mundo do pensamento racional (filosofia) e da ação também mediada pela racionalidade (a ciência e a tecnologia).
Se havia alguém, naquele momento, considerando que a filosofia, a ciência e a tecnologia trilhavam caminhos separados, esse alguém talvez não tivesse percebido que, desde então, estavam cultivando uma fértil inter-relação e, possivelmente, uma interdependência cujos frutos estão sendo colhidos na contemporaneidade. Filosofia, ciência e tecnologia mudaram-se umas às outras, ao longo desse tempo de gestação de um novo paradigma multidisciplinar para o pensamento e a ação, para a teoria e para a prática do pensar e do fazer, e um dos objetivos desse trabalho é refletir sobre uma expressão que sintetiza o poder e a extensão desta mudança - virada computacional da filosofia; explorar alguns contextos históricos3 relacionados ao tema, bem como tangenciar aspectos relacionados aos caminhos cruzados entre a reflexão conceitual/interpretativa da filosofia, a racionalidade metodológica e verificadora da ciência e o pragmatismo científico da tecnologia disponível no século XXI, bem como a alguns de seus frutos, que se fizeram visíveis ao pensador contemporâneo, ao longo das últimas décadas.
A virada computacional da filosofia
Nos anos 50, como já se referiu, através do relato de Magee (2001), o diálogo entre filosofia e computação ainda era restrito a alguns poucos e brilhantes pesquisadores das duas áreas. A Internet terá o poder de mudar radicalmente essa situação. Em 1991, uma lista de discussões que circulava a partir da Universidade de Carnegie Mellon, nos Estados Unidos, a respeito de temas humanistas, trazia uma contribuição de Leslie Burkholder4, a respeito dos objetivos de uma publicação dedicada a refletir sobre:
Para exemplificar o primeiro item - uso de computadores para pesquisa e ensino de filosofia -, Burkholder citava o desenvolvimento de programas de computador como exemplo de idéias que poderiam contribuir para a filosofia da ciência. Sugeria também a construção de autômatos como exemplos de contribuição ao ensino da lógica; o raciocínio baseado em casos como exemplo de contribuição ao ensino e ao estudo da ética; e os softwares de análise de texto ao estudo da história da filosofia. Para referir-se à influência da computação no próprio ensino da filosofia, citava os materiais instrucionais baseados em computação (provavelmente incipientes à época, comparados com a sofisticada hipermídia interativa atual) como apoio ao ensino e à pesquisa filosófica, tanto pela sua natureza instrucional, propriamente dita, quanto por se caracterizarem como objetos de estudo, em si (o que realmente aconteceu). Qualquer um de seus exemplos remete para um caminho de duas vias entre os computadores e a filosofia, os primeiros implicando em pensamentos e raciocínios obrigatoriamente trilhados em busca de funcionalidade: é preciso programá-los, e isso implica pensar sobre o que e para que se está programando, temas diretamente relacionados à indagação filosófica, sendo impossível aos filósofos não tematizar essa nova vertente de reflexões.
Para o segundo item - aplicação das idéias da filosofia na computação -, Burkholder (1991) dava como exemplo a aplicação da teoria dos atos da fala às linguagens de programação; e a aplicação de trabalhos sobre metáfora e analogia à compreensão da linguagem natural. Também aqui a imbricação é direta. Dissociam-se o processamento de símbolos e os respectivos significados (variam segundo cada cultura). A filosofia da linguagem, semente da moderna linguística, através dos modelos inferenciais e das novas teorias lógicas, ganha vida nas novas linguagens de programação, já pela sua designação referindo-se ao uso de estruturas semelhantes às composições de módulos de símbolos, como fonemas, palavras e frases.
Para o último objetivo da publicação - as questões filosóficas relacionadas ao impacto dos computadores -, Burkholder propunha tópicos como ética do computador, natureza do conhecimento de sistemas inteligentes e discussões sobre a possibilidade de vida artificial. Os dois temas, ainda hoje, alimentam as reflexões dos filósofos acerca dos limites dos processos computacionais e da inteligência artificial.
Passados 15 anos da circulação desta mensagem, Leslie Burkholder é apontado como o responsável por ter cunhado a expressão que diz respeito a todos os temas e exemplos aos quais se referiu na lista de discussão e a outros que despertaram o interesse dos filósofos, desde então: "virada computacional da filosofia" (Lokhorst, 19995). Todos os itens citados por ele não só continuam pertinentes, mas alguns - em especial os que dizem respeito à inteligência artificial e as teorias da mente - ganharam status de ponta na pesquisa científica e tecnológica, tanto quanto na pesquisa filosófica e educacional, uma interpretação elegante para traduzir o resultado espantoso de uma consulta para a combinação entre os termos Philosophy and computing, feita pelo Google6: aproximadamente 19.500.000 de registros. O tema está massivamente disseminado.
Recentemente, Jon Dorbolo (2006) referiu-se a esta virada computacional da filosofia, comparando sua influência, no escopo da história do pensamento filosófico, à chamada virada linguística, ocorrida no início do Século XX7. Além de Burkholder, Dorbolo atribuiu-a também a Terrell Bynum e a James Moore8, expoentes da formulação que vê a filosofia cada vez mais ancorada em torno de temas que surgem a partir da computação e da informação, e que projetam o futuro da filosofia associado a/ou pautado por esses temas. O mesmo autor refere-se ainda a conferências internacionais que ocorrem anualmente sobre computação e filosofia, tratando de temas como inteligência artificial, vida artificial, ética da informação, máquinas de aprendizado e de consciência, robótica e tecnologia da informação aplicada à educação.
O autor fez a referência à expressão "virada computacional" ao apresentar a publicação que divulga (e discute, através de artigos de vários autores) um prêmio concedido pela American Philosophical Association/APA (Prêmio Barwise, em 2003) ao filósofo americano Daniel Dennett, em reconhecimento pela contribuição dada por ele a áreas relevantes da filosofia e da computação, e como encorajamento a outros trabalhos em todas as áreas relevantes a esta suposta virada ocorrida contemporaneamente na profissão dos filósofos. O próprio Dennett, em entrevista concedida a Bill Uzgalis9 (Uzgalis, 2006), disponível,na mesma publicação, comentando o que seria um novo paradigma - a filosofia mediada pelo computador - sugere que os computadores apóiam não apenas o raciocínio, mas alimentam a imaginação humana, tanto quanto os telescópios e os microscópios já o fizeram, em outro tempo.
Cultura de mentes e máquinas: os ingredientes da inteligência
Dennett percebeu a enorme importância que os computadores iriam ter sobre o desenvolvimento das formas humanas de produção de conhecimento já nos anos 60, quando se juntou a um grupo de pesquisadores da área de Inteligência Artificial (IA), na Universidade de California Irvine e, por ser o filósofo do grupo, recebeu a incumbência de responder aos questionamentos de críticos que - diz o próprio Dennett - associavam muitas informações certas sobre IA com uma interpretação errada e perigosa: "(...) o que considero um erro filosófico fundamental, de transformar questões relacionadas a dificuldades em questões relacionadas a impossibilidade" (Uzgalis, 2006).
A colocação de Dennett aponta para a necessidade de compreender o fenômeno computacional para além das reflexões puramente conceituais e tomadas de posição de simples aceitação ou recusa, uma vez que trata, em si, de um fenômeno tanto mutante quanto provocador de mutações, cujos resultados são de difícil previsão. O computador modifica a cultura tecnológica e modifica a si mesmo, alimentado pelo novo conhecimento e novas soluções geradas na pesquisa e desenvolvimento da própria inovação científica e tecnológica que introduziu. Nesse sentido, opiniões terminativas do tipo o computador será/não será inteligente, ou a máquina nunca terá inteligência como a humana dão conta mais da sobreposição do pensamento baseado em crenças-opiniões10 do que da real complexidade que esta discussão vem adquirindo pelos pesquisadores das áreas da engenharia, lingüística, psicologia cognitiva, filosofia da mente e tantos cientistas da complexidade contemporânea. Uma discussão que se concretiza na prática pela construção de sistemas cada vez mais complexos, nos quais softwares e/ou autômatos expandem seu acervo de informações lógicas prévias, realizam inferências, reconhecem padrões complexos e dinâmicos e tomam decisões com base em modelos de conhecimento estruturados sobre lógica difusa e/ou probabilística, excedendo os limites de sua programação e, por isso, legitimando o uso do conceito de aprendizagem para máquinas e softwares.
Para Dennett (cujo prêmio, aliás, vem sublinhar o fato de que se trata de um dos importantes pensadores contemporâneos), a inteligência artificial é mais do que uma simples tecnologia: é um tipo de filosofia feita com computadores (Uzgalis, 2006). "Programas de Inteligência Artificial são experimentos de pensamento", diz ele, complementando com a afirmação de que a filosofia mediada pela IA seria, na realidade, uma "variação do tema Kantiano (...) de como alguma coisa pode ser inteligente?", porque remete aos ingredientes necessários para a existência da inteligência, seja esta inteligência relativa a animais, humanos ou máquinas. Estes ingredientes - a identificação e reconhecimento de padrões; a tomada de decisões com base na análise de mudanças previsíveis e imprevisíveis nos sistemas; a ampliação das bases de conhecimento prévias, a partir de inferências advindas da experiência; o processamento simultâneo de informações dinâmicas, de múltiplas naturezas; entre outros - seriam parte da atração dos filósofos pela computação, porque permitiriam provar a existência da inteligência e de seus níveis11, ou, melhor que isso, reconhecer neles a potencialidade, os limites e as especificidades da inteligência humana, para atuar sobre ela, ao invés de apenas cogitar ou refletir, conceitualmente, sobre sua natureza ou sua realidade ontológica. Possivelmente, seguindo-se o raciocínio de Dennett, esta tecnologia, por sua interação mais inteligente com os seus criadores, já tenha deixado suas próprias marcas na capacidade humana de percepção e expressão da realidade.
Do ponto de vista de percepção, reconhecimento, atenção e memória, itens que caracterizam boa parte do processo cognitivo humano, a operação individual do computador pessoal (PC), por si só, acarretou uma necessidade de compreensão de um novo padrão hipertextual de documentar, acessar a informação, representar o mundo, comunicar idéias e conteúdos (leia-se: educação, seja ela formal ou informal), como afirmava Levy (1993). Talvez se possa avançar um pouco mais na interpretação dessa influência.
Hillis (2000), por exemplo, tem uma forma peculiar de pensar sobre a comunicação mediada pelo computador, propondo aos planejadores de seu uso o exercício pouco usual de acrescentar uma nova dimensão - o tempo - à equação dos projetos de forma e conteúdo de suas mensagens. Comunicar, diz este autor, é um ato de oferta de uma mensagem a alguém, através de um determinado espaço. Documentar, pelo mesmo raciocínio, seria o mesmo ato - ofertar uma mensagem - a alguém (ou à própria pessoa que documentou) a uma outra época, portanto, a um outro tempo. O PC é capaz de integrar essas possibilidades de forma notável, diz o autor, potencializando a faculdade humana da memória, com sua múltipla capacidade de representação, processamento, comunicação e arquivamento, em linguagens diversas. Através dele, e das suas características atuais, que incluem a portabilidade, tornou-se possível viajar no tempo e no espaço (mantendo-se a metáfora do autor) e acessar, com um clique, o produto da documentação, seja ele uma informação ou uma obra de arte, em qualquer fuso horário ou geografia.
Os computadores, em geral - e não somente a IA -, principalmente depois de se tornarem completamente onipresentes na cultura contemporânea, seriam então uma espécie de espelho de duas faces12. Em uma das faces, os engenheiros e programadores cunham em hardwares e softwares sua habilidade de antecipar o pensamento do usuário, comunicar-se com ele e guiar sua atenção para uma determinada forma de representar e para uma determinada estratégia de solução de necessidades, às vezes ainda não expressas13. Os chamados sistemas de informação são um bom exemplo disso e se espalham em todas as áreas, da contabilidade à gestão, passando pela educação, as leis, as normas, as maneiras de fazer para projetos, orçamentos, escolhas e até mesmo amigos, que estão in-formatados previamente. Todos esses pré-formatos estão à espera do comportamento dos usuários que, na outra face do espelho, vêm um reflexo de seus raciocínios, seus repertórios de memórias, suas estratégias de acesso, seus desejos de conexão com outras pessoas e até entre seus temas de interesse e de expressão, virtualizados em bits e concretizados em texto, som, imagem, procedimentos, ordenamentos e estratégias de execução. Esta imagem consolida, talvez, a metáfora de Hillis (2000) sobre atores de tempos distintos - programadores e usuários -, que se comunicam no tempo e no espaço, através da máquina, seus átomos de mecanismos e seus bits de informação.
Desde a metáfora cognitiva com o pensamento hipertextual feita por pensadores da cognição, como Levy (1993), passando pela metáfora da viagem espaço-temporal de Hillis (2000), entre tantas outras contribuições, a nova mente humana pós-computação cunhou sua também nova e própria epistemologia multidisciplinar, para dar conta de um universo de novos conceitos e suas inter-relações. O pensamento pós-computacional amalgamou a epistemologia de várias ciências, no universo multidisciplinar das Ciências Cognitivas, em uma nova área14 que re-posiciona a biologia da percepção e do processamento de informações (Neurociência cognitiva) no diálogo com os modelos de conhecimento que permitem a autômatos e softwares inferirem decisões e acionarem comportamentos virtuais ou mecânicos (IA e Lógica); com as variáveis culturais que influenciam nas crenças e valores fundamentais da aprendizagem (Antropologia); com as variáveis cognitivo-emocionais que influenciam na estruturação do conhecimento endógeno de cada indivíduo (Psicologia); com as características representacionais gerais da espécie e específicas de cada ambiente profissional ou educacional (Lingüística); e com a capacidade reflexiva e interpretativa da mente humana, para buscar um sentido integrador do processo de produção e categorização do conhecimento (Filosofia).
A cada usuário que pilota o mouse e o teclado, a rigor, corresponderia hoje, consciente ou inconscientemente, uma interjeição da espécie humana que ali vê refletida sua própria mente, os ingredientes - como diria Dennett - de sua própria inteligência15: reconhecimento de padrões, processamento de símbolos, memória, evocação de significados inter-relacionados. Na verdade, a organização desse conjunto de interjeições constituiria o que Dennett chamou de "o grande insight" (Uzgalis, 2006) das Ciências Cognitivas, de que "percorrendo séries de níveis, pode-se chegar a uma mera matéria mecânica (...), para fazer o trabalho de uma mente inteligente, com compreensão e consciência, em uma coisa material".
A histórica discussão sobre ciências e filosofia, nesse novo e disforme amalgamado, não pode mais se perguntar apenas pela natureza do sujeito que conhece, mas também pela natureza do novo objeto de conhecimento, porque esse objeto de conhecimento contém, em si, o reflexo da inteligência (e, portanto, da capacidade de representação) do próprio sujeito, e de todos os outros sujeitos que o constituíram. O objeto do conhecimento, dito de outra forma, contém conhecimento. A inteligência dialoga com a inteligência, na sua natureza consolidada tecnologicamente, e na sua natureza dinâmica de permanente inovação (com sua conseqüente motivação de surpresas, expectativas, medos e frustrações, entre tantas outras emoções que fazem parte do aprendizado humano). Modelar raciocínios em máquina tornou-se moeda corrente, no universo da inteligência artificial e nas reflexões teóricas, conceituais, filosóficas e cognitivas, todas elas de olhos voltados à necessidade pragmática (tecnológica) de tornar concretos os resultados da reflexão, validando hipóteses e simulando soluções.
Johnson-Laird (1983) manifesta explicitamente este livre-trânsito entre a suposição epistêmica e sua validação, através de modelos computacionais, alertando inclusive para possíveis riscos (em relação à viabilidade dos enunciados validados computacionalmente, no mundo real). Este autor descreve o conceito de procedimento efetivo, tirado da teoria computacional, para representar processamentos que podem ser modelados em uma máquina, sem necessidade de nenhum ingrediente intuitivo/inferencial. As teorias filosóficas, psicológicas, cognitivas ou científicas terão valor explanatório de aplicação empírica, diz Johnson-Laird, desde que possam ser formuladas como um procedimento efetivo (uma máquina pode executá-la, sem necessidade de intuição). Trata-se, ao que parece, de uma idéia semelhante a uma prototipação do valor preditivo das teorias, através da qual se possa observar sua viabilidade real.
Mentes e máquinas se inter-dependem e se inter-alimentam, uma na outra, uma através da outra. Neurocientistas buscam modelos matemáticos computacionais para trabalhar sobre as informações obtidas pela observação direta da atividade neuronal. Eletroencegalogramas, tomografias computadorizadas, ultra-sonografias, entre outros, são recursos de apoio diagnóstico, tanto quanto são instrumentos de pesquisa e, em qualquer caso, são interfaces de aplicação do conhecimento computacional, traduzido em softwares de reconhecimento e tratamento de sinais, de padrões, de imagens. Por seu lado, cientistas da computação vasculham as propriedades da mente e desenvolvem algoritmos que emulam capacidades mentais como a de antecipação de possibilidades. É o que acontece quando um usuário consulta, por exemplo, o site de pesquisa Google Earth, para localizar um ponto geográfico desejado, e o programa aciona uma prontidão para oferecer a visualização dos arredores desse ponto, simulando uma transição de imagens suave e fluente, como a visão humana.
A esta nova propriedade da computação chama-se computação preemptiva, pela sua natureza antecipatória da intenção do usuário. Juntamente com a computação pervasiva (a propriedade de acompanhar o usuário, transferindo-se do computador para o celular, para o aparelho de casa, etc., tal como o seu próprio cérebro computacional o acompanha, em todas as atividades) preempção e pervasão, dois dos novos paradigmas das inovações nesse campo, espelhadas no funcionamento da mente humana.
E mais uma vez, no território computacional, as epistemologias se sobrepõem, sem que se possa, a rigor, definir onde começa ou termina o pensamento (filosofia), o conhecimento (a ciência) e a aplicação (tecnologia).
Tecnologia é território de confluência epistêmica
Publicado pela primeira vez em 1976, The Selfish Gene, do biólogo inglês Richard Dawkins (1989) provavelmente chocou seus leitores ao denominar os organismos biológicos de máquinas de sobrevivência para os genes replicadores, que seriam, segundo ele, os verdadeiros personagens da complexa história da vida no planeta: "Os replicadores que sobreviveram foram aqueles que construíram máquinas de sobrevivência para viverem dentro (...). Mas garantir a vida ficou gradualmente mais difícil com o aparecimento de novos rivais com mais e melhores máquinas de sobrevivência efetiva" (p. 19), dizia Dawkins, esterilizando qualquer idéia de culpa (ou predestinação) dos organismos geneticamente impulsionados para a competição, através de sistemas químicos e físicos destinados a aumentar suas chances de sobrevivência e, simultaneamente, minar as chances dos competidores. Este teria sido o destino, ao longo de milhões de anos, dessas máquinas biológicas, que garantiram a sobrevivência das unidades de informação genética - genes. Estes últimos, hoje preservados, estruturam-se em suas grandes colônias, sãs e salvas no interior de gigantescos robôs que são, hoje, os organismos vivos e os seres humanos. Na edição que marcou os 30 anos da primeira publicação do livro, que propunha esta supostamente herética maquinização da biologia humana, Dawkins completou o raciocínio, com uma nota em que pergunta aos leitores contemporâneos (que não sejam religiosos, salienta o autor, a ponto de negar a resposta em função de convicções místicas): "O que, raios, você pensa que é senão um robô, ainda que seja um robô muito complicado?" (p. 271). A versão atual da colocação de Dawkins apenas consolida sua posição de cientista que transitou entre os caminhos epistemológicos de sua própria área, a Biologia, e os da Filosofia, da Computação e da Tecnologia.
Também Daniel Dennett (1988) - como Dawkins - debruçou-se sobre o tema da evolução da vida no planeta, através do processo de seleção natural proposto por Darwin no Século XIX, e se utilizou da nova cultura informatizada para re-interpretar o raciocínio evolucionista. A perigosa idéia de Darwin (título de seu livro), dirá Dennett, não foi apenas teoricamente acertada, mas operacionalmente tão robusta que poderia ser definida, contemporaneamente, como um algoritmo, ou como um poderoso conjunto de algoritmos inter-relacionados, cujo desenvolvimento dá conta da replicação permanente dos genes e das sucessivas melhorias evolutivas em relação ao padrão original. A idéia pode ser considerada a versão filosófica das poderosas ferramentas da inteligência artificial: os algoritmos genéticos (Hillis, 2000), hoje disseminados não apenas em sua concepção, mas em demonstrações e múltiplas aplicações tecnológicas, em áreas tão diversas quanto os jogos eletrônicos ou os sistemas de busca na Internet (Johnson, 200116). Trata-se de softwares programados para evoluir - de forma semelhante à seleção natural - através de contínuas repetições de processos, que tendem a selecionar pequenas alterações em cada geração de réplicas e priorizar a estruturação de soluções melhoradas, estabelecendo um nível de aprendizado neural de redes (eletro-mecânico), semelhante ao aprendizado das redes neuronais (do sistema nervoso humano).
Dennett (1988) não apenas indica que "A revolução darwiniana é ao mesmo tempo científica e filosófica" (p. 21), mas expõe seu pensamento sobre a inevitabilidade do fato de que o mundo computacional e a filosofia são duas faces do mesmo espelho que reflete o ser humano e seus universos biológicos, culturais, existenciais e tecnológicos: "Desde os primeiros passos do computador a ambição tem sido usar essa máquina (...) para explorar os mistérios do pensamento" (p. 215). Ao comparar a seleção natural a um conjunto de algoritmos evolutivos, este pensador precisou mergulhar a fundo nas estruturas de raciocínio dos programadores e planejadores da inteligência artificial e seus novos conceitos pragmáticos de aprendizagem de softwares e autômatos. Ao transitar por esses dois mundos - a filosofia da mente e a computação - Dennett deu novo sentido à multidisciplinaridade, que extrapola a livre-associação de conceitos e contribuições de uma ou outra área. Carregou estruturas mentais, raciocínios, abstrações, comparações e, sobretudo, métodos de produção de conhecimento e critérios de validação de novos conhecimentos de uma à outra - e de todas as outras ciências que compõem as Ciências Cognitivas. Deu consistência conceitual e prática à idéia de que a mente humana internaliza as tecnologias que ela mesma produz, agrega ao seu próprio equipamento mental os métodos e processos de produção de informações, bem como às formas culturais de operação sobre o mundo, criando novas formas de representar a partir delas, das quais fazem parte novos raciocínios e novos sentidos, criados dessa interação. A filosofia do ser humano pós-computador - segundo este raciocínio - terá obrigatoriamente absorvido e refletirá esses padrões computacionais, não apenas no seu conteúdo, mas na sua estrutura, não linear, interativa, com múltiplas camadas de informação, com múltiplos caminhos de raciocínio, com o apoio à memória estruturada, com olhares lançados à lógica e às capacidades sensoriais e neurais da biologia humana e sua genética, à sua forma maquínica, computacional, tanto quanto aos seus atributos culturais.
O que nos anos 50 era um trabalho de férias para jovens e brilhantes filósofos, no desenvolvimento de computadores, transformou-se num onipresente novo mundo virtual, cujo território epistemológico é o da tecnologia computadorizada. Algoritmos são desenvolvidos para dar suporte a toda uma nova cultura, onde as distâncias (tempo-espaço) são camufladas pela nova língua universal: clique, delete, faça download, grave, acesse, conecte-se, googleie, tecle, conheça o game, entre no Chat, tenha um nick, um e-mail, conheça e-learning,envie um podcast, entre tantas outras opções, que mascaram idades, sexo e, quem sabe, níveis culturais. A confluência epistemológica da ciência, da tecnologia e da filosofia, no mundo mediado pela computação, ganhou status acadêmico, através das pesquisas das áreas da informática, da engenharia e da educação. E se a filosofia ou a sociologia pretendem ainda discernir a análise crítica e a delimitação dos espaços privativos da ética e da moral, onde o computador seria supostamente indiferente, não podem, entretanto, abdicar da representação inevitavelmente mediada pela tecnologia; da compreensão da mente, também inevitavelmente influenciada pelo desenvolvimento das neurociências e dos instrumentos da tecnologia para observá-la; e, principalmente, não podem abdicar do potencial cognitivo aberto pela multiplicidade de recursos da tecnologia, que ampliam a capacidade sensorial pelos estímulos visuais, sonoros e táteis, tanto quanto potencializam a memória, a percepção e as formas de acessar e construir conhecimento.
Mesmo as discussões sobre ética e moral são alavancadas pela ecologia cultural informatizada. Mark Hauser, psicólogo evolutivo que coordena um laboratório de neurociência cognitiva, na Universidade de Harvard, desenvolveu um ambiente virtual para pesquisar os limites universais de comportamentos morais. Através de um teste no qual apresenta dilemas morais e escolhas interativas17, Hauser (2006) descreveu resultados de julgamentos morais de 250 mil sujeitos, de 120 países, com idades entre 13 e 70 anos, uma amostra de características tão diversas que podem, além de fundamentar as conclusões do pesquisador18, explicitar o poder da tecnologia para realmente atingir um universo expressivo de respostas, em número e em diversidade.
Ontem, a ficção científica reproduzia o estranhamento dos humanos com os artefatos inteligentes e com seres maquínicos ameaçadores, os quais, aos poucos, foram emulando desejos e sonhos humanos19 e, no limite, aspiravam à imortalidade, como acontece no belíssimo O Robô Humano, de Isaac Asimov (1998). Hoje, a ficção brinca com o desejo humano de potencializar suas próprias capacidades cognitivas através de artefatos - interfaces neurais - que agem diretamente sobre o corpo ou o cérebro das personagens, na forma de um super-software de aprendizagem instantânea, no filme Matrix20, que baixa de um capacete diretamente para habilitar cognitiva e mecanicamente o herói a praticar artes marciais. E o estranhamento vira cultura, identificada e reconhecida (o filme fez sucesso e gerou inclusive duas continuações). Os signos e significados ali apresentados foram aceitos, debatidos, apropriados em suas metáforas, sua visão de realidade e seu vetor indicando continuidade. Critique-se, talvez, a manipulação possível das projeções humanas na virtualidade mediada pela tecnologia, mas já não se pense o mundo sem ela, no presente e no futuro.
A tecnologia é ciência, dizem os mais ousados, ou mais poderosos, como Tim Berners-Lee, o inglês que inventou a Internet, e que propõe inclusive uma Ciência da Web21. E se a tecnologia é ciência e, portanto, é uma forma reconhecida de produção de conhecimento, por que também não pode ser filosofia22, para além das opiniões contra/a favor, ou das delimitações e críticas temáticas? O novo território tecnológico é composto por - e compõe - todas elas, viabilizando novas formas de conhecimento científico, filosófico, matemático, computacional e possivelmente artístico, antropológico, sociológico e educacional, validados todos eles, para além de suas epistemologias e metodologias de pesquisa, pelos modelos computacionais, pelas evidências fornecidas com a possibilidade de visualização, pela capacidade de supermemória organizada e supercomputação, entre outras possibilidades que ainda estão por ser implementadas.
Hardware e software moldados pela evolução, para a sobrevivência da espécie humana
No limite do bom diálogo entre a ciência e a filosofia, posto à prova pelos novos territórios epistêmicos tecnológicos, estão os modelos computacionais da mente humana, que alimentam, ora os desenvolvedores de IA, na sua tentativa de melhorar as capacidades de aprendizagem e comportamentos inteligentes de softwares e autômatos; ora os pesquisadores das neurociências, que se apropriam de modelos matemáticos para compreender as funções cerebrais; ora os engenheiros biomecânicos que desenvolvem próteses acionadas pelas emissões elétricas do sistema nervoso; ora os cientistas cognitivos que categorizam tipos de raciocínios, inferências e processos de tomada de consciência; ora os economistas que desenvolvem modelos (como a teoria dos jogos) baseados nas probabilidades de tomadas de decisão; ora os psicólogos que se debruçam sobre os comportamentos humanos e suas variações; ora os filósofos da mente interessados em romper o limite do raciocínio histórico e crítico em relação às supostas oposições entre razão/emoção, razão/criação, biologia/computação.
Steven Pinker, psicólogo e cientista cognitivo da Universidade de Harvard, faz um bom resumo da chamada Teoria Modular-Computacional da Mente, que vem sendo desenvolvida no âmbito das Ciências Cognitivas, com a devida contribuição de suas áreas fundadoras23. Pinker (1998)24, descreve hipóteses a respeito de como a mente humana processa informações, seguindo um padrão que tem raízes ancestrais, na formação da espécie, destinado a viabilizar a sobrevivência dos humanos ao longo da competição darwinista que travou com outros habitantes do planeta e com a natureza. Esse padrão estaria gravado em um programa (software mental humano25), transmitido geneticamente, cuja principal função é a identificação de objetivos relacionados à necessidade de sobrevivência, diz Pinker. Sua operação básica consiste no desenvolvimento de estratégias para realizar os objetivos relacionados à necessidade de sobrevivência.
Esse teria sido o impulso que levou a espécie humana a encontrar um nicho de sobrevivência na capacidade que desenvolveu para processar informações de forma inteligente. Nesse processo - cuja base de processamento tem como característica um processo computacional - o ser humano aprendeu a desenvolver estratégias de cooperação, baseadas em reciprocidade mútua. Aprendeu também a desenvolver suas habilidades inatas para operar sobre o mundo (uma matemática intuitiva, uma noção intuitiva de objeto, uma teoria intuitiva da mente e um instinto de linguagem, entre outras capacidades.). Chegou ao Século XXI com um repertório estruturado de conhecimentos aplicáveis ao mesmo velho objetivo - sobrevivência - que cresceu de forma considerável (são módulos dentro de módulos26 de conhecimento) e diversificou-se, de forma complexa e devidamente estruturada, na Física, Matemática, Biologia, Psicologia e Engenharia contemporâneas, entre outras áreas estruturadas de conhecimento.
A inteligência humana, segundo esta teoria descrita por Pinker (1998), provém da capacidade do cérebro humano de funcionar exatamente como um computador neural, processando informação, na forma de símbolos configurados em bits de matéria (neurônios), cujo conteúdo é transmitido na forma de padrões de conexão e de padrão de atividade dos neurônios. Por isso, a informação não se perde quando muda de suporte físico (por exemplo, a informação oral transforma-se em atividade neuronal de padrões sonoros, transmitidos pelo ar até a membrana auditiva do ouvinte, onde muda novamente de suporte físico e acaba retornando ao processamento do cérebro). Os símbolos formados pelo cérebro-mente não são apenas o resultado de uma inscrição/representação mental. Podem conter, além da informação representacional, propriedades causais (contêm informações e simultaneamente fazem parte de uma cadeia de eventos físicos). Por isso, podem gerar informações e/ou ações: os bits de informação podem acionar outros bits componentes de símbolo, produzindo sentido (informação ou validação de informações, criando relações de verdade ou falsidade, que vão formar o conjunto de crenças do indivíduo); ou podem acionar bits conectados com músculos, resultando em movimento.
Isso torna a computação mental complexa e viabiliza a combinação de processamentos, propiciando, por exemplo, que um símbolo processado sob determinado conjunto de regras acione um evento mecânico (da mesma forma que aciona um movimento eletrônico, como ocorre com softwares em um computador real; ou com um autômato programável para executar funções, em um mecanismo robótico).Trata-se de um paradigma, portanto, estruturado sobre a chamada Teoria Computacional da Mente27. Este processo computacional está associado à capacidade de representação mental do conhecimento (representação visual, fonológica, gramatical e em uma linguagem mental interna do ser humano), em camadas complexas e inter-relacionadas de redes associativas de significados (daí a sua estreita relação com o estudo das neurociências). Seria, portanto, um complexo biológico-informacional peculiar da espécie humana, equipado com sistemas de regras para processamento (infinitamente mais flexíveis do que as regras que compõem qualquer tipo de programação computacional convencional ou da IA contemporânea), os quais viabilizam categorizações e inferências lógicas simples e precisas (se...então), e também probabilísticas ou difusas, além de lógicas abstratas como, por exemplo, a que permite ao ser humano reconhecer um rosto ou a noção de individualidade.
O computador neural opera com muitos elementos ativados em graus de probabilidades de que a afirmação seja verdadeira ou falsa, permitindo ao ser humano lidar com ambigüidades e complexidades. Agrega inteligência ao sistema alterando os níveis de atividade para registrar a ocorrência de novas probabilidades, que possam validar, invalidar ou alterar pesos probabilísticos inscritos no sistema. Da primeira vez que for manipulado, o símbolo implicará como verdade os padrões posteriores, e esse tipo de informação vai constituir a base do conjunto de crenças do indivíduo, que ficará inscrito, portanto, no repertório mental (memória). Dentro dessa concepção, Pinker sintetiza os elementos do processo e os integra na lógica de objetivo-estratégia: "Crenças são inscrições na memória, desejos são inscrições de objetivos, pensar é computação, percepções são inscrições acionadas por sensores, tentar é executar operações acionadas por um objetivo" (Pinker, 1998, p. 90).
A síntese de formulações permite ao autor separar o processo puramente computacional do cérebro (sua funcionalidade), das construções culturais produzidas ao longo do tempo, que resultaram em conjuntos complexos de crenças, inscritas na memória de longa duração do ser humano e de sua cultura, que se reproduzem como verdades ou falsidades, dependendo da cultura e dos instrumentos institucionais de validação. O autor não discute a importância da cultura, nem o seu papel no sistema de crenças. Apenas separa o valor associado às crenças pelos sistemas formais (ciências sociais, filosofia, religiões e ideologias). As verdades culturais não podem ser tratadas como verdades ontológicas, nesse caso, mas apenas como informações inscritas na memória individual (padrões de bits) ou na memória cultura (livros, instituições, etc.)28. Minsky (2007) expande a associação entre o processamento computacional humano e as máquinas, ao descrever a alteração entre estados emocionais - como o medo, a raiva e mesmo a dedicação amorosa - como um acionamento alternado de redes de circuitos, possíveis de serem reproduzidos, sob este ângulo, nas modernas redes neurais artificiais, em softwares ou máquinas.
Esta formulação retoma a reflexão sobre os ingredientes da inteligência - seja ela humana ou maquínica - dimensionando não apenas naturezas diferentes que constituem cada etapa de processamento inteligente de informações, mas também seus níveis diferenciados de complexidade, com elementos necessários ao desempenho de funções específicas no conjunto do processo. Aponta para a importância de compreender cada uma das etapas, módulos, órgãos, sistemas, funções, elementos de integração, entre tantos outros itens que compõem o maquinário eletro-químico-cultural-orgânico-computacional que constitui a inteligência humana, para melhor refletir sobre as formas - humanas ou tecnológicas - de potencializar o aprendizado. E direciona o olhar do pesquisador para a busca de novas trilhas que possam abrir caminho nesse intrincado mundo novo de epistemologias entrecruzadas, para apoiar a busca de conhecimento sobre as necessidades educacionais. A educação é uma das áreas que, por sua natureza, engloba praticamente todos esses itens e, obviamente, já foi completamente transformada pelos novos padrões computacionais de produção, transmissão, acesso, interação, processamento de informações, estrutura e base de conhecimento29.
Novos paradigmas para a pesquisa educacional
Assim como Dennett, entre outros filósofos contemporâneos, assinalam um turning point na forma de pensar sobre o pensamento humano, dimensionando sua relação com o ambiente tecnológico, tanto quanto com o ambiente sócio-cultural, Jean Piaget, a seu tempo, representou uma virada no dimensionamento pragmático do conhecimento humano, ao observar sua estruturação, ao lançar hipóteses sobre como se processa, testá-las e validá-las através de experimentos cuja metodologia é tão robusta que pode, até hoje, ser reproduzida e submetida a validações e refutações. Cientista por formação e por confiança na ciência (era biólogo), Piaget foi pioneiro na operação conjunta de paradigmas epistemológicos, ao relacionar conhecimento científico e filosófico, formalmente, em obras como Biologia e Conhecimento (Piaget, 1973) e, metodologicamente, em todo o seu processo de trabalho. Além disso, Piaget também refletiu sobre essa necessária interseção (Piaget, 1983), lembrando que os problemas da ciência e da filosofia são os mesmos, embora os métodos de validação desses dois conhecimentos sejam diferentes. O grande cientista da cognição não viveu para testemunhar a disseminação do paradigma computacional, o qual, possivelmente, teria considerado um enorme fator de interferência nos processos de construção de conhecimento e na catalisação de epistemologias e metodologias científicas e filosóficas, no ambiente tecnológico. Ele certamente seria mais um dos pesquisadores da cognição direcionados à avaliação do impacto das novas formas computacionais no processo de aprendizagem humano.
Seja para avaliar o impacto da utilização de lâminas eletrônicas ou edição de textos e imagens, ou do uso de recursos mais sofisticados, como acesso a acervos áudio-visuais, comunicações síncronas e assíncronas, ou ainda o desenvolvimento de técnicas de IA usados em sistemas tutores inteligentes e na web, a curiosidade já movimenta a ação do pesquisador, em todas as partes do mundo. Não são poucas as referências de relatos e de observações do uso destas e outras inúmeras facilidades geradas pelas tecnologias educacionais que foram gestadas, cultivadas e floresceram no ambiente computacional. Supõe-se que tais pesquisadores cultivem um olhar científico-pragmático, para poderem avaliar de forma consistente e imparcial o real impacto cognitivo desses novos instrumentos. E um outro olhar filosófico, que lhes permita dimensionar - também de forma consistente e imparcial - quais as repercussões morais, éticas, conceituais e humanísticas resultantes desta imbricação tão entranhada entre saberes, fazeres e pensares, todos eles igualmente determinantes para a eficiência do processo de ensino e também o de aprendizagem.
Ambas as atitudes de pesquisa implicam na busca das perguntas certas, além de cientifica e filosoficamente necessárias para conhecer o impacto da tecnologia computacional sobre a educação. Perguntas que conduzam a curiosidade movida pela nova ecologia computacional na direção de novos conhecimentos, que excedam a confirmação/negação de crenças associadas aos históricos movimentos de disputa entre paradigmas, como propunha Thomas Kuhn (1975). Que excedam ainda o universo ideológico que se estrutura em torno dos referidos paradigmas e suas crenças inabaláveis, gerando pesquisadores refratários ao diálogo do contrário e à simples possibilidade de refutação. E que associem à educação o status de ciência, não apenas descritiva, mas dotada de instrumentos precisos de representação e operação, métodos reprodutíveis e clareza de procedimentos.
Perguntas como, por exemplo: "como - e/ou quanto - as novas formas de representação interferem na capacidade dos professores em apresentar conteúdos através de múltiplas linguagens, e qual é o peso desta multiplicidade na captação de atenção e na motivação de atividades de platéias numerosas e diferenciadas?". Esta é uma pergunta que pressupõe a necessidade de múltiplos inputs informativos, em linguagens variadas (textos, gráficos, desenhos, etc) como uma das alavancas de processos cognitivos em geral, e educacionais em particular, como propõe Gardner (2005), baseado na sua teoria de inteligências múltiplas30. É uma pergunta que atende também às observações das neurociências, de que formatos variados constituem uma desejável redundância de estímulos em múltiplas áreas cerebrais, contribuindo para a aquisição de novas informações (Timm et alli, 2004) e impõe uma atitude menos passiva frente à formulação - bastante difundida na pesquisa educacional - de que as formas de apresentação do conteúdo não são responsáveis pelo aprendizado31.
Para responder a esta pergunta, é preciso, entre outras coisas, identificar metodologias de pesquisa e instrumentos32 que permitam compreender e monitorar algumas das variáveis indicativas do processo cognitivo em curso, suas diferenças de motivação de atenção, tempos de aquisição, consistência de consolidação, entre outros itens. É preciso, talvez, antes, como propôs Pinker, separar crenças de (suposições de) verdades, como a que se referiu acima, de que os alunos aprendem apenas por seu esforço próprio, independentemente (ou apesar) do esforço didático dos professores. Afirmações como esta são repetidas freqüentemente, no bojo de críticas a paradigmas epistemológicos - como, por exemplo, construtivismo X positivismo - na forma de pensamentos em bloco, que supostamente carregariam modelos cristalizados de comportamentos antagônicos e se anulariam uns aos outros, como se uma necessidade (a de estimular a participação dinâmica e do aluno) não fosse, por si, justificável, e precisasse excluir as outras possibilidades33. Pesquisas educacionais que associam aprendizagem exclusivamente à ação direta, mecânica, dos alunos, deixam de lado o fantástico movimento cerebral que está ocorrendo no momento em que estaria assistindo a uma palestra, ou a um vídeo. Um invisível movimento de múltiplos processamentos neuronais em sua mente computacional, combinando bits de informações na forma de sinais sonoros e visuais, para viabilizar a construção mental de significados.
A pesquisa educacional feita no Brasil, possivelmente, ainda se ressente da falta de instrumentos metodológicos que garantam sua isenção diagnóstica e sua transferibilidade à prática educacional. Gatti (2001) e Alves-Mazzotti (2001) descrevem a trajetória evolutiva do pensamento sobre educação de pesquisadores brasileiros, apontando dificuldades que vão da falta de rigor metodológico à descrição de vivências pessoais justificadas por adesão a ideais sociológicos ou pedagógicos, geralmente baseados sobre verdades definitivas e posturas inflexíveis com relação a qualquer pensamento diferente do seu próprio. A serem verdade estas interpretações, ainda há um grande espaço de busca de respostas e, principalmente, de instrumentos de observação e técnicas de pesquisa que possam dar conta da complexidade do tema em diferentes áreas do conhecimento que comporte suas diferentes epistemologias.
Nesse sentido, mais uma vez o admirável mundo novo da tecnologia computacional é transformador, uma vez que, pela sua natureza, impõe o diálogo da pesquisa educacional com modelos multidisciplinares de interpretação, mais consistentes com a necessidade de examinar a nova realidade, quando mais não seja, porque catalisaram a atenção e a curiosidade de educadores e pesquisadores, para seu potencial. O pensamento científico-tecnológico responsável pelo ambiente computacional - que se transformou no ecossistema indispensável da educação contemporânea -, de certa forma trama obrigatoriamente sua própria presença junto à reflexão filosófica sobre os temas educacionais, para além da qualificação (o bom e o mau modelo pedagógico). Demanda metodologia e reprodutibilidade, tanto quanto intencionalidade e adesão a princípios e valores éticos. Surfar na virada computacional da filosofia; percorrer sem medo ou preconceito as descrições dos modelos computacionais da mente; dialogar com as neurociências, tanto quanto com os modelos físicos e matemáticos que permitem representar e operar sobre os fenômenos do mundo (inclusive os fenômenos educacionais); soltar âncoras e descobrir a leveza de viver sem crenças-verdades definitivas. Estes podem ser itens de um programa de pesquisa sintonizado com o tempo/espaço da contemporaneidade multifacetada e multidisciplinar, onde se cruzam os caminhos históricos da filosofia e da ciência, no território híbrido da tecnologia.
Gardner (2005) aponta para a inevitabilidade da co-habitação entre a educação e o mundo computacional, no qual programas inteligentes poderão, sem dúvida em um futuro próximo, ajudar os estudantes, nas áreas de inteligências em que estes tiverem dificuldades específicas34 (e para isso é preciso identificá-las e medi-las, de alguma maneira). Os artefatos computacionais - diz este autor, e vários outros - em breve estarão operando como interlocutores dos humanos, não apenas nas atividades cognitivas, mas também nas trocas que envolvem emoção pura, sensibilidade e afeto (Gardner chama atenção para o fato de que a nova geração de robôs imita comportamentos e aparência de animais de estimação). É inimaginável que os educadores se abstenham de ocupar também este espaço privilegiado.
Senão, vejamos, como responder a outras perguntas cientificamente necessárias e educacionalmente relevantes, como as que seguem:
- A tecnologia educacional baseada em hipermídia, que contém representações narrativas, representativas e/ou lógico-matemáticas, impacta igualmente os estudantes da área de humanas, de ciências biológicas e de ciências exatas? Sim/não/como e por quê?
- Como a imersão em um universo de informações pode contribuir para que estudantes (de idades X ou Y) mantenham ou abandonem teorias intuitivas erradas35, relativas a fenômenos físicos ou biológicos?
- Como - e quanto, e em que condições específicas - a presença de ingredientes menos ou mais inteligentes, no ecossistema educacional computacional, pode contribuir para vencer resistências ao aprendizado, relacionadas a: a) dislexias ou afasias; b) dificuldades de escrita; c) dificuldades de operações com cálculos?
- Como - e quanto, e em que condições específicas - a presença de ingredientes menos ou mais inteligentes, no ecossistema educacional computacional, pode contribuir para vencer resistências ao aprendizado, relacionadas a crenças-verdades definitivas, do tipo religiosas, filosóficas ou ideológicas?
- Como - e quanto - o aprendizado de novas linguagens de representação afeta a capacidade de comunicação do professor com grupos de alunos heterogêneos?
- Como - e quanto - a capacidade ampliada (ou não) do professor pode interferir para vencer as resistências dos alunos para que aprendam a pensar de acordo com os raciocínios característicos de cada disciplina/profissão/área do conhecimento?
- Entre as variáveis envolvidas na cognição humana36, quais (e como e quanto) são mais afetadas pelo ambiente computacional (e suas diferentes possibilidades), em cada disciplina/profissão/área do conhecimento?
- Quais os limites éticos em que a tecnologia cognitiva pode ser considerada um apoio cognitivo (softwares educacionais, próteses baseadas em chips para necessidades especiais, etc.) ou apenas um potencializador com vistas ao aumento de competitividade em indivíduos normais?
Pensar sobre estas respostas e outras desse tipo e, mais do que isso, embrenhar-se pela descoberta de desenhos experimentais, metodologias e instrumentos de pesquisa que possam ajudar a respondê-las, com auxílio de várias áreas do conhecimento, das Neurociências à Antropologia, gerando novas e mais complexas perguntas, é o papel do pesquisador que não fechou as portas de sua própria mente à mudança gerada pelo novo ambiente epistemológico. Como se viu, ao longo deste texto, trata-se de um ambiente onde co-habitam conhecimento, interpretação e técnica, de forma interdependente, assimétrica e dinâmica.
Referências Bibliográficas
Alves-Mazzotti, A. J. (2001, julho). 'Relevância e aplicabilidade da pesquisa em educação'. Cadernos de pesquisa da Faculdade de Educação da Universidade Estácio de Sá. n. 113, p. 39-50. Distribuído por Scielo, em http://www.scielo.br/pdf/cp/n113/a02n113.pdf, acesso em 01-12-2006.
Antunes, A. (2003). 'Prefácio à edição brasileira'. In: Gibson, William. Neuromancer. 3ª. São Paulo: Ed. Editora Aleph. [ Links ]
Asimov, I. (1998). El robot humano. Plaza & Janés Editores S.A, Barcelona.
Burkholder, L. (1991, 30/abril). '4.1303 New Journal: Philosophy & Computing (1/99)'. Documento referente a mensagem postada em Humanist Discussion Group, Vol.4, No. 1303. Disponível em www3.iath.virginia.edu/lists_archive/Humanist/04/1296.html, acesso em 03/11/2006.
Chiaramonte, M. S.; Carra, M.; Timm, M. I.; Zaro, M. A.; Schnaid, F. (2007). 'Em busca de um padrão cognitivo na engenharia'. In: ICECE 2007 Conferência Internacional em Educação em Engenharia e Computação, 2007, Monguaguá e Santos. Anais do ICECE 2007 - Homepage: http://www.copec.org.br/icece2007/port/index.htm; ISSN/ISBN: 8589120430.
Dawkins, R. (1989). Selfish Gene. Ed. 30th aniversary Great Britain: Oxford University Press. (primeira edição em 1976, segunda edição em 1989). [ Links ]
Dennett, D. (1988). A perigosa idéia de Darwin. Rio de Janeiro: Rocco. [ Links ]
Dorbolo, Jon (2006). 'Introduction'. In: Minds and Machines, Journal on-line, V.16, N. 1, February, 2006, p. 1-105, distribuído por Springer Netherlands (DOI 10.1007/s11023-006-9011-9), http://www.springerlink.com/content/k370156v8651 acesso em 30-04-2007.
Gatti, B. A. (2001, julho). 'Implicações e perspectivas da pesquisa educacional no Brasil contemporâneo'. Cadernos de Pesquisa do Programa de Pós-Graduação da PUC-SP, n.113, p. 65-81, distribuído por Scielo (http://www.scielo.br/scielo.php?=50100-15742001000200004&script=sci_arttext acesso em 30-11-2006.
Gardner, H. (2005). Mentes que mudam. Porto Alegre: Bookman, Artmed. [ Links ]
Gibson, W. (2003). Neuromancer. São Paulo: Editora Aleph. (1ª. Ed. 1984) [ Links ]
Hauser, M. (2006, 22/23,setembro). 'Evolution of a Universal Moral Grammar', vídeo de palestra ministrada no evento The Future of Science, ocorrido em Veneza, Itália. Disponível em http://www.edge.org/3rd_culture/venice06/venice06_index.html , acesso em 16-10-2006.
Hillis, D. (2000). O padrão gravado na pedra. Rio de Janeiro: Ed. Rocco. [ Links ]
Johnson, S. (2001). Emergência. Rio de Janeiro: Jorge Zahar Editores. [ Links ]
Johnson-Laird, P. N. (1983). Mental models. Cambridge, Massachussets: Harvard University Press. [ Links ]
Kuhn, T. A (1975). Estrutura das Revoluções Científicas. São Paulo: Perspectiva. [ Links ]
Levy, P. (1993). As tecnologias da inteligência. Rio de Janeiro: 34. [ Links ]
Lokhorst, G. (1999). 'Book review of The Digital Phoenix' (de Terrel Ward Bynum and James H. Moor, editors, Oxford, UK and Malden, USA: Blackwell Publishers, 1988). In: Ethics and Information Technology 1: 71-76. Kluwer Academic Publishers. Printed in the Netherlands. http://www2.eur.nl/fwb/fict/publications/1999phoenix.html, acesso em 07-11-2006
Magee, B. (2001). Confissões de um filósofo. São Paulo: Martins Fontes. [ Links ]
Minsky, M. (2007, 27, fevereiro). 'Falling in love'. In: The emotion machine: commonsense thinking, artificial intelligence and the future of human mind. Reproduzido na revista Virtual Edge, n. 203. http://www.edge.org/documents/archive/edge203.html#minsky , acesso em 01-03-2007.
Mitcham, C. (2002). The importance of philosophy to engineering. Disponível em: http://www.campus-oei.org/salactsi/teorema02.htm, acesso em 23-09-2002.
Norman, D. A. (1987). 'Que es la ciencia cognitiva?'. In: Perspectivas de la ciencia cognitiva. Barcelona: Paidós, p. 13-23. [ Links ]
Piaget, J. (1973). Biologia e Conhecimento. São Paulo: Ed. Vozes. [ Links ]
Piaget, J. (1983). 'Ciência e filosofia'. In: Os pensadores. São Paulo: Abril Cultural. [ Links ]
Pinker, S. (1998). Como a mente funciona. São Paulo: Companhia das Letras. [ Links ]
Timm, M. I. (2000). 'Filosofia e ciência: um encontro de paralelas na pós-modernidade'. Revista Redes, Santa Cruz do Sul, v. 05, p. 227-246. [ Links ]
Timm, M. I.; Zaro, M. A.; Schnaid, F.; Cabral JR, P. A. F.; Thaddeu, R. C. (2004). 'Tecnologia educacional: apoio à representação do professor de Ciência e Tecnologia e instrumento de estudo para o aluno'. RENOTE - Revista Novas Tecnologias na Educação, Porto Alegre, v. 2, n. 2. [ Links ]
Timm, M. I. (2005). A atividade de elaboração de projetos como estratégia pedagógica para o ensino de Engenharia (curso à distância de projeto no modelo e-learning-by-doing). Tese de doutorado em Informática na Educação, Programa de Pós-Graduação em Informática na Educação da Universidade Federal do Rio Grande do Sul, Orientador: Fernando Schnaid. [ Links ]
Timm, M.I. (2005). 'Computador neural que identifica objetivos e estratégias para obtê-los'. In: RENOTE. Revista Novas Tecnologias na Educação. Porto Alegre, UFRGS: v.3.
Timm, M. I.; Schnaid, F.; Costa, J. C. (2005). 'O perfil do engenheiro e seu trabalho'. Revista de Ensino de Engenharia - ABENGE, Brasília, v. 23, n. 1, p. 01-10. [ Links ]
Uzgalis, B. (2006). 'Interview with Daniel Dennett conducted by Bill Uzgalis' in Boston, Massachusetts on December, 29. In: Minds and Machines, Journal on-line, V.16, N. 1, February, 2006, p. 1-105, distribuído por Springer Netherlands (DOI 10.1007/s11023-006-9015-5), acesso em 30-04-2007. [ Links ]
Notas
M.I. Timm
Endereç de e-mail: beta@cesup.ufrgs.br
(1) Certamente as transformações culturais e intelectuais ou cognitivas ocorreram apenas entre aqueles seres humanos que tiveram acesso a esta grande explosão, deixando-se de refletir aqui sobre o grande número de excluídos desse processo, por razões econômicas, geográficas ou políticas.
(2) A referência a Pierre Levy decorre do fato de que seu livro Tecnologias da Inteligência foi um dos primeiros a impactar a pesquisa acadêmica, nas áreas de cognição, comunicação social e educação, no Brasil, relacionando-a diretamente aos avanços da computação e da Internet, na década de 90. Entretanto, ressalte-se que não foi feita pesquisa exaustiva com relação à cronologia da contribuição de outros autores da filosofia a esse respeito, nesse período, em outros países.
(3) Não se teve a preocupação de descrever cronologicamente a história da relação entre a filosofia e a computação, ou mesmo da expressão "virada computacional da filosofia". Os temas, épocas e autores foram escolhidos de forma a exemplificar ou fundamentar as colocações do artigo, sobre a imbricação entre a filosofia e a ciência, no território tecnológico computacional.
(4) A mensagem da lista de discussões faz parte de arquivo acessado através de pesquisa Google sobre a expressão "computational turn". Informa que os editores da publicação seriam Elaine Brennam & Allen Renear, no endereço editors@brownvm.bitnet, datada de 30 de abril de 1991, tendo a mensagem de Burkholder sido postada na véspera. Ver referência bibliográfica Burkholder, 1991.
(5) A informação foi acessada em resenha desse autor (Gert-Jan C. Lokhorst), escrita em 1999, sobre a obra "The digital Phoenix: how computers are changing philosophy", de Terrel Ward Bynum e James H. Moor (ed), publicada em 1998 por Oxford UK e Malden, USA. Nesta resenha, Lokhorst se refere a outra obra, "Philosophy and the computer", uma coleção de 16 ensaios de 28 autores (Westview Press, 1992), editada por Leslie Burkholder, na qual a expressão "virada computacional da filosofia" teria sido usada pela primeira vez, pelo próprio Burkholder. Ver referência Lokhorst, 1999.
(6) Deixa-se de explicar o que é Google, no texto, em função da intensa popularidade desta ferramenta de busca, a ponto de tornar-se um verbo (googlear, em português, ou to google, em inglês), que significa sinônimo para buscar na Internet. A pesquisa foi feita em dezembro de 2006.
(7) Talvez seja oportuno atentar para a simultaneidade da virada lingüística da filosofia (identificada como o território do positivismo lógico, característico do ensino de Oxford, UK, conforme relata o próprio Magee, 2001), com o início do diálogo da filosofia com a computação, nos EUA, uma vez que, independentemente de críticas ao reducionismo à linguagem, feitas pelos partidários desta escola filosófica, no momento de seu surgimento, aquele olhar sobre a linguagem possivelmente tenha contribuído para a estruturação de raciocínios fundamentais da ciência cognitiva, apoiados no desenvolvimento da lingüística e da inteligência artificial.
(8) Ver nota 5, com informações sobre obra de Bynum e Moor.
(9) A descrição de Dennet consta de entrevista que o filósofo concedeu a Bill Uzgalis, em Boston, Massachusetts, em dezembro de 2004. O texto, entretanto, faz parte da publicação on-line Minds and Machines, V.16, N.1, de fevereiro de 2006, referida como Uzgalis (2006).
(10) Ver mais sobre estruturação das crenças na cognição humana no item 5 deste artigo, Teoria modular-computacional da mente: hardware e software moldados pela evolução, para a sobrevivência da espécie.
(11) Uma pergunta clássica para refletir sobre os ingredientes e os níveis de inteligência de máquinas é a que se refere à diferença entre um liquidificador, que apenas liga-desliga o giro de uma pá, e um computador, que possui camadas de programação, muitas das quais exigem troca de informações entre elas, para atualização de memória e de processamento, e ainda pode receber novas camadas, através de softwares a serem instalados pelo usuário. A aceitação de que um deles é mais inteligente do que o outro, supõe que existam níveis, graus de complexidade e presença de diferentes ingredientes de inteligência, na sua determinação.
(12) Duas faces, neste exemplo, diriam respeito apenas às comunicações entre programador e usuário, mas, a rigor, pensando-se na explosão de possibilidades de documentação, comunicação, compartilhamento, convergência e outros tipos de oferta tecnológica contemporânea, trata-se, na verdade, de um multi-espelho, de infinitas faces.
(13) Uma ironia divulgada informalmente, como uma espécie de cultura popular associada ao mundo da informática, diz que os computadores vieram resolver problemas que não existiam. Mesmo se valor acadêmico, este tipo de referência dá conta de um conhecimento tácito que se cristaliza na cultura, a respeito de como os computadores direcionam o equacionamento de problemas que foram imaginados antecipadamente pelos programadores, quando o usuário não tinha consciência da necessidade de solução.
(14) Simon (Norman, 1987) chamou de batizado de um novo campo de investigação científica em 1987, ano em que se realizou uma conferência organizada pelo Programa de Ciência Cognitiva da Universidade de San Diego, Califórnia, USA, reunindo os principais pesquisadores de uma área em evidente crescimento. A conferência ocorreu muito tempo depois da data que o mesmo autor identifica como sendo de nascimento das Ciências Cognitivas, em 1956, ano em que foram publicados quatro artigos fundadores da área, citados por ele mesmo (Miller, G. A. The magical number seven. Psychological Review, Washington, v. 63, n. 2, p. 81-97, Mar. 1956. Chomsky, N. Three models of the description of language. Actas de un Simposio acerca de Teoria de la Informacion. IRE Transactions on Information Theory, New York, v. 2, n. 3, p. 113- 124, Sept. 1956. Bruner, J. S.; Goodnow, J. J.; Austin, G. A. A study of thinking. Nova Iorque: Wiley, 1956. Newell, A. P.; Simon, H. A.. The logic theory machine. IRE Transactions on Information Theory, New York, v. 2, n. 3, p. 61-79, Sept. 1956).
(15) Ver mais sobre ingredientes da cognição humana no item 5 deste artigo, Teoria modular-computacional da mente:hardware e software moldados pela evolução, para a sobrevivência da espécie.
(16) O autor referido (Johnson, 2001) descreve os chamados comportamentos emergentes, de sistemas coletivos que funcionam sem um controle central (bottom-up), cujos padrões podem ser encontrados em sociedades de formigas, por exemplo, ou no funcionamento das cidades, dos neurônios no cérebro humano, bem como em alguns softwares inteligentes, que se atualizam (aprendem), via Internet, a partir da captação das escolhas dos usuários, e que terminam, desta forma, identificando tendências que ainda não estão consolidadas, ou mesmo conscientes, entre os usuários. Com isso, os computadores poderão antecipadamente saber o que o usuário tenderá a escolher ou fazer. A idéia foi explicitada de forma provocadora no título "A Internet sabe o que você vai fazer", publicado no jornal Zero Hora 06-08-2006, a partir de matéria New York Times News Service, de autoria de David Leonhardt.
(17) O teste chama-se MST (Moral Sense Test) e pode ser acessado (e respondido) em http://moral.wjh.harvard.edu/
(18) Os resultados da pesquisa indicaram a existência de um senso moral inato entre os humanos, fundamentado sobre três princípios direcionadores dos julgamentos morais em todas as culturas, em todas as idades: a intenção; a ação (julgada de forma mais grave do que se o mesmo dano for causado por omissão); e o contato (julgamento mais grave do que se houver o mesmo dano sem contato físico). Também identificou uma dissociação entre o julgamento e as explicações que são dadas por quem fez a opção do comportamento moral.
(19) Exemplos de estranhamento e de impotência em relação ao comportamento sinistro de computadores pode ser lembrado com o filme 2001, Uma odisséia no espaço, do diretor Stanley Kubrick, com base em texto de Arthur Clarke, no qual um computador inteligente chamado Hall se insurge contra os astronautas e ameaça tomar o poder de sua nave. Além do robô quase-humano de Asimov, citado no texto, um outro bom exemplo de personagem maquínico que aprende emoções, sonhos e inclusive o sentido de amizade, é o personagem Data, da série-ícone Jornada nas Estrelas, que faz parte da tripulação da chamada Nova Geração. Ver mais a esse respeito em Timm (2000).
(20) Matrix, filme de 1999, dirigido pelos irmãos Laurence e Andrew Wachowski e estrelado por Keanu Reaves, é baseado no livro Neuromancer, de William Gibson (2003), que não descreve exatamente a cena do capacete instrucional instantâneo mostrada no filme, mas posiciona a ação em um universo virtual complexo, de informações e acontecimentos, ao qual o personagem conecta-se e desconecta-se, em função das necessidades da trama. O livro inaugura um subgênero de ficção científica denominado cyberpunk, que reflete exatamente a percepção do autor sobre o avanço da informática, das redes virtuais e de seu emaranhamento com a vida real cotidiana, tal como vem acontecendo recentemente, quando policiais usam pesquisas na Internet (Google Earth) para localizar fontes de telefonemas e realizar prisões, como ocorreu no Rio Grande do Sul, em janeiro de 2007. Gibson teria sido o autor do termo cyberespaço, que se tornou outra das novas palavras disseminadas pela cultura virtual, exatamente nesta obra (Antunes, 2003).
(21) A informação sobre a declaração de Berners-Lee foi divulgada no jornal Folha de São Paulo de 13 de agosto de 2006. Sobre ele mesmo, fiel ao espírito do texto, reproduz-se o verbete a seu respeito, da Wikipedia (outro termo do mundo virtual integrado como fonte de informação à cultura contemporânea): Sir Timothy John "Tim" Berners-Lee, (...) (born June 8, 1955 in London, England) is the inventor of the World Wide Web and director of the World Wide Web Consortium, which oversees its continued development. Informally, in technical circles, he is sometimes called "TimBL" or "TBL".
(22) Em Timm, Schnaid e Costa (2005), desenvolveu-se a idéia de que os engenheiros (os profissionais por excelência encarregados do desenvolvimento de tecnologia) são os verdadeiros filósofos da complexidade, não porque verbalizam conceitos a seu respeito, mas porque dominam sua epistemologia, ao operar diretamente sobre ela, nos sistemas complexos e dinâmicos que constituem os grandes projetos de engenharia da atualidade. A idéia foi inspirada por Mitcham (2002) e aprofundada em tese de doutorado sobre o ensino de engenharia (Timm, 2005). A ser consolidada, a idéia remete para a importância da conscientização dos professores de Engenharia sobre a necessidade de refletir sobre essa possibilidade de complexificação da identidade dos engenheiros, bem como de contribuir mais ativamente sobre o debate educacional - de todas as áreas do conhecimento - compreendendo melhor suas necessidades reais, tecnológicas, filosóficas e científicas.
(23) A título de lembrete, as áreas fundadoras das Ciências Cognitivas são a IA, Neurociência, Lingüística, Psicologia, Lógica e Filosofia.
(24) Parte do texto sobre a descrição de Pinker foi publicado em forma de resenha do livro em pauta, em Timm, 2005.
(25) A descrição do cérebro como um hardware orgânico, programado geneticamente com o que seria um software mental não é uma metáfora filosófica, mas sim uma interpretação para o funcionamento da mente, que remete à pergunta provocativa feita por Richard Dawkins (um biólogo, lembre-se) na obra The Selfish Gene, referida neste artigo: "O que, raios, você pensa que é senão um robô, ainda que seja um robô muito complicado?" (Dawkins, 1989, p. 271).
(26) Pinker (1998) descreve a característica composicional, ou compositiva, das formas de produção de conhecimento, que permitem ao ser humano operar sobre unidades simples que se compõem em módulos, os quais se compõem em módulos mais complexos, gerando as infinitas possibilidades de produção e processamento de informações: sons básicos em fonemas, letras/ palavras/frases; tons musicais em notas/acordes/música; formas geométricas básicas em planos/sólidos/construções complexas, etc. Este modelo modular seria a base da estruturação formal de todas as formas de conhecimento.
(27) A Teoria Computacional da Mente se baseia em idéias expressas pela primeira vez por Alan Touring e pelos cientistas da computação Alan Newell, Herbert Simon e Marvin Minsky e pelos filósofos Hilary Putnam e Jerry Fodor (Pinker, 1998).
(28) A funcionalidade do sistema inteligente de processamento de informações descrito por Pinker depende, também de operadores das relações definidas pelo sistema, demons, ou agentes, não necessariamente inteligentes, com funções relacionadas ao abastecimento do sistema (consulta ao banco de memória, comparação de propriedades entre conceitos, informação de inferências ou de ações ao conjunto do sistema, etc.). Define, portanto, etapas conceituais e outras etapas puramente mecânicas, operacionais, no conjunto do processamento.
(29) Matéria publicada no jornal Zero Hora, de Porto Alegre, em 4/03/2007 reportava, através da história pessoal de cinco pré-adolescentes, o que seria a primeira geração nascida e criada sob o signo dos computadores e da Internet. Para eles, pesquisa de informações, troca de mensagens, criação de páginas pessoais, entre outros itens, são temas absolutamente integrados ao cotidiano de lazer, tanto quanto educacional. Exploram sons e vídeos, integram várias áreas do conhecimento, compartilham sua pesquisa com colegas e amigos, entre outras posturas típicas da nova cultura educacional.
(30) Howard Gardner é psicólogo e cientista cognitivo, professor da Universidade de Harvard, que propõe a existência de oito ou nove tipos de inteligência (número em aberto, pelo próprio autor), relacionadas a habilidades e raciocínios prevalentes em cada indivíduo: linguísticos, lógico-matemáticos, cinestésicos, inter-pessoais, intra-pessoais, naturalistas, espaciais, musicais, existenciais. Estas inteligências prevalentes possivelmente estariam relacionadas a formatos preferenciais de aprendizagem: oral, visual, etc., que determinam a heterogeneidade das platéias, por exemplo. Ver Gardner (2005).
(31) Segundo esta crença, as aulas expositivas, palestras, vídeos e outras formas de apresentação de conteúdo gerariam recepções passivas de informações e isso seria incompatível com a necessidade de ação do aluno sobre o objeto de conhecimento.
(32) Ver Chiaramonte e outros (2007), sobre uso de EEG para monitoramento de atividade cerebral durante atividade cognitiva.
(33) Segundo Gardner (2005), os educadores ainda precisam obrigatoriamente cumprir três missões, não excludentes, se quiserem fazer uso do título: apresentar o melhor pensamento do passado; preparar mentes para o futuro incerto; modelar aspectos de civilidade no tratamento dos indivíduos e materiais de trabalho. A respeito da importância da transmissão de conhecimento (exatamente com estes termos), lembra que esta é uma importante característica humana, que não pode ser menosprezada na função educacional. "Tente fazer com que um cachorro ou um gato transmita algum conhecimento recentemente adquirido para um membro de sua espécie: nem a ciência cognitiva nem o comportamentalismo podem dar jeito nisso". (p. 136)
(34) O exemplo, nas palavras do autor: "(...) eu não sou bom em resolver tarefas espaciais (...) Conhecendo esta fraqueza, porém, usarei um software que representa publicamente as operações espaciais que tenho dificuldade em executar na privacidade da minha mente. Com um pouco de prática, acabarei me tornando tão 'inteligente' como um hábil imaginador mental". (Gardner, 2005, p. 201).
(35) Gardner (2005), entre outros autores, se refere ao fato de que há tendências inatas da espécie humana para a adesão ao que seriam teorias intuitivas sobre fenômenos físicos ou biológicos, freqüentemente integradas ao conhecimento de senso comum, apesar de comprovadamente erradas, do ponto de vista científico. É o caso da afirmação comum de que objetos mais pesados caem mais rapidamente. Ressalte-se que estas teorias intuitivas independem do tipo de ensino formal que os alunos tenham recebido.
(36) Exemplos de variáveis envolvidas na cognição humana: atenção, percepção, raciocínio, motivação e memória.