SciELO - Scientific Electronic Library Online

 
vol.15 número2Os modelos mentais de alunos em relação a vetores em duas e três dimensões: uma análise da dinâmica da aprendizagem e da inadequação das avaliações tradicionaisA construção (criativa) do significado: processos inferenciais e blending índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Ciências & Cognição

versión On-line ISSN 1806-5821

Ciênc. cogn. vol.15 no.2 Rio de Janeiro ago. 2010

 

Ensaio

 

Representações mentais e Ciência Cognitiva: dependência excessiva e problemas

 

Mental representations and Cognitive Science: excessive dependency and problems

 

 

Daniel Luporini de FariaI; Cae RodriguesII

IUniversidade Estadual Paulista, Marília, São Paulo, Brasil;
IIUniversidade Federal de São Carlos, São Carlos, São Paulo, Brasil

 

 


Resumo

Sendo as noções de representação e computação centrais no arcabouço teórico-conceitual e nas efetivas reproduções e simulações em Ciência Cognitiva, pretendemos, no presente ensaio teórico, discutir especialmente os problemas concernentes à noção de representação no que tange às simulações e/ou reproduções do pensamento nos artifícios da inteligência artificial e das redes conexionistas. Neste sentido, enfatizaremos em nossas reflexões o que julgamos ser o principal problema no que se refere à implementação de propriedades "inteligentes" em artifícios não biológicos, a saber, o problema da estrutura, ou problema dos frame, que consiste no problema de como desenvolver e sustentar um modelo interno do mundo, de modo que se possa implementar tarefas triviais, tais como atravessar uma rua movimentada sem ser atropelado ou fritar um ovo eficientemente, por exemplo. © Cien. Cogn. 2010; Vol. 15 (2): 070-076.

Palavras-chave: computação; representações; ciência cognitiva.


Abstract

Since the notions of representation and computation are in the center of the theoretical-conceptual framing and in the actual reproductions and simulations in cognitive science, we intend, in this paper, to discuss the problems concerning the notion of representation with respect to the simulations and / or reproductions of thought devices in artificial intelligence and connectionist networks. In this sense, we emphasize what we believe to be the main problem regarding the implementation of "smart" properties in non-biological devices, namely, the problem of structure, or "frame problem", which can be described as the problem of how to develop and sustain an internal model of the world, so that we can implement trivial tasks such as crossing a busy street without getting hit or frying an egg efficiently, for example.© Cien. Cogn. 2010; Vol. 15 (2): 070-076.

Keywords: computation; representation; cognitive science.


 

Introdução

Surgida nos EUA, nos anos 40 do séc. XX, derivada dos estudos em cibernética e intimamente atrelada ao ideal bélico de construção de armamentos auto-ajustáveis, a Ciência Cognitiva, enquanto projeto, pretende desvendar os mecanismos subjacentes ao funcionamento da mente, sobretudo, os mecanismos concernentes ao fenômeno da inteligência (não necessariamente humana)1.

Partindo do pressuposto de que uma explicação efetiva da mente, mais especificamente, das operações e/ou comportamentos inteligentes, deveria consistir na possibilidade de sua simulação em mecanismos artificiais (I.A. fraca) e/ou reprodução em mecanismos igualmente artificiais (I.A. forte), os cientistas cognitivos (que inicialmente seriam pesquisadores das áreas da computação, filosofia, matemática/física, psicologia, linguística e antropologia) proclamam a ruptura com o paradigma dominante do Behaviorismo em psicologia. Introduzindo a teoria da informação nos estudos da mente, opera-se a mudança do paradigma comportamental para o cognitivo, que se propõe a investigar os processos "ocultos" superiores, tais como o modo como percebemos o mundo, produzimos a linguagem e os raciocínios ditos de "alto nível" 2.

A principal característica definidora da ciência cognitiva seria, então, o recurso a artefatos simuladores e/ou reprodutores de propriedades mentais, e, para que isto se efetive, as noções de representação e computação seriam fundamentais ao processo de modelagem computacional. Como salienta Fodor (1980: 31): "Sem representação, não há computação; sem computação, não há modelagem".

Determinar a natureza das estruturas representacionais e do que venha a ser uma computação é uma tarefa das mais complicadas, e está além dos objetivos do presente trabalho; mas para que nosso discurso não soe demasiado evasivo, façamos um breve parêntese, e, resumidamente, vejamos algumas características que compõem tais noções.

Quanto à noção de computação, basta dizer, de maneira muito simplificada, que esta consiste na aplicação de determinadas regras ou operações sobre premissas. Das regras mais usuais de inferência que possibilitam tirar conclusões por meio do uso de condicionais, podemos citar o modus ponens, que possui a seguinte forma lógica: p q; p; consequentemente, q. E o modus tollens, que seria: p q; q; consequentemente, p.

Para compreendermos a noção de representação, e, particularmente, a de representação mental (noção fundamental em filosofia da mente), façamos uma breve incursão pela história da filosofia, e pensemos inicialmente em Platão. Para este, com efeito, o autêntico conhecimento adviria de um mundo ideal, ou mundo das formas (que seriam imutáveis e eternas). Porém, por não podermos acessá-lo diretamente por meio de nossos sentidos, o "contato" com tal mundo teria de ser intelectual. Além disso, a intelecção conceitual dos arquétipos perfeitos já estaria presente na mente humana desde o nascimento, sendo preciso, somente, que nos lembremos mediante o exercício filosófico e consequente depuração ou aperfeiçoamento conceitual.

Na alegoria do mito da caverna (Platão, 2001, livro VII), seríamos como prisioneiros acorrentados em uma escura caverna, que, de costas para a entrada, contemplaríamos as sombras que se projetam numa parede em nossa frente, produzidas pela luz de uma fogueira situada atrás de nós. Essas sombras, ou simulacros seriam tudo o que tomamos por realidade, de modo que o que se passa no exterior da caverna nos seria vedado aos sentidos.

Com essa alegoria, Platão pretende dizer que a realidade em si mesma só pode ser apreendida mediante o exercício filosófico, ou labor intelectual, que visa trazer à tona os conceitos inatos da mente; de modo que as sombras projetadas no fundo da caverna, que tomamos por realidade seriam meras aparências.

Uma ideia que podemos extrair dessa alegoria platônica é a de que o mundo no qual estamos imersos seria, para Platão, uma espécie de "imagem enganosa" que fazemos a respeito de uma realidade supra-sensível, analogamente, uma representação pode ser entendida como uma espécie de "cópia" de alguma coisa, mais ou menos como um mapa pode representar uma ilha, por exemplo.

Restringindo um pouco essa noção intuitiva e um tanto geral de representação, podemos dizer que uma representação mental seria uma espécie de cópia do mundo que criamos mentalmente. Na modernidade, em especial para Descartes, uma representação mental equivaleria a uma ideia ou "imagem das coisas", que pode se manifestar tanto imageticamente, quanto em termos de números ou gráficos, bem como em termos de conteúdos proposicionais expressos por meio da linguagem natural. Ademais, as representações mentais pertenceriam ao domínio da res cogitans, não sendo, portanto, entidades físicas.

Como indicamos, o que caracteriza uma representação é sua propriedade de ser "algo" que pode se colocar no lugar de "outra coisa" (como um mapa, por exemplo). No contexto da Ciência Cognitiva, aos sistemas a que se atribuam representações (que podem ser artefatos tanto da inteligência artificial quanto conexionistas), pode-se dizer que as representações seriam dotadas de conteúdo (que varia dependendo da abordagem), e visariam, sobretudo, guiar o comportamento. Como afirma Haselager:

"As duas características mais importantes das representações são que elas se colocam no lugar de algo e que o sistema usa as representações com o objetivo de guiar seu comportamento. De acordo com a ciência cognitiva tradicional, então, as representações desempenham um duplo papel: carregam um conteúdo e causam o comportamento. Mesmo se a ciência cognitiva clássica e o conexionismo discordam a respeito do formato das representações, eles têm esse pressuposto em comum." (Haselager, 2004: 106)

Dito isso, observa-se que, no contexto da Ciência Cognitiva, uma ação inteligente seria concebida enquanto resultado de procedimentos computacionais sobre representações. Contudo, sérios problemas cercam a noção de representação, a ponto de, contemporaneamente, alguns teóricos, como Haselager (2004) e Simon (1969), sugerirem que, em certos casos, dever-se-ia utilizá-las com maior cautela ou até mesmo preterir de representações (sobretudo no contexto mais básico de conhecimentos e ações do senso comum), quanto mais, reconhecê-las como causa necessária à ação. Vejamos quais seriam, afinal, os problemas referentes à noção de representação.

 

Representações e problemas

Haselager (2004) fornece uma lista dos sete maiores problemas que cercam tal termo:

O problema da estrutura (frame):

Problema originalmente concebido por McCarthy e Hayes (1969), que consistiria na seguinte questão: como criar e sustentar um modelo interno do mundo, de modo que se possa, a partir dele, executar tarefas simples, de senso comum, tais como atravessar uma rua movimentada sem ser atropelado ou andar de bicicleta, por exemplo? (deve-se salientar que tais tarefas não consistem em desempenhos cognitivos de alto nível, tais como a demonstração de um teorema ou a disputa de uma partida de xadrez, por exemplo). De outra maneira, assim, Frawley (2000: 24) coloca o problema: a questão dos frame seria "o enigma de se afirmar clara e integralmente as condições, as atitudes ou as crenças dominantes que restringem globalmente as decisões tomadas por um sistema inteligente".

O problema dos frame é colocada de maneira clara quando se tenta implementar conhecimentos de senso comum em modelos computacionais da I. A. tradicional, com tratamento sequencial de símbolos. Isto porque nós, seres humanos, por exemplo, respondemos aos acontecimentos que nos cercam rapidamente, sem precisarmos pensar ou representar certos conhecimentos antes de agirmos adequadamente frente a determinadas situações. Para evitarmos a queda de um copo que rola na superfície de uma mesa levemente inclinada, por exemplo, nós simplesmente o pegamos, sem, no entanto, pensarmos na lei da gravitação, na dureza do solo ou na quebrabilidade do copo.

Já um robô concebido nos moldes da I. A. tradicional não consegue agir eficientemente ou em tempo hábil frente a situações deste tipo, pois se perde na enorme quantidade de informações e serem processadas antes da ação. Em suma, parece que nós, na realização de tarefas cotidianas, utilizamos apenas as informações adequadas para cada situação, de modo a aplicarmos, em cada caso, algum tipo de critério de relevância que inexiste nos artefatos da I. A tradicional.

Além disso, cabe salientar que o problema dos frame contribuiu significativamente no desenvolvimento de modelos alternativos de conhecimento representacional, tais como as representações distribuídas do conexionismo (Haselager, 2004). Entretanto, mesmo representando o mundo de maneira holística, mediante um tratamento da informação que se encontra incorporada em seus pesos (conferindo, portanto, um tratamento informacional mais rápido e melhor capacitado em lidar com as constantes alterações do meio), os sistemas conexionistas se mostram limitados no que tange à integração da informação, deixando escapar aspectos importantes referentes ao contexto do qual são captadas as informações.

Problema do formato das representações:

Versa sobre a questão da natureza das representações. Seriam elas baseadas em símbolos bem estruturados ligados a uma rígida articulação sintática e semântica (cognitivismo); ou seriam elas representações distribuídas fundadas em pesos ajustados mediante treinamento (conexionismo)? Seriam ambas? De mais algum tipo além destas? Quais?

Sem pretendermos dar conta das embaraçosas questões arroladas acima, podemos, de passagem, mencionar apenas que as estruturas representacionais da inteligência artificial, bem como das redes conexionistas, seriam antes complementares que competitivas (Thagard, 1998). Enfim, a questão permanece em aberto, e constitui-se num grande problema para a Ciência Cognitiva.

Problema da operacionalidade:

Diz respeito às dificuldades na operacionalização do próprio conceito de representação na Ciência Cognitiva (considerada nas suas três vertentes). Ou seja, em qualquer ciência, os conceitos devem ser aplicáveis, e em Ciência Cognitiva não parece ser claro a quais sistemas deveriam aplicar a noção de representação.

Problema do significado:

Versa sobre o problema de como poderia surgir e em que consistiria o conteúdo ou significado de sistemas representacionais. Enfim, como tais sistemas poderiam referir-se às coisas do mundo, ou melhor, como sistemas poderiam exibir intencionalidade intrínseca (Searle, 1980). Cabe ressaltar que a questão não é sobre o que significam as representações para os designers que as projetaram, mas o que significam para os modelos neles mesmos.

O problema do observador:

Na Ciência Cognitiva, comumente se vêem representações quando possivelmente desnecessário. Segundo Simon (apud Haselager, 2004), o problema poderia ser ilustrado pelo seguinte exemplo: ao observar a complexidade do caminho de uma formiga na areia da praia, um cientista cognitivo poderia ser tentado a atribuir a complexidade da trilha como efeito de representações mentais "na cabeça" da formiga.

Entretanto, seria muito mais plausível atribuir tal complexidade da trilha à própria complexidade do ambiente da formiga, de modo que esta se deslocaria, por exemplo, sempre de modo a evitar regiões encharcadas, ou de areia muito quente, ou ainda, sempre através dos vales formados entre os montes de areia, dentre outras possíveis maneiras de locomoção que leve em conta a complexidade do ambiente.

O problema da dependência (parte 1):

Diz respeito à ideia de que a explicação acerca do funcionamento de um sistema não depende necessariamente da postulação de um nível representacional a tal sistema.

Como exemplo, Haselager (2004) recorre à solução de James Watt ao problema da regulagem da pressão do vapor dos teares utilizados no século XVIII, baseada numa ligação mecânica direta no mecanismo do tear, sem ter de recorrer a um algoritmo do tipo:

  • Meça a velocidade da roda;
  • Compare a velocidade atual com a velocidade desejada;
  • Se não há discrepância, volte ao passo 1, caso contrário:
    • Meça a pressão do vapor atual;
    • Calcule a alteração desejada em pressão e vapor;
    • Calcule o ajuste da válvula do regulador de pressão necessário.
  • Faça o ajuste da válvula do regulador de pressão.
  • Volte ao passo 1. (Haselager, 2004: 11)

Com tal exemplo, Haselager pretende mostrar que certos problemas podem ser resolvidos sem recorrer à postulação de patamares representacionais em determinados sistemas.

O problema da dependência (parte 2):

Diz respeito à asserção mais forte de que todo sistema deve ser concebido com um sistema representacional. Assim, tendo em vista o exemplo do regulador de pressão desenvolvido por Watt, a extrapolação do problema da dependência resultaria na ideia de que tal sistema poderia ser entendido como representacional. Desta forma, cairíamos na atitude extremista de que tudo pode ser representado.

Da exposição que fizemos acerca dos problemas relativos à noção de representação apontada por Haselager (2004), observa-se que tais problemas estariam intimamente relacionados, podendo, talvez, ser concebidos como manifestações de pelo menos duas perspectivas centrais não excludentes. Reflitamos sobre elas: numa perspectiva filosófica, o problema da operacionalidade seria central, pois a discussão giraria ao redor da aplicabilidade da noção de representação. Assim, questões acerca da presença ou não de representações "na cabeça" de uma formiga (problema 5), bem como questões acerca da aplicabilidade ou não de representações ao regulador de pressão de Watt, de modo a poder se pensar na possibilidade de que representações poderiam ser aplicadas a todos os sistemas mecânicos (problemas 5 e 6), diriam respeito ao trato filosófico da questão da operacionalidade (questão 2).

Já numa perspectiva de ordem prática, que diga respeito à aplicação efetiva de representações em modelos computacionais, observa-se que a questão primeira (acerca dos frame) seria a mais relevante. Ou seja, como construir modelos computacionais que consigam lidar, em tempo hábil e de maneira adequada, com conhecimentos relevantes que nós, seres humanos (e algumas espécies de animais), lidamos cotidianamente?

Quanto a questão da estrutura das representações (problema 2), e a do significado (problema 4), entendemos que talvez devam ser concebidas como híbridas. Isso porque, apesar de parecerem estritamente filosóficas, determinar a natureza das representações (problema 2) dificilmente vem desvinculada (pelo menos no contexto da Ciência Cognitiva) de questões de ordem prática acerca de como se dá a representação em artefatos computacionais, nos âmbitos do cognitivismo (no qual a representação se dá como manipulação sintática de símbolos) e do conexionismo (no qual as representações vinculam-se ao ajustes dos pesos da rede). Quanto ao problema do significado, da mesma forma, determinar se um artefato possui ou não dimensão semântica, depende do tipo de artefatos aos quais estamos nos referindo.

Feitas tais considerações, que não possuem a pretensão de serem definitivas, estando abertas a outras possíveis interpretações a respeito das correlações entre os 7 problemas apontados por Haselager, é preciso que façamos algumas distinções importantes, de modo a esclarecer que as representações devem ser pensadas em pelo menos duas maneiras básicas (dentre outras possíveis): numa perspectiva realista, as representações realmente existem "na cabeça" de determinados sistemas, e, de fato, seriam pré-condição e causa de comportamentos (tal atitude parece fazer mais sentido quando aplicada a animais que estão a raciocinar profundamente, ou computadores, por exemplo). Numa perspectiva instrumentalista, podemos apenas utilizar o termo representação ao descrevermos o comportamento de determinados sistemas (um martelo, uma bicicleta, por exemplo).

Tais distinções, com efeito, nos permitiria lidar com o problema filosófico da operacionalização das representações, o que nos ajudaria a compreender melhor os problemas 5, 6 e 7.

Neste contexto, um preceito metodológico antigo a ser levado em consideração seria o da maior plausibilidade da explanação mais econômica, ou navalha de Ockan, que, aplicado ao problema 5 (exemplificado pelo percurso da formiguinha), por exemplo, consideraria a interrogação de Simon: (por que atribuir representações internas a sistemas em que a própria complexidade do sistema daria conta de explicar determinados tipos de comportamentos?) como um motivo relevante para se prescindir, neste caso, do recurso a um patamar representacional de caráter explicativo do comportamento da formiga.

A mesma aplicação da navalha de Ockan valeria também para o problema 6 (da dependência de representações), de modo que, dado que Watt concebeu um mecanismo auto ajustável para regular a pressão da válvula do tear, sem recorrer a representações, por que adotar a postura anti-econômica de atribuir representações a tal sistema (problema 7), ou atribuir representações a todos os sistemas mecânicos?

 

Conclusão

Em conclusão, podemos dizer, fazendo coro ao que Haselager (2004) expressa em seu artigo, que tendo em vista os problemas arrolados no que se refere às representações, não se trata de abrirmos mão completamente delas, pois podem ser muito úteis na explicação de operações que envolvem pensamentos profundos, ou processos cognitivos de alto nível (como o desenvolvimento do cognitivismo parece indicar), mas de não as utilizarmos demasiadamente, enxergando-as em sistemas que possam ser compreendidos sem sua utilização.

Além disso, atribuir às representações um papel causal necessariamente anterior e preparatório à ação parece problemático, principalmente se levarmos a sério o problema dos frame, tal qual colocado anteriormente. Isso porque, cotidianamente, alguns sistemas biológicos, incluindo os seres humanos, executam funções (a maior parte delas, diga-se de passagem) que prescindem de um patamar representacional, pois em tais sistemas biológicos o conhecimento parece ser incorporado, inerente às relações que tais agentes desempenham com o mundo.

 

Referências bibliográficas:

Dupuy, J.P. (1996). Nas origens das ciências cognitivas. (Ferreira, R. L. Trad.). São Paulo: Ed. UNESP. (Original publicado em 1994).

Fodor, J.A. (1980). What psychological states are not. Em: Block, N. (Org.). Readings in philosophy of psychology. v. 1. (pp. 237-250). Cambridge: Harvard University Press.

Frawley, W. (2000). Vygotsky e a ciência cognitiva: linguagem e integração das mentes social e computacional. (Domingues, M. A. G. Trad). Porto Alegre: Artes Médicas Sul. (Original publicado em 1997).

Haselager, W.F.G. (2004). O mal estar do representacionismo: sete dores de cabeça da Ciência Cognitiva. Em: A. Ferreira, M.E.Q. Gonzalez e Coelho, J.G. (Eds.). Encontros com as Ciências Cognitivas, v. 4. (pp. 105-120). São Paulo: Coleção Estudos Cognitivos.         [ Links ]

Luria, A.R. (1990). Desenvolvimento cognitivo: seus fundamentos culturais e sociais. (Barreto, L.M.; Oliveira, M.K.; Andrade, M.M.M. de e Maciel, R.H. Trad.). São Paulo: Ícone editora. (Original publicado em 1976).

McCarthy, J. e Hayes, P.J. (1969). Some philosophical problems from the standpoint of artificial intelligence. Em: Meltzer, B.; Michie, D. (Eds.). Machine intelligence 4. (pp. 463-502). Edinburg: Edinburg University Press.

Platão. (2001). A república. (Pereira, M.H.R. Trad.). Lisboa: Fundação Calouste Gulberkian.

Searle, J.R. (1980). Minds, brains and programs. Behav. Brain Sci., 3, 417-424.         [ Links ]

Simon, H. (1969). The sciences of the artificial. Cambridge, MA: MIT - Press.

Thagard, P. (1998). Mente: introdução à ciência cognitiva. (Hofmeister, M.R. Trad.). Porto Alegre: Artmed. (Original publicado em 1996).

 

 

Notas

C. Rodrigues
Endereço para correspondência: Av. Tancredo de Almeida Neves, 457/344, Parque Santa Mônica, São Carlos, SP 13561-260, Brasil.
E-mail para correspondência: cae_jah@hotmail.com.

(1) Retirando a exclusividade da mente humana como objeto de estudo, desvia-se do problema apontado por Kant, que versa sobre a impossibilidade de se estudar cientificamente a mente, sob a alegação de que não haveria objetividade num estudo de algo que é, ao mesmo tempo, agente e paciente.
(2) Como o projeto inicial da ciência cognitiva era reproduzir ou simular artificialmente determinados aspectos da mente, percebe-se a relevância do trabalho de antropólogos na identificação de funções que, como se sabe, variam de uma estrutura sócio-cultural para outra (cf. Luria, 1990). Entretanto, devido às dificuldades na implementação de tais funções em artefatos, ocorre, por volta dos anos 60, a ruptura dos antropólogos com a ciência cognitiva, e a inclusão das neurociências. A inclusão das neurociências se deve à ascensão do paradigma das redes neurais artificiais (RNAs) que propõem modelos artificiais mais condizentes ao modo como o cérebro processa informações. Daí a necessidade de se compreender como, de fato, o sistema nervoso biológico opera (Dupuy, 1996).

Creative Commons License