SciELO - Scientific Electronic Library Online

 
vol.22 número3O tratamento do comportamento de gaguejar e o relacionamento terapeuta-cliente: Um estudo de caso índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Acta Comportamentalia

versão impressa ISSN 0188-8145

Acta comport. vol.22 no.3 Guadalajara  2014

 

Artigo

 

Função reforçadora condicionada: Interações com a função discriminativa

 

(Conditioned reinforcing function: Discriminative function interactions)

 

 

Júnnia Maria Moreira1

Universidade Federal do Vale do São Francisco (Brasil)

 

 


RESUMO

Reforço condicionado, tema de estudos há mais de 60 anos, é um estímulo que tem sua função reforçadora estabelecida a partir da relação de contingência com outro reforçador. No entanto, apesar da simplicidade da definição, diferentes e refinadas metodologias são utilizadas para investigar os efeitos de reforçadores condicionados, o que, consequentemente, ocasiona em diferentes medidas. Alguns estudos têm investigado as relações entre as funções reforçadora e discriminativa, tais como estudos que utilizaram o procedimento de observação. O objetivo do presente trabalho é apresentar alguns estudos tradicionais sobre o tema a fim de discutir a respeito das relações entre as funções reforçadora e discriminativa. Questiona-se a respeito da participação do estímulo reforçador em uma contingência S-S e também em uma contingência tríplice enquanto condição necessária ou suficiente para se estabelecer um reforçador condicionado. Os resultados dos estudos apontam para a relevância da função discriminativa, assim como de outras variáveis, como a contingência S-S, para o estabelecimento da função reforçadora, porém indicam que a função discriminativa não é condição necessária para o estabelecimento da função reforçadora. Estas discussões profícuas direcionam para a importância da realização de pesquisas adicionais sobre o assunto com o objetivo de integrar e consolidar os resultados já existentes na literatura.

Palavras chave: análise do comportamento, reforço condicionado, função reforçadora, função discriminativa, procedimento de observação


ABSTRACT

Conditioned reinforcement has been studied for more than 60 years and is defined as the stimulus which became a reinforcer in function of its relation with another reinforcer. In spite of this simple definition, different and sophisticated procedures have been used to investigate the phenomenon, which consequently resulted in the use of different measures. Some studies have investigated the relationship between the discriminative and reinforcing functions such as studies that used the observation procedure. The objective of this paper is to present some traditional studies to discuss the relationship between the reinforcing and discriminative functions. The question raised is related to the stimulus functioning in a S-S contingency besides in a three terms contingency as a necessary or sufficient condition to establish a conditioned reinforcer. To achieve this goal, studies that aim to explicitly investigate the relations between discriminative and reinforcing functions and studies that did not have this goal but also evoke the question are discussed. Among the latter studies, are located the response suppression studies, that allowed to discuss the contiguity and contingency relations between stimulus, and the observation procedure studies, that allowed to discuss the relationship between the signaling, discriminative and reinforcing functions. The results of studies stress the relevance of the discriminating function, as well as other variables, like S-S contingency, to establish the reinforcing function, but indicate that the first one is not necessary for the establishment of the conditioned reinforcer. These fruitful discussions highlight the relevance of carrying out further research on the subject in order to integrate and consolidate existing findings in the literature.

Keywords: behavior analysis, conditioned reinforcement, reinforcing function, discriminative function, observing procedure


 

 

Reforçador condicionado é um estímulo que tem sua função reforçadora estabelecida a partir da relação de contingência com outro reforçador, o que aponta para a necessidade de uma relação de contingência entre os dois estímulos, o inicialmente neutro e o reforçador já estabelecido (Skinner, 1981/1953). Skinner enfatiza que, se o estímulo cuja função reforçadora está sendo adquirida e o estímulo reforçador a ele emparelhado forem apresentados várias vezes separadamente, quebrando a relação de contingência entre eles, a função reforçadora do primeiro pode enfraquecer. Este enfraquecimento dependerá da probabilidade de ocorrência dos estímulos juntos e da probabilidade de ocorrência dos mesmos separados.

Outra definição foi proposta por Keller e Schoenfeld (1973/1950), que afirmam a interdependência entre as funções reforçadora e discriminativa. Nesse caso, para que um estímulo exerça função reforçadora em relação a qualquer resposta, ele precisaria funcionar também como estímulo discriminativo (Sd), evocando alguma resposta. A relação de contingência necessária para estabelecer a função reforçadora teria que incluir, além dos estímulos, também uma resposta. Essas noções encontram embasamento nas evidências de que apenas o pareamento ou contiguidade entre estímulos não é suficiente para a ocorrência de condicionamento (Rescorla, 1968).

O objetivo do presente trabalho consiste em realizar um apanhado histórico e revisar resultados de estudos tradicionais na área de reforço condicionado de forma a explicitar aspectos referentes às relações entre as funções reforçadora e discriminativa exercida pelos estímulos. Dentre esses aspectos, discutem-se as condições necessárias e suficientes para o estabelecimento da função reforçadora, tais como a interdependência entre as funções reforçadora e discriminativa e as relações de contingência e contiguidade entre os estímulos. Ao longo deste trabalho, será utilizado o termo contingência S-S para referir-se somente a relações entre estímulos, situações em que a apresentação ou remoção dos estímulos independe de qualquer resposta do organismo. E será utilizado o termo tríplice contingência para designar contingências que envolvam, além de estímulos, também alguma resposta do organismo.

Para investigar a interdependência entre as funções reforçadora, estabelecida a partir de uma contingência S-S, e discriminativa, presente na tríplice contingência, Schoenfeld, Antonitis e Bersh (1950), por exemplo, realizaram um estudo no qual inicialmente foi medida a frequência da resposta de pressão à barra em uma condição em que a mesma produzia apenas uma luz acesa. Posteriormente, os experimentadores treinaram os ratos a dirigirem-se até o recipiente de alimento após o som do alimento caindo nesse recipiente, sem exigência de resposta. Os sujeitos foram então divididos em dois grupos: o experimental, no qual, após a liberação do alimento, uma luz era acesa durante um segundo, e o grupo controle, no qual não havia luz, mas apenas a liberação do alimento. A luz era apresentada após o som do alimento caindo no recipiente, mais especificamente, a apresentação da luz ocorria um segundo após o animal ter começado a comer. Posteriormente, os animais foram expostos a uma condição de extinção, na qual as respostas de pressão à barra não produziam nenhuma consequência. Após a condição de extinção, o valor reforçador da luz foi verificado em uma condição de teste. Neste teste, para ambos os grupos, semelhante à primeira condição, a resposta de pressão à barra produzia apenas a luz acesa. Os resultados mostraram que o grupo experimental não apresentou mais respostas que o grupo controle, indicando que a luz não adquiriu função reforçadora mediante o emparelhamento com o alimento. Assim, a partir de resultados como esse, Keller e Schoenfeld (1973/1950) afirmaram que, para que um estímulo possua função reforçadora, não basta existirem relações de contingência S-S, mas o estímulo deve também apresentar função discriminativa, ou seja, fazer parte de uma contingência tríplice. A luz pode não ter exercido função reforçadora devido ao fato de não apresentar também função discriminativa. No entanto, os resultados podem ser explicados em termos de um fenômeno conhecido como bloqueio, de acordo com o qual o condicionamento de um estímulo é atenuado pelo condicionamento prévio de outro estímulo. Em um procedimento padrão para verificar o bloqueio, dois grupos de sujeitos são expostos a um treino com dois estímulos, por exemplo, um som e uma luz, sinalizando o US, por exemplo, choque. Ambos os grupos são testados posteriormente quanto ao efeito produzido por um dos estímulos, por exemplo, a luz. Porém, existe uma diferença entre os grupos: um deles tem uma história anterior ao treino com o estímulo composto luz+som, na qual apenas um dos estímulos, o som, por exemplo, sinalizava o US. Os dois grupos apresentam uma experiência de contiguidade entre o US e os CSs, luz e som, porém a história prévia com apenas o som e o US é suficiente para enfraquecer o condicionamento da luz como CS, efeito observado no grupo com a história comparado ao grupo sem a história (Kamin, 1969; Rescorla, 1988). Diante dessa possibilidade de bloqueio da função reforçadora da luz no estudo de Schoenfeld, Antonitis e Bersh (1950), os resultados não permitem afirmar que a função reforçadora depende da participação do estímulo em uma contingência tríplice além da contingência S-S.

Adicionalmente, a participação do estímulo em contingências S-S e tríplice como condição necessária para o estabelecimento da função reforçadora é uma consideração controversa na medida em que, como apontado por Tomanari (2001), existem dados na literatura indicando que estímulos podem ter função reforçadora condicionada mesmo quando não mais funcionam como estímulos discriminativos (Fantino & Logan, 1979). Adicionalmente, a função reforçadora de um estímulo também pode estar presente mesmo quando o mesmo jamais funcionara como discriminativo, como ocorre na manutenção de respostas de observação por estímulos sinalizadores de reforço independente de resposta (Tomanari, Machado & Dube, 1998). Nesse caso, não há relação de contingência tríplice entre a resposta e os estímulos sinalizadores e reforçadores, porém a relação de contingência S-S está presente no que diz respeito aos estímulos sinalizadores e reforçadores.

Para falar sobre contingências S-S é imprescindível recorrer aos estudos que investigaram diretamente relações de contingência e contiguidade entre estímulos. Variáveis relacionadas à contingência entre os estímulos, reforçador ou aversivo e inicialmente neutro, podem ser responsáveis pelo sucesso ou fracasso no estabelecimento da função reforçadora, de forma que a discussão sobre os termos contingência e contiguidade entre estímulos, realizada a seguir, pode ser de especial interesse. Nesse caso, serão exemplificados estudos que investigaram também o estabelecimento da função aversiva, assumindo-se que um estímulo aversivo pode também ser considerado um estímulo reforçador negativo.

 

RELAÇÕES DE CONTINGÊNCIA E DE CONTIGUIDADE ENTRE ESTÍMULOS

As noções de contingência e contiguidade são fundamentais para analisar as condições mediante as quais um estímulo neutro torna-se um reforçador condicionado. A contiguidade refere-se ao pareamento entre os estímulos, ou seja, à proximidade temporal entre eles e também à quantidade de vezes em que eles ocorrem juntos. Por outro lado, a contingência refere-se à relação condicional entre os dois estímulos, ou seja, a probabilidade de ocorrência de um estímulo na presença ou após a ocorrência do outro, bem como a probabilidade de ocorrência de um estímulo na ausência do outro (Catania, 1999).

Rescorla (1967) discute a visão do condicionamento baseada no pareamento e a visão baseada na contingência entre os estímulos, ressaltando a importância da diferenciação entre as duas. De acordo com a visão baseada no pareamento, a quantidade de ocorrências conjuntas dos estímulos, o condicionado (CS) e o incondicionado (US), é o que determina o condicionamento, de modo que quanto mais pareamentos, mais positiva a contingência. Dessa forma, um procedimento de extinção estaria em vigor quando, por exemplo, os estímulos não mais ocorressem juntos.

De acordo com a visão que enfatiza a contingência entre os estímulos como essencial no condicionamento, a situação acima descrita, compreendida como extinção na visão do pareamento, seria na verdade caracterizada por uma relação de contingência inibitória ou negativa. Isso porque um estímulo, o CS, sinaliza a ausência do outro, o US. A definição de contingência incluiria o que é pareado e também o que não é pareado com dado estímulo e, assim, a contingência é configurada em termos da probabilidade de ocorrência do US na presença do CS mas também incluiria esta probabilidade de ocorrência do US na ausência do CS. De acordo com Rescorla (1968), uma contingência excitatória ou positiva vigoraria quando a probabilidade do US fosse maior na presença do CS do que na sua ausência, nesse caso o condicionamento aconteceria e o CS passaria a exercer controle sobre a resposta, enquanto uma contingência inibitória vigoraria quando esta probabilidade fosse menor na presença do CS do que na sua ausência, o que não resultaria em condicionamento. A extinção da contingência, neste caso, pressupõe a ocorrência randômica e independente de CS e US, de forma que a probabilidade do US na presença do CS fosse igual à sua probabilidade na ausência do CS, e que alguns pareamentos pudessem eventualmente acontecer.

No procedimento padrão utilizado por Rescorla (1967; 1968; 1988), uma resposta operante que produz reforço primário é treinada em uma condição inicial. Posteriormente o sujeito é exposto a outra condição na qual a contingência da condição inicial é mantida e outra contingência é sobreposta: independente da emissão de respostas, um estímulo inicialmente neutro, por exemplo, um som, é apresentado juntamente com um estímulo aversivo, um choque. A introdução do estímulo aversivo, choque, suprime as respostas operantes anteriormente treinadas apesar de não apresentar nenhuma relação de contingência com estas respostas. O estabelecimento da função aversiva, ou função reforçadora negativa, do som apresentado juntamente com o choque poderia ser afirmado caso ocorresse a supressão da resposta operante para produção de reforço primário na presença do som apenas. Esta possibilidade é verificada em uma condição de teste na qual apenas o estímulo inicialmente neutro é apresentado e a supressão da resposta operante é medida.

Rescorla (1968) realizou um estudo com ratos cujos resultados corroboram o estabelecimento da função aversiva do som. Neste estudo, após o treino da resposta de pressão à barra, os animais foram divididos em dois grupos. No grupo randômico os sujeitos foram expostos a um condicionamento em que um som (CS) e um choque (US) ocorriam randomicamente e, algumas vezes, emparelhados. No segundo grupo havia a mesma quantidade de pareamentos do grupo randômico, porém as ocorrências do US (choque) na ausência do CS (som) foram omitidas, de forma que o US ocorria sempre durante o CS porém este último algumas vezes era apresentado sem o US. Em seguida, foi realizado um teste no qual estava em vigor um esquema VI para a resposta de pressão à barra e, ao mesmo tempo, um esquema sobreposto de apresentação do CS. A medida do condicionamento utilizada foi a supressão, na presença do CS, da resposta de pressão à barra, previamente treinada. Os resultados mostraram que apenas no segundo grupo houve supressão das respostas de pressão à barra durante os primeiros dias de teste. Este resultado discrepante entre os dois grupos indica que apenas os pareamentos entre os estímulos não são suficientes para garantir o condicionamento, visto que em ambos os grupos o número de pareamentos era igual. Neste ponto, a contingência entre os estímulos é determinante.

O Experimento 2 foi semelhante ao Experimento 1, porém Rescorla (1968) manipulou as probabilidades de ocorrência do US na presença e na ausência do CS em 10 grupos distintos, como mostra a Tabela 1.

 

 

Os resultados mostraram que, independente da probabilidade de ocorrência do US na presença do CS, a supressão da resposta foi inversamente proporcional à probabilidade de ocorrência do US na ausência do CS para todos os grupos. No que concerne à aquisição da função aversiva por um estímulo inicialmente neutro, este dado aponta para a importância da contingência, compreendida em termos da probabilidade de ocorrência do US na presença do CS mas também em termos da probabilidade de ocorrência do US na ausência do CS (ver também Murphy & Baker, 2004).

Com relação à medida de supressão de uma resposta previamente treinada utilizada nos estudos sobre condicionamento aversivo, como os descritos acima, a contingência entre os estímulos em detrimento do simples pareamento é crucial. Porém, em estudos de condicionamento de estímulos apetitivos (equivalentes ao US nos estudos de condicionamento aversivo) utilizando como medida a taxa de resposta mantida apenas pelo estímulo inicialmente neutro, o pareamento, mesmo na ausência de relação de contingência, parece produzir algum efeito (Cohen, 1981). Estas discrepâncias entre os efeitos da relação prévia entre estímulos aversivos e apetitivos podem estar relacionadas à forma como os efeitos aversivos (ou reforçadores negativos) e reforçadores positivos dos estímulos são verificados. No caso do efeito reforçador positivo, esta verificação ocorre por meio do aumento na frequência da resposta que produz o estímulo, porém no caso do efeito aversivo, a verificação ocorre através da supressão de uma resposta operante que continua produzindo um reforço e que não apresenta nenhuma relação de contingência com o estímulo aversivo. Considerando as diferenças nos procedimentos e medidas, pode-se dizer que existe a possibilidade de que o estímulo inicialmente neutro, emparelhado, porém não contingente ao estímulo aversivo, tenha adquirido alguma função aversiva, porém que esta função restringe-se à produção de respostas emocionais eliciadas e, portanto, é incipiente e insuficiente para suprimir a resposta. Em outros termos, a ausência de supressão da resposta pela apresentação de um estímulo, observado no grupo randômico do primeiro experimento de Rescorla (1968), pode não garantir a ausência de função aversiva do mesmo (para uma discussão sobre os limites na simetria entre reforço e punição ver Catania, 1999).

Considerando estimulação apetitiva, o estudo de Murphy e Baker (2004), realizado com ratos, aponta para a simetria do efeito da contingência entre estímulos no estabelecimento das funções reforçadora e aversiva condicionadas. Os autores utilizaram como estímulo incondicionado comida (US), e como estímulos condicionados a introdução de uma barra retrátil (CS1) e a luz da caixa (CS2). A probabilidade de comida na presença da barra apenas (CS1) e na presença da barra juntamente com a luz da caixa (CS1+CS2) foi manipulada. Havia seis grupos, os de contingência zero e os de contingência positiva. Nos três grupos de contingência zero, a probabilidade de liberação da comida na presença de CS1 e na presença de CS1+CS2 era a mesma, sendo de 0,75, 0,50 e 0,25 respectivamente para os grupos de alta, média e baixa probabilidade. Para os três grupos de contingência positiva, as probabilidades do US na presença de CS1 era sempre menor que a probabilidade do US na presença de CS1+CS2, sendo de 0,50 e 1, respectivamente para o grupo de alta probabilidade; de 0,25 e 0,75, respectivamente para o grupo de média probabilidade; e de 0 e 0,50, respectivamente para o grupo de baixa probabilidade. Posteriormente, a resposta de colocar a cabeça no comedouro foi registrada em uma condição de teste na qual apenas CS1 e CS1+CS2 eram apresentados sem o US. Apesar de não haver contingência programada entre a resposta de colocar a cabeça no comedouro e os estímulos CS1 e CS1+CS2, a frequência dessa resposta foi utilizada como medida devido ao fato de ser uma resposta consumatória necessária para a obtenção do alimento liberado. Os resultados mostraram que os grupos de contingência positiva, nos quais a probabilidade do US na presença de CS1+CS2 era sempre maior do que a probabilidade de US na presença de CS1, apresentaram mais respostas durante CS1+CS2 do que durante apenas CS1. Além disso, estas respostas foram mais frequentes no grupo de baixa probabilidade no qual o US nunca era apresentado na presença de CS1. Isso sugere que o procedimento estabeleceu a função discriminativa dos estímulos emparelhados com o reforçador. Estes resultados corroboram os resultados de Rescorla (1968) utilizando estimulação aversiva, e apontam para a importância da relação de contingência S-S entre os estímulos não só para o estabelecimento da função reforçadora negativa, mas também para o estabelecimento da função discriminativa.

Estudos recentes sobre emparelhamento de estímulos e supressão de resposta têm sido realizados com humanos utilizando um tipo de tarefa no computador. A tarefa dos marcianos, inicialmente proposta por Grilon (2002), foi utilizada no estudo de Meaulders, Vervliet, Vansteenwegen, Hermans e Baeyens (2010). No pré-treino, em um jogo de computador, os participantes deveriam pressionar uma tecla para evitar a suposta chegada de marcianos que pretendiam invadir a terra. Inicialmente, os participantes eram informados sobre a aproximação de algum marciano e tinham apenas um tiro para cada invasor. O objetivo do jogo era atingir o máximo de marcianos possível e impedir as invasões. Foram utilizados como estímulos flashes de luz e som metálico (S1) e alteração na cor de fundo da tela do computador (S2). Durante a apresentação do S1 (flashes e som), chamado de escudo anti-laser, pressionar a tecla do computador ocasionava a inativação da tecla e uma invasão inevitável por um marciano. O S2, alteração na cor de fundo da tela, poderia preceder o S1 (escudo anti-laser) e, a partir deste momento, o participante era instruído de que havia indicadores prévios à ativação do escudo antilaser, que poderiam ajudá-lo a suprimir as pressões na tecla durante o mesmo, evitando assim invasões. Os autores programaram quatro condições: a primeira, na qual o S2 sempre era acompanhado do S1; a segunda, na qual apenas o S1 era apresentado; a terceira, na qual o S2 era apresentado independentemente do S1; e a quarta, na qual não havia apresentação de S1 e S2. Os resultados mostraram que houve mais supressão de respostas nas condições em que o S1 era precedido pelo S2, o que aponta para a importância do emparelhamento com o S1 para a supressão da resposta durante o S2. No entanto, neste estudo, as relações de contingência e contiguidade não foram manipuladas diretamente como no estudo de Rescorla (1968).

Os estudos acima (Meaulders & cols., 2010; Murphy & Baker 2004; Rescorla, 1968) salientam que o emparelhamento é relevante, porém aspectos além deste podem também ser responsáveis pelo condicionamento de um estímulo, como a relação de contingência entre o estímulo inicialmente neutro e outro estimulo que já possua alguma função. Retornando ao estudo de Schoenfeld, Antonitis e Bersh (1950), descrito anteriormente, a luz pode não ter adquirido função reforçadora após o emparelhamento com a comida porque não exercia nenhuma função sinalizadora em relação à mesma. Uma manipulação que possibilitaria investigar se a função sinalizadora da luz com relação à comida afetaria seu valor reforçador consistiria em apresentar a luz antes da comida e verificar se as taxas de respostas no teste são mais altas neste grupo comparado ao grupo em que a luz é apresentada após a comida. Estes pontos são importantes ao se investigar as variáveis responsáveis pelo estabelecimento da função reforçadora condicionada e merecem atenção antes de recorrer à interdependência entre as funções reforçadora e discriminativa para explicar o condicionamento.

 

RELAÇÕES ENTRE AS FUNÇÕES SINALIZADORA, DISCRIMINATIVA E REFORÇADORA

Diversos estudos têm sido realizados no intuito de verificar o valor reforçador condicionado de estímulos que apresentam também função discriminativa ou sinalizadora, visto que sinalizar a disponibilidade do reforçador é parte da função discriminativa (Allen & Lattal, 1989; Case, Fantino & Wixted, 1985; Gaynor & Shull, 2002; Kendall, 1974).

Skinner (1968) salienta que respondemos de forma seletiva aos estímulos ambientais de forma que nem todos os estímulos presentes em uma situação exercerão função discriminativa sobre nosso comportamento. É neste contexto que se situa a relação entre a função discriminativa e a função reforçadora dos estímulos na medida em que estímulos discriminativos podem reforçar as respostas que os produzem (Tomanari, 2009).

Kendall (1974) investigou, com pombos, o efeito da sinalização diferenciada em uma situação de escolha entre duas alternativas com densidades de reforços diferentes. No Experimento 1, o autor programou um esquema concorrente encadeado, no qual no elo inicial estava em vigor um esquema FR 1, com as chaves apagadas. Em um dos elos terminais, em todas as tentativas, a comida (reforço) era liberada após 1 s do início do elo terminal sem exigência de resposta (chave com maior densidade de reforço). No outro elo terminal, em metade das tentativas a comida era liberada após 1 s, também sem exigência de resposta, e no restante das tentativas havia um time out (TO), período no qual apenas a luz da caixa permanecia acesa, também após 1 s (chave com menor densidade de reforços). No elo terminal com maior densidade de reforços, a chave, antes apagada, era iluminada por uma luz branca, enquanto no elo terminal com menor densidade de reforços, a chave poderia ser iluminada tanto por uma luz verde quanto por uma luz vermelha. Havia dois grupos experimentais cuja diferença residia na sinalização da chave de menor densidade. No grupo correlacionado, a luz verde sempre sinalizava reforço e a luz vermelha sempre sinalizava TO. No grupo não correlacionado, ambas as cores poderiam ser acompanhadas tanto de reforço quanto de TO. Os resultados mostraram que no grupo correlacionado, houve mais escolhas pela chave de menor densidade de reforços (acima de 80% das escolhas) do que pela outra chave. No grupo não correlacionado houve menos escolhas pela chave de menor densidade de reforços (abaixo de 20%). Resultados indicando preferência por alternativas com sinalização consistente também foram encontrados por outros estudos realizados com pombos, nos quais a sinalização de atrasos diferentes para o reforço (Kendall, 1972), assim como a sinalização de reforço e punição (ou ausência de reforço) foram manipuladas (Wilton & Clements, 1971; Wyckoff, 1969). Além disso, resultados mostrando que os organismos não apresentam preferência exclusiva pela alternativa de maior probabilidade de reforço também foram relatados no estudo de Spetch e Dunn (1987) no qual as probabilidades de reforço foram manipuladas.

O autor explica a preferência pela alternativa de menor densidade no grupo correlacionado em termos da redução da incerteza representada pela sinalização e, consequentemente, do estabelecimento da função reforçadora condicionada dos estímulos. Além disso, os autores sugerem que, na alternativa de maior densidade, apesar de a cor branca estar sempre correlacionada com reforço, não havia nenhum outro estímulo correlacionado com ausência de reforço, visto que neste elo todas as tentativas terminavam com reforço, o que pode ter enfraquecido o condicionamento da luz branca como reforçador condicionado. No caso da alternativa de menor densidade, a cor verde pode ter se tornado um estímulo reforçador condicionado suficientemente bem estabelecido ao ponto de reduzir os efeitos deletérios da intermitência do reforço (ver também Moore, 1985), resultados que também já foram documentados com humanos (Perone & Baron, 1980). Adicionalmente, escolher mais a alternativa de menor densidade de reforço, apesar de acarretar em maior intermitência, não produzia prejuízos em termos do número total de reforços obtidos devido ao fato de que a sessão era finalizada pelo número de reforços, e não pelo número de tentativas. Esses resultados sugerem que o valor reforçador adquirido por um estímulo é afetado pela disponibilidade de outros estímulos menos reforçadores ou correlacionados com menos reforçamento, visto que houve preferência por uma alternativa na qual havia tanto o estímulo sinalizador S+ quanto o estímulo sinalizador S- em detrimento da outra alternativa na qual havia apenas S+.

Estudos de observação permitem investigações adicionais sobre o efeito reforçador do S+. Gaynor e Shull (2002), em um experimento realizado com ratos, programaram, na chave principal, um esquema misto composto por cinco componentes: VI 30 s, VI 60 s (componentes ricos), VI 240 s, VI 480 s e EXT (componentes pobres). Por meio de respostas na chave de observação, os animais produziam estimulação diferenciada para os componentes ricos (S+) e pobres (S-) por 5 s. Os resultados mostraram que, após uma resposta de observação que produzia o S+ por 5 s, rapidamente ocorria outra resposta que produzia a mesma consequência novamente; porém, quando uma resposta produzia um S- ocorriam longas pausas no responder. Isso sugere que, apesar de sinalizar diferencialmente outro evento relevante, o estímulo correlacionado com os componentes pobres, comparado como o S+, não fortalece respostas de observação e, portanto, não adquire função reforçadora, o que foi verificado por meio das pausas no responder.

Existem evidências também de que o estabelecimento da função reforçadora, medido pela taxa de respostas de observação, depende do efeito que a sinalização pode exercer sobre o responder no esquema principal. Nesse caso, pode-se falar em termos de função discriminativa dos estímulos sinalizadores, visto que controlam respostas discriminadas. Isto tem sido observado quando esse desempenho envolve alterações na taxa global de reforços obtidos (Allen & Lattal, 1989) e quando envolve uma resposta principal de maior custo (Case & cols., 1985).

No estudo de Allen e Lattal (1989), realizado com pombos, havia uma chave principal na qual estava em vigor um esquema misto VI EXT. Duas manipulações foram realizadas: uma na chave principal e outra na chave de observação. Com relação à chave principal, havia condições com e sem consequência para responder durante a EXT. Essa consequência consistia na redução na taxa global de reforços primários por meio do aumento no valor do esquema VI no componente subsequente. Dessa forma, se o animal respondesse durante a EXT, o valor do VI no componente subsequente seria maior do que se não houvesse respostas. Quanto à chave de observação, havia duas condições: uma na qual apenas o S-, correlacionado com EXT, era produzido e a outra na qual o S- e o S+, este último correlacionado com o VI, eram produzidos. Os resultados mostraram que, nas condições com produção de S- e S+, houve respostas de observação quando havia e quando não havia consequência para o responder durante a EXT. Nas condições com produção apenas de S-, só houve resposta de observação quando havia consequência para o responder durante a EXT. Esses dados sugerem que a produção de S- mantém respostas de observação, porém apenas quando este estímulo pode afetar o responder, o qual, por sua vez, pode alterar a taxa global de reforços. Aparentemente, a sinalização representada pelo S- torna-se importante na medida em que exerce função de estímulo discriminativo, proporcionando um desempenho mais discriminado na chave principal e, assim, aumenta a quantidade de reforços obtidos ao longo da sessão.

No estudo de Case e cols. (1985, Experimento 2) realizado com humanos, foi utilizado um procedimento semelhante ao de Allen e Lattal (1989), com três exceções. Em primeiro lugar, a resposta requerida na chave principal, puxar uma alavanca, era diferente da resposta requerida na chave de observação, pressionar uma tecla, e envolvia maior custo em termos da força empregada. E em segundo lugar, com relação à chave principal, havia duas condições: uma na qual o esquema em vigor no componente que alternava com o componente em extinção era de tempo variável (VT) e outra condição na qual esse esquema era um VI. Em terceiro lugar, quanto à contingência de observação, havia duas chaves, uma na qual o S-, estímulo que sinalizava o componente EXT, era produzido e a outra na qual um estímulo não correlacionado, Snc, que sinalizava tanto EXT quanto VT ou VI, era produzido. Nessa programação, na condição VI EXT, as respostas eram requeridas no componente com reforço, nesse caso, pontos trocados posteriormente por dinheiro. Já no caso da condição VT EXT, o participante não precisava emitir respostas na chave principal para obter o reforço durante o componente VT. Apesar de, nessa última condição, a emissão de respostas não ocasionar nenhum prejuízo em termos da obtenção de reforços, o custo requerido na emissão da mesma poderia contribuir para diminuir sua probabilidade de ocorrência. Porém, para que a resposta na chave principal fosse emitida apenas quando essencial para a obtenção de reforços, seria necessário que as condições VT EXT e VI EXT fossem diferencialmente sinalizadas. Esta sinalização diferenciada para os esquemas em vigor na chave principal, da mesma forma que no estudo de Allen e Lattal (1989), era produzida na chave de observação, porém com a diferença de que apenas o S- ocasionava a diferenciação. Os resultados mostraram que na condição em que o reforço na chave principal era independente de resposta (VT EXT), houve mais respostas de observação para produção do Snc do que do S-, o que demonstra um efeito do emparelhamento entre o Snc e o reforço na chave principal. Porém, na condição de resposta dependente (VI EXT), houve mais respostas de observação para produção de S- do que para produção de Snc. Isto sugere que os resultados obtidos com animais, de acordo com os quais o S- pode manter respostas de observação quando o desempenho discriminado é importante (Allen & Lattal, 1989), parecem ser replicáveis com humanos, a despeito de diferenças metodológicas inerentes ao tipo de participante/sujeito.

A literatura sobre reforçamento condicionado envolvendo participantes humanos consiste basicamente em estudos que utilizaram o procedimento de observação. Tomanari (2009), em uma revisão de trabalhos sobre respostas de observação em espécies distintas, aponta que existem fortes indícios de que as respostas de observação em humanos são mantidas mais pelo S+ e por estímulos não correlacionados do que por Scomo mostra o estudo de Case e cols. (1985; Experimento 2, condição resposta-independente; ver também Fantino & Case, 1983). Porém, em algumas situações específicas, as respostas de observação podem ser mantidas pela produção de S-. Dentre as situações apontadas por Tomanari (2009), destaca-se aquela na qual o S- permite um desempenho mais eficiente em termos de diminuição no custo das respostas (Case & cols., 1985; Experimento 2, condição resposta-dependente) ou ainda de obtenção do maior número de reforços (Madden & Perone, 1999).

No estudo de Madden e Perone (1999), através de uma tarefa em um computador para participantes humanos, os autores programaram esquemas concorrentes VI de forma independente para ganho de dinheiro. Os valores dos esquemas VIs variavam ocasionalmente. Também foi programada uma chave de observação cujas respostas produziam sinalização diferenciada para cada um dos valores dos esquemas VIs (S- e S+), sinalização representada pela alteração na cor de fundo da tela. Havia três condições: (1) na qual o operando de observação não estava disponível e o participante não tinha acesso à sinalização diferenciada entre os esquemas VIs, que neste caso configuravam esquemas paralelos e não concorrentes; (2) na qual este operando estava disponível; e (3) na qual, além da disponibilidade do operando de observação, era requerido do participante que, após a obtenção de cada reforço, fosse identificada a cor referente ao esquema programado. Os resultados mostraram que as respostas de observação foram mantidas pela sinalização diferenciada dos esquemas, ou seja, tanto para produzir S+ quanto para produzir S-. Além disso, com relação à proporção na distribuição de respostas e de reforços na chave principal, houve maior sensibilidade do comportamento nas condições em que as respostas de observação poderiam ser emitidas produzindo sinalização diferenciada para cada um dos esquemas concorrentes. A distribuição de respostas foi mais proporcional à distribuição de reforços quando havia sinalização diferenciada para os diferentes valores do esquema VI. E ainda, os aumentos nas taxas de respostas de observação eram proporcionais aos aumentos na sensibilidade do comportamento aos reforços. Os efeitos de estímulos discriminativos sobre a sensibilidade do comportamento em esquemas concorrentes são corroborados também por diversos estudos na literatura realizados com pombos (Bourland & Miller, 1981; Hanna, Blackman & Todorov, 1992).

No entanto, Lieberman, Cathro, Nichol e Watson (1997) retomam uma questão metodológica importante, inicialmente sugerida por Dinsmoor (1983). Os autores afirmam que no procedimento de observação no qual a resposta produz sinalização diferenciada para os diferentes componentes do esquema misto ou ainda para as diferentes alternativas do esquema paralelo, o comportamento pode ser acidentalmente reforçado. Isto porque, considerando a sequência de eventos que seguem uma resposta de observação, ou seja, a produção de sinalização diferenciada e também a liberação das consequências do esquema programado na chave principal, a mesma pode ser acidentalmente reforçada pelas consequências da chave principal. Os autores ressaltam que, a despeito de o desempenho na chave de observação não produzir nenhuma alteração na obtenção de reforços na chave principal, este desempenho pode ser mantido pelo menos em parte pelas consequências da chave principal. Assim, as respostas que produzem S+ podem ser acidentalmente reforçadas pelas consequências liberadas no componente da chave principal bem como as respostas que produzem S- podem ser acidentalmente enfraquecidas pela ausência de reforçamento no componente da chave principal sinalizado pelo S- (ver também Dinsmoor, 1983). As instruções poderiam ainda influenciar este reforçamento acidental da resposta de observação na medida em que especifica as contingências presentes durante S+ e S-. A afirmação direta e objetiva de que nada que o participante possa fazer seja capaz de alterar a quantidade de pontos ganhos, como constava das instruções do estudo de Case e cols. (1985) não parece ter reduzido o reforçamento acidental das respostas de observação. Isto porque em questionário respondido ao final do experimento foram encontrados relatos dos participantes sugerindo dependência entre a emissão da resposta de observação e o reforçamento na chave principal. Resultados semelhantes também foram encontrados por Lieberman e cols. (1997), que excluíram da análise os participantes cujos questionários indicassem descrições de relações de dependência entre a consequência liberada na chave principal e a emissão de respostas de observação. Os dados dos demais participantes mostraram que as respostas de observação foram mantidas também pela produção de S-.

Fantino e Silberberg (2010) verificaram empiricamente a possibilidade de manutenção de respostas de observação por reforçamento acidental da consequência liberada na chave principal. Em todos os experimentos, na chave principal vigorava um esquema misto VT EXT e havia duas chaves de observação, uma para Snc e outra para S-. No Experimento 2, as respostas de observação produziam, de acordo com um esquema VI, o Snc, não correlacionado com o esquema em vigor na chave principal, e o S-, correlacionado com EXT na chave principal, respectivamente em cada uma das duas chaves de observação. Nesse caso, houve mais respostas para produzir Snc do que para produzir S-. O Experimento 4, foi semelhante ao Experimento 2 com exceção de que o esquema de reforçamento nas chaves de observação foi alterado de VI para CRF. Comparativamente ao Experimento 2, houve mais respostas para produzir S- do que para produzir Snc. É importante ressaltar que caso o esquema VT estivesse em vigor na chave principal, as respostas de observação na chave S- não eram acompanhadas por estímulo algum, situação correlacionada com o reforço na chave principal, o que pode ter sido responsável pelo aumento nas respostas para produzir S- em relação ao Experimento 2. No Experimento 5, ambas as chaves de observação operavam em CRF e os autores programaram diferentes probabilidades de produção de estímulos na chave de observação para S-. Respostas na chave de observação para Snc sempre produziam um estímulo não correlacionado com o esquema em vigor na chave principal. Por outro lado, respostas na chave de observação para S- poderiam produzir (1) um estímulo correlacionado com EXT de acordo com uma probabilidade de 0,25; (2) o Snc não correlacionado com o esquema de acordo com uma probabilidade de 0,5; ou (3) nenhum estímulo, situação que estava correlacionada com o esquema VT na chave principal, com uma probabilidade de 0,25. O Experimento 5, comparado aos Experimentos 2 e 4, gerou taxas de respostas na chave para Snc e S- mais aproximadas. Estes dados sugerem que as taxas de respostas são maiores para produção de S- quando a presença desse estímulo é consistentemente: (1) seguida da resposta que o produz, observação feita a partir de manipulações nos esquemas de reforçamento, a qual foi realizada nos experimentos 2 e 5; e (2) correlacionada com ausência de reforçamento, observação feita a partir de manipulações na probabilidade da consequência, a qual foi realizada nos experimentos 4 e 5. Isso porque, de acordo com os autores, o inverso também é verdadeiro, ou seja, a ausência do S-, nesse caso, está fielmente correlacionada com presença de reforço, ocasionando o reforçamento acidental da resposta de observação para S-. O mesmo não acontece quando esquemas VI são programados na chave de observação, como no Experimento 2, e também quando as probabilidades de ocorrência do estímulo consistentemente correlacionado ao esquema de reforçamento na chave principal são reduzidas, como no Experimento 5.

A sensibilidade à mudança da resposta de observação também tem sido utilizada como uma medida do valor reforçador das consequências produzidas por essas respostas. Tomanari (2004), utilizando um procedimento de observação, introduziu a exigência de um esquema de reforçamento de baixas taxas (DRL) posterior ao esquema programado na chave de observação. Desta forma, na chave de observação vigorava um esquema tanden, no qual aliado ao cumprimento da exigência do esquema de reforçamento da chave principal, o participante ainda deveria apresentar um intervalo entre respostas mínimo determinado previamente para a liberação do estímulo sinalizador. A introdução do esquema DRL ocasionou uma redução maior na produção de S- do que de S+, indicando que, apesar da possibilidade de manutenção de respostas através da produção de ambos os estímulos, essa manutenção apresenta aspectos distintos verificados pela resistência à mudança nas contingências de reforçamento (para maiores informações sobre resistência à mudança ver Santos, 2005). As respostas mantidas por S+ parecem ser mais resistentes que as respostas mantidas por S-.

 

CONCLUSÃO

Considerados em conjunto, os resultados acima demonstram efeitos da contingência S-S e também da contingência tríplice no estabelecimento da função reforçadora positiva e negativa. Estudos apontam que a relação de contingência S-S potencializa o efeito reforçador condicionado de forma que correlações mais consistentes entre o estímulo inicialmente neutro e o reforçador ocasionam em mais respostas para produzir os estímulos inicialmente neutros quando não há exigência de respostas (Fantino & Silberberg, 2010; Kendall, 1974; Murphy & Baker, 2004). Quando há exigência de resposta, a contingência tríplice, neste caso com um desempenho mais discriminado na contingência principal gerado a partir do estímulo sinalizador, afeta o valor reforçador deste último em animais (Allen & Lattal, 1989) e também em humanos (Case & cols., 1985; Meaulders & cols, 2010). Dentre os estudos com humanos encontram-se evidências de manutenção de respostas de observação pela produção de S+, porém também de S-, o que contrasta com resultados que apontam para relações diretas entre as funções reforçadora positiva e discriminativa dos estímulos. No entanto, respostas de observação para produzir S- ocorrem apenas em situações específicas como quando o S- proporciona um desempenho mais eficiente em termos da diminuição no custo das respostas (Case & cols., 1985; Experimento 2, condição resposta-dependente) ou ainda de obtenção do maior número de reforços (Madden & Perone, 1999), o que sugere alguma função discriminativa do S-. Apesar dessas evidências, existem explicações metodológicas alternativas referentes à possibilidade de reforçamento acidental da resposta de observação (Fantino & Silberberg, 2010; Lieberman & cols., 1997). Mesmo naquelas situações em que S+ e S- mantêm respostas de observação, pode-se inferir que possíveis diferenças no fortalecimento destas respostas não tenham sido acessadas pelos procedimentos empregados, como sugerem as evidências encontradas por Tomanari (2004) indicando maior resistência à mudança nas respostas mantidas por S+ quando comparadas com as respostas mantidas por S- (para resultados semelhantes com não humanos ver Gaynor & Shull, 2002).

Além das variáveis relacionadas à melhoria no desempenho, enfatizadas por Tomanari (2009) como relevantes para a manutenção de respostas que produzam estímulos aparentemente não correlacionados com reforços, acrescenta-se, a partir da revisão realizada nesse trabalho, a consistência da correlação entre os estímulos. É possível sugerir, a partir dessa revisão, que os aspectos mais relevantes no estabelecimento da função reforçadora parecem referentes às relações de contingência S-S e também de contingência tríplice, como acontece na discriminação. A função discriminativa não parece ser condição necessária para o estabelecimento da função reforçadora (e.g.; Kendall, 1974; Murphy & Baker, 2004), apesar de ser condição suficiente, como apontado por alguns estudos (Allen & Lattal, 1989; Case & cols., 1985, Experimento 2; Gaynor & Shull, 2002).

É importante ressaltar ainda a necessidade de utilização de outras medidas de fortalecimento da resposta além daquelas relacionadas à frequência. As variáveis apontadas acima como relevantes para o estabelecimento da função reforçadora podem afetar medidas diferentes, como frequência e resistência à mudança, por exemplo, de formas também diferentes, como demonstrado por Tomanari (2004).

Finalmente, esse trabalho aponta para a necessidade de pesquisas adicionais, delineadas com o objetivo de integrar os diferentes achados discutidos aqui. É evidente a diversidade de metodologias e medidas utilizadas pelos estudos, o que, apesar de explicitar a riqueza da literatura sobre reforçamento condicionado, dificulta conclusões baseadas em comparações entre os diferentes trabalhos. Sugere-se que futuras pesquisas avaliem os efeitos das contingências S-S e também das contingências tríplices, além de agregar diferentes medidas da variável dependente, a fim de auxiliar no esclarecimento de questões relacionadas às variáveis relevantes no estabelecimento da função reforçadora condicionada.

Além de apontar para a necessidade de realização de mais pesquisas na área, a riqueza dessas discussões indica ainda a urgência de trabalhos que objetivem a interação entre subáreas aparentemente distintas da pesquisa básica em análise do comportamento, como investigações sobre a função de reforço condicionado e a função discriminativa, iniciativa do presente trabalho, ou ainda entre a função de reforço condicionado e a resistência à mudança (Shahan, 2010; Tomanari, 2004).>>

 

REFERÊNCIAS

Allen, K. D., & Lattal, K. A. (1989). On conditioned reinforcing effects of negative discriminative stimuli. Journal of the Experimental Analysis of Behavior, 52, 335-339.         [ Links ]

Bourland, G., & Miller, J. T. (1978). Role of discriminative stimuli in concurrent performances: Duration of change over delay. The Psychological Record, 28, 263-271.         [ Links ]

Catania, A. C. (1999). Aprendizagem: Comportamento, Linguagem e Cognição. Porto Alegre: Artmed.         [ Links ]

Case, D. A., Fantino, E., & Wixted, J. (1985). Human observing: Maintained by negative informative stimuli only if correlated with improvement in response efficiency. Journal of the Experimental Analysis of Behavior, 43, 289-300.         [ Links ]

Cohen, S. L. (1981). Conditioned reinforcement as a function of the intermittent pairing of a stimulus and a reinforcer. Bulletin of the Psychonomic Society, 18, 129-132.         [ Links ]

Dinsmoor, J. A. (1983). Observing and conditioned reinforcement. Behavioral and Brain Sciences, 6, 693- 704.         [ Links ]

Fantino, E. & Case, D. A. (1983). Human observing: Maintained by stimuli correlated with reinforcement but not extinction. Journal of the Experimental Analysis of Behavior, 40, 193-210.         [ Links ]

Fantino, E., & Silberberg, A. (2010). Revisiting the role of bad news in maintaining human observing behavior. Journal of the Experimental Analysis of Behavior, 93, 157-170.         [ Links ]

Gaynor, S. T., & Shull, R. L. (2002). The generality of selective observing. Journal of the Experimental Analysis of Behavior, 77, 171-187.         [ Links ]

Grilon, C. (2002). Associative learning deficits increase symptoms of anxiety in humans. Biological Psychiatry, 51, 851-858.         [ Links ]

Hanna, E. S., Blackman, D. E., & Todorov, J. C. (1992). Stimulus effect on concurrent performance in transition. Journal of the Experimental Analysis of Behavior, 58, 335-347.         [ Links ]

Kamin, L. J. (1969). Predictability, surprise, attention, and conditioning. Em: B. A. Campbell & R. M. Church (Eds.), Punishment and aversive behavior. New York: Appleton-Century-Crofts.         [ Links ]

Kendall, S. B. (1974). Preference for intermittent reinforcement. Journal of the Experimental Analysis of Behavior, 21, 463-473.         [ Links ]

Keller, F. S., & Schoenfeld, W. N. (1950/1973). Princípios de Psicologia. C. M. Bori & R. Azzi (Trads.), São Paulo: EPU.         [ Links ]

Lieberman, D. A., Cathro, J. S., Nichol, K, & Watson, E. (1997). The role of S- in human observing behavior: Bad news is sometimes better than no news. Learning and Motivation, 28, 20-42.         [ Links ]

Madden, G. J. & Perone, M. (1999). Human sensitivity to concurrent schedules of reinforcement: effects of observing schedule-correlated stimuli. Journal of the Experimental Analysis of Behavior, 71, 303- 318.         [ Links ]

Meaulders, A., Vervliet, B., Vansteenwegen, D., Hermans, D., & Baeyens, F. (2010). A new tool for assessing context conditioning induced by US-unpredictability in humans: The Martians task restyled. Learning and motivation (no prelo).         [ Links ]

Moore, J. (1985). Choice and conditioned reinforcing strength of informative stimuli. The Psychological Record, 35, 89-100.         [ Links ]

Murphy, R. A., & Baker, A. G. (2004). A role of CS-US contingency in Pavlovian conditioning. Journal of Experimental Psychology: Animal Behavior Processes, 30, 229-239.         [ Links ]

Perone, M. & Baron, A. (1980). Reinforcement of human observing behavior by stimulus correlated with extinction or increased effort. Journal of the Experimental Analysis of Behavior, 34, 239-261.         [ Links ]

Rescorla, R. A. (1967). Pavlovian conditioning and its proper control procedures. Psychological Review, 74, 71-80.         [ Links ]

Rescorla, R. A. (1968). Probability of shock in the presence and absence of CS in fear conditioning. Journal of Comparative and Physiological Psychology, 66, 1-5.         [ Links ]

Santos, C. V. (2005). Momento comportamental. Em: J. Abreu-Rodrigues e M. R. Ribeiro (Orgs.), Análise do comportamento: pesquisa, teoria e aplicação (p. 63-80). São Paulo: Artmed.         [ Links ]

Schoenfeld, W. N., Antonits, J. J., & Bersh, P. J. (1950). A preliminary study of training conditions necessary for secondary reinforcement. Journal of Experimental Psychology, 40, 40-45.         [ Links ]

Shahan, T. A. (2010). Conditioned reinforcement and response strength. Journal of the Experimental Analysis of Behavior, 93, 269-289.         [ Links ]

Skinner, B. F. (1968). The technology of teaching. New York: Meredith.         [ Links ]

Skinner, B.F. (1953/1981). Ciência e comportamento humano. J. C Todorov (Trad.), São Paulo: Martins Fontes.         [ Links ]

Spetch, M. L., & Dunn, R. (1987). Choice between reliable and unreliable outcomes: mixed percentage- -reinforcement in concurrent chains. Journal of the Experimental Analysis of Behavior, 47, 57-72.         [ Links ]

Tomanari, G. Y. (2009). Resposta de observação: uma reavaliação. Acta Comportamentalia, 17, 259-277.         [ Links ]

Tomanari, G. Y. (2004). Human observing behavior maintained by S+ and S-: Preliminary data. International Journal of Psychology and Psychological Therapy, 4, 155-163.         [ Links ]

Tomanari, G. Y., Machado, L. M., & Dube, W. (1998). Pigeons' observing behavior and response-independent food presentations. Learning and Motivation, 29, 249-260.         [ Links ]

Wilton, R. N. & Clements, R. O. (1971). Observing responses and informative stimuli. Journal of the Experimental Analysis of Behavior, 15, 199-204.         [ Links ]

Wyckoff, L. B. (1969). The role of observing responses in discrimination learning. Em: D. P. Hendry (Ed.), Conditioned Reinforcement (p. 237-260). Homewood, Illinois: The Dorsey Press.         [ Links ]

 

 

(Received: November 17, 2013;Accepted: March 16, 2014)

 

1 A autora agradece a Elenice Hanna, Josele Abreu-Rodrigues e Gerson Tomanari pela colaboração na forma de discussões, algumas mais pontuais e outras mais duradouras, porém todas valiosas sobre o tema. Correspondências a respeito desse artigo devem ser enviadas para junnia.moreira@gmail.com

Creative Commons License