SciELO - Scientific Electronic Library Online

 
vol.13 número13Sistematizando una experiencia de trabajo: práticas pre profesionales en psicología comunitariaMetodología cualitativa o la puerta de entrada de la emoción en la investigación científica índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Liberabit

versão impressa ISSN 1729-4827versão On-line ISSN 2233-7666

Liberabit v.13 n.13 Lima  2007

 

ARTÍCULOS

 

Modos de pensar y estrategias de la investigación cualitativa

 

Ways of thinking and strategies of the quality investigation

 

 

Leo Gürtler*; Günter L. Huber**

Instituto de Ciencias de Educación. Universidad de Tübingen (Alemania)

 

 


RESUMEN

Desde un esbozo del fondo histórico de la investigación cualitativa en las ciencias sociales el artículo pone de relieve la “mayor valía” de la investigación cualitativa por describir el perfil de preguntas y su contexto, los cuales demandan una elaboración de esta índole. La pregunta central de la investigación significa el punto de partida y final de cada estudio. Por eso decisiones sobre los métodos siguen más tarde en el proceso de investigación y no deben determinar las metas y condiciones del estudio, si bien este proceso usualmente no avanza linealmente, sino por lazos, o sea repeticiones e iteraciones de varias fases. Como ejemplos de enfoques metodológicos el articulo selecciona el desarrollo de teorías ancladas, la replicación de estudios y la triangulación de métodos. De todas maneras, los métodos cualitativos proporcionan un tamaño enorme de datos (textos, grabaciones de sonido o video, fotos, dibujos, etc.), que se tiene que reducir a su sentido por interpretar el contenido. Se describen detalladamente la codificación, el modo más eficiente de reducir los datos, y el análisis de secuencias de sentido en los datos. Además se recomiendan utilizar ordenadores y programas aptos como herramientas, que ayudan a los investigadores a facilitar sus tareas, mantener una visión sobre sus decisiones y a modificarlas sin dificultad. Al final se mencionan unas tendencias actuales vinculadas con el desarrollo de “métodos mixtos”, es decir no se recomienda un paradigma distinto, sino la selección de métodos conforme a las exigencias de la pregunta de la investigación.

Palabras clave: Pensamiento, Investigación cualitativa.


ABSTRACT

From an outline of the historical background of qualitative research in the social sciences this article underlines the “added value” of qualitative investigations by describing the profile of typical research questions and their context, which demand qualitative approaches. The central research question defines both the starting point and the goal of every study. Therefore, decisions about methods follow only later in the research process and must not determine goals and conditions of a study, although this process usually does not proceed in a strictly linear way, but with iterations or repetitions of various phases. As examples of methodological approaches the article selects the development of grounded theory, replication of studies, and triangulation. In any case, qualitative methods produce a large amount of data (texts, sound or video recordings, photos, drawings, etc.), which has to be reduced to its meaning by interpreting the content. Coding, the most effective mode of data reduction, and the analysis of sequences of meaning are described in detail. Additionally, it is recommended to use computers and suitable software as tools that contribute to facilitate the researchers‘ work, to maintain an overview on their decisions, and to modify them easily. Finally some actual tendencies related to “mixed methods” are discussed, that is, the article does not recommend to follow a particular paradigm, but to select research methods according to the demands of the research question.

Keywords: Thougth, Qualitative research.


 

 

Significancia histórica y actual de la investigación cualitativa en las ciencias sociales.

La investigación cualitativa se sustenta en una larga y rica tradición de aplicación en distintas ciencias sociales, sobre todo en la psicología y la sociología. Ya al principio de la psicología científica a fines del siglo XIX los trabajos de William James y Sigmund Freud eran caracterizados por el pensamiento cualitativo. La investigación de sueños o del rol de bromas y humor en la vida humana (Freud, 1905, 1927) son ejemplos muy conocidos hasta hoy. También en la búsqueda de respuestas para la pregunta qué surge primero, si las ideas o las emociones (teoría de la emoción según James y Lange, 1884/1885), el enfoque cualitativo tuvo prioridad. Otros fenómenos, sobre todo la introspección, aplicado por Brentano (Baumgartner & Baumgartner, 1999) y los psicólogos de la Würzburger Schule («Escuela de Würzburg»), eran investigados de la misma manera. Incluso la psicología experimental, por ejemplo la «psicofisica» según Wilhelm Wirth, aplicaba inicialmente la auto-observación de la «actividad interior de la voluntad», pero consideró este método en breve un poco limitado (Lück & Miller, 1999, p.44). Con la propagación del behaviorismo por Pavlov, Watson, Thorndike y Skinner (Lefrancois, 2006) la investigación empírica persiguió una estrategia en sentido contrario, es decir disoció la unidad de observador y objeto/ evento observado e introdujo criterios de cualidad clásicos (más tarde criterios de la teoría de tests), por ejemplo la objetividad como sinónimos de ciencia empírica «buena». Lück y Miller (1999) ilustraron estos principios de la investigación en las ciencias sociales.

Tiempo después se demostró que se tiene que definir los criterios de cualidad en las ciencias sociales de otras maneras (Groeben & Westmeyer, 1975). Los autores hacen hincapié en los conceptos de explicación, pronóstico e intervención en el espacio de «aquí y ahora». De esto se designa la derivación de acciones concretas para estructurar el futuro basado tanto en el conocimiento del pasado como en expectativas de futuro, no se demanda explícitamente el aislamiento del observador y lo que se puede observar. Otros autores, por ejemplo Gigerenzer (1981), subrayan por consideraciones de la teoría de la medición, la función de los instrumentos de investigación, dentro de las que constituyen el objeto de la investigación - y por eso la relación interdependiente o más fuerte la dependencia inseparable entre conocedor y conocido. Esta relación es muy conocida en las ciencias naturales desde hace mucho tiempo, por ejemplo la relación de imprecisión según Heisenberg (1927).

Al mismo tiempo se demanda cada vez más el análisis estadístico de los datos. Sobre todo en el ámbito de la psicología de la personalidad y claro en la investigación del comportamiento de seres humanos y de animales según el enfoque del behaviorismo eso es la vía clásica del proceder científico. Groeben y Scheele (1977) por eso acuñaban el concepto del “behaviorismo metodológico” de lo que separan el programa de investigación “teorías subjetivas” y prefieren la investigación cualitativa para reconstruir perspectivas subjetivas-internas, sin dejar de lado la importancia de chequear los hallazgos de la observación externa. (Groeben, 1986).

Los trabajos de Barton y Lazarsfeld (citados por Erzberger & Kelle, 2003) provocan un cambio importante de la investigación cualitativa. Por su función de “estudio previo” para posteriores estudios cuantitativos (vea también Mayring, 2001) la investigación cualitativa recibe aprecio como instrumento importante de investigaciones científicas. Pero a consecuencia de varias influencias (pragmatismo; modelo de las ciencias naturales; ambición de exactitud objetiva) el enfoque cuantitativo domina las investigaciones psicológicas y el enfoque cualitativo juega el rol subordinado aunque constante del marginado.

Por otro lado es notable que uno de los estudios revolucionarios de la psicología en el siglo XX impresione precisamente por sus hallazgos cualitativos, de tal manera que el análisis sucesivo de datos cuantitativos no prometería más comprensión. Como ejemplos indicamos solamente la rama de psicología social y los estudios de Sherif et al. (1961), Milgram (1963) y Zimbardo (1972). Sus hallazgos notables muestran qué fenómenos pueden aparecer en grupos sociales y cómo los hombres se comportan en presencia de autoridades o en el contexto de situaciones extremas.

La situación es muy diferente en otras ciencias sociales, sobre todo en la sociología y en parte en la pedagogía. Porque la sociología se concentra en procesos sociales, sus condiciones y variaciones, o sea objetos y preguntas de investigación distintos, el diseño cualitativo de estudios juega un papel imprescindible en las investigaciones empíricas (p.ej. el enfoque de “grounded theory” según Glaser & Strauss, 1967; la “hermenéutica objetiva” de Oevermann et al., 1979). Preguntas típicas de la investigación cualitativa se refieren a culturas o sub-culturas diferentes o a tópicos de relevancia social como el desempleo y sus consecuencias (vea el estudio famoso de Jahoda, Lazarsfeld & Zeisel, 1933/2002, sobre la gente de Marienthal). Por otro lado faltó durante mucho tiempo estudios empíricos en el ámbito de la pedagogía. Antes, la investigación pedagógica se limitaba muchas veces al análisis histórico comparativo-hermenéutico. Junto con una re-estructuración de la pedagogía como ciencia de la educación y vinculado con las demandas de la investigación empírica de la educación (“empirische Bildungsforschung”) la disciplina experimenta un cambio fundamental, que tiene consecuencias también para la aplicación de métodos cualitativos de investigación (Krüger, 2002).

A fines del siglo XX aparece una posición que recomienda la integración metodológica en lugar de la separación del trabajo con textos y con números (Tashakkori & Teddlie, 2003). Esta posición tiene su origen en los trabajos “multi-modales” de Campbell y Fiske (1959). Hoy se discute la integración metodológica bajo los conceptos de “métodos mixtos” o “triangulación” (Flick, 2000). Teddlie y Tashakkori (2006) proponen una taxonomía útil de varias combinaciones de diseños y métodos cualitativos y cuantitativos, que ilustra bien la intención de nuestro artículo. No parece necesario que se diferencie aquí la metodología cuantitativa, porque en el centro de la investigación cualitativa se encuentra el tópico de la pregunta esencial del estudio y la derivación lógica de métodos necesarios para buscar respuestas, es decir recoger, analizar e interpretar datos en el contexto de diseños adecuados.

Mertens (2005) sistematiza aparte de esto la investigación cualitativa según “paradigmas” y diferencia estas categorías por su ontología, epistemología y metodología. La autora hace distinciones entre post-positivismo, constructivismo, investigación transformadora (p.ej. investigación emancipadora) e investigación pragmática (Mertens, 2005, p. 8). Ella se refiere a Lincoln y Guba (2000), que definen un paradigma por sus repuestas a las preguntas con respecto a los siguientes aspectos:

• La naturaleza de la realidad (ontología),

• El modo de conocimiento y la relación entre lo que observa y lo que se puede observar potencialmente (epistemología), así como

• El proceder adecuado para proporcionar el conocimiento deseado (metodología).

En el contexto de la investigación angloamericana los métodos cualitativos juegan un papel importante desde hace mucho para solucionar problemas de investigación.

En lo sucesivo describiremos los ámbitos de la aplicación del enfoque cualitativo y las estrategias de la investigación cualitativa así como las variables relevantes, a las que se tienen que prestar atención en el proceso de un estudio. Además describiremos la construcción de la pregunta central de la investigación (Maxwell, 1999) y del diseño derivado de esta pregunta. Nos ocuparemos más adelante de varios ejemplos de investigación y finalmente de las posibilidades de la aportación del ordenador al análisis de datos cualitativos, basado en el ejemplo del programa AQUAD 6 (Huber & Gürtler, 2003).

Hoy es casi imposible renunciar al ordenador y su software como asistentes para organizar los datos de manera que otros también puedan comprenderlos, para crear transparencia de las interpretaciones y – sobre todo en caso de un gran tamaño de datos (textos, grabaciones de sonido o video) – para garantizar el acceso permanente y directo a datos e interpretaciones relacionadas (Huber, 1992). No debemos olvidar la organización de los datos para investigadores futuros y para el intercambio y la cooperación entre investigadores de países o continentes distintos. Claro, nos acercamos a los límites de esta herramienta, cuando empezamos de interpretar y concluir algo de los datos – porque estas tareas esenciales de la investigación cualitativa no se pueden resolver, sino solamente fomentar por algoritmos.

 

¿Cuándo vale la pena el enfoque cualitativo?

Tratamos de responder a esta pregunta sin comparar y separar los enfoques cualitativos y cuantitativos, sino más bien esbozar el perfil de preguntas y su contexto, que demandan una elaboración cualitativa, porque solamente de este modo se puede esperar conocimientos nuevos. Lo que interesa en primer lugar es la “mayor valía” o el “valor añadido” de la investigación cualitativa. Confrontar los enfoques cualitativos con enfoques basados en la estadística significaría mostrar que la investigación cualitativa no solamente puede seguir los procederes del paradigma cuantitativo en el contexto de las mismas preguntas, sino (re-) producir hallazgos, que el otro paradigma no puede proporcionar – y viceversa. En lugar de eso describiremos la pregunta de investigación y las condiciones bajo las cuales el enfoque cualitativo vale la pena. Es decir, el centro de interés es la pregunta de investigación, mientras que los métodos de recoger y analizar datos interesan solamente en segundo lugar (Maxwell, 1999). Los ámbitos, que vamos a describir a continuación, están vinculados y son complementarios en procesos de estudios concretos, o sea, están diferenciados exclusivamente a causa del siguiente análisis:

• El desarrollo de teorías nuevas basadas en los hechos empíricos (“grounded theory” según Glaser y Strauss, 1967; descrito como “teoría anclada” por Raymond, 2005), como el descubrimiento o la apertura de campos de investigación desconocidos hasta ahora.

• Acceso y comprensión de cualquier perspectiva personalsubjetiva (por ejemplo, Groeben, 1986) y la investigación de su influencia al comportamiento o su relación con varios otros fenómenos.

• Comprensión y reconstrucción de procesos psicológicos con la meta de descubrir algo nuevo, comprobarlo y fundamentarlo científicamente sobre una dimensión latente, más allá de la observación de contenidos manifiestos (por ejemplo, hermenéutica objetiva según Oevermann et al., 1979).

• Análisis de casos singulares, entre otras cosas para formar tipos de casos (por ejemplo, Kelle & Kluge, 1999; Kraimer, 2000).

En las palabras de la investigación aplicada se usan estrategias cualitativas de investigación, cuando un estudio trata de:

• Explorar un campo nuevo de investigación;

• Validar hallazgos de investigación, por ejemplo por replicación / reconstrucción o por evaluación sumativa;

• Acompañar procesos científicamente, por ejemplo de evaluación formativa en proyectos de largo plazo o de gerencia de cambios (“change management”);

• Aplicar resultados científicos para resolver problemas concretos;

• Complementar enfoques tradicionales por perspectivas nuevas, por ejemplo perspectivas implícitas subjetivas de los sujetos.

Respecto a la organización de pruebas se aplica frecuentemente un proceder proveniente de los enfoques de la teoría anclada y del análisis de casos (Yin, 1989), que se llama “theoretical sampling”(“muestreo teorético”, o sea basado en consideraciones teoréticas), es decir, se hacen pruebas no por azar, sino por selección sistemática, orientada por principios teóricos con la meta de comparar casos típicos (según la pregunta de investigación) y casos contradictorios, casos excepcionales y los más comúnes, etc. (vea también Marcelo, 1991). Por eso la prueba no es representativa para una totalidad distinta de sujetos, presta atención precisamente a los factores teóricos y empíricos que demandan bajo la perspectiva de la pregunta de investigación la selección de sujetos particulares. En otras palabras: Se seleccionan los sujetos según exigencias empíricas y no según tamaño de la muestra. En este sentido se encuentran consideraciones nomotéticas e ideográficas y por eso se ha introducido en la psicología de la personalidad el concepto artificial de consideraciones “ideotéticas” (Lamiell, 1981). Este concepto expresa la meta de vincular en la práctica el análisis del caso singular con el análisis de grupos. El programa de investigación “Teorías Subjetivas” (Groeben et al., 1988) persigue esta estrategia cuando trata de identificar teorías generales inter-subjetivas basadas en teorías individuales subjetivas (“Estructuras de modos” según Stössel & Scheele, 1989; también Gürtler, 2005; Oldenbürger, 2005; Schreier, 1997).

Pero hay límites para la aplicación de métodos cualitativos cuando:

• Se necesita resultados a nivel de grupos, es decir resultados basados en el resumen de un gran tamaño de casos, como por ejemplo en encuestas con cuestionarios.

• El estudio demanda el recurso de probabilidades, por ejemplo cuando se toman decisiones plausibles en enfoques probabilísticos (Jaynes, 2003; Studer, 2006).

• Se evalúan efectos con la meta que los resultados, o sea, relaciones precisas de números puedan legitimar la investigación o intervención, por ejemplo frente a instituciones que financian el estudio.

En la práctica se confunden varias veces estas indicaciones y contra-indicaciones. Studer (2006) notó que los enfoques de Jaynes (2003) son formulados inequívocamente por conceptos matemáticos, pero no obstante las categorías son basadas en el pensamiento cualitativo. De la misma manera Jaynes (1988, p. 2) se refirió a los trabajos del matemático y astrónomo francés Laplace (1759 - 1827) y su “principio cualitativo”, que significa que:

“... la teoría de probabilidad es nada más que el sentido común reducido a calculación, lo cual no es sólo un juego de palabras, sino una declaración literal de hechos.”

Aunque no intentamos discutir sobre relaciones entre la mística de números y la interpretación de textos, es casi inevitable advertir que hay una semejanza entre estas lógicas muy distintas a primera vista. En el caso de enfoques probabilísticos según Bayes se trata de la pregunta cómo se pueden precisar informaciones cualitativas (p.ej., Studer, 1996) para formular después declaraciones cualitativas valiosas o tomar decisiones basados en el “sentido común”. Es decir, se modela matemáticamente procesos, para deducir de los modelos declaraciones plausibles – al menos en el contexto del sentido común. En enfoques cualitativos en cambio se interpretan directamente informaciones cualitativas y se comparan alternativas de interpretación a causa de conclusiones e informaciones anteriores.

Otros autores como Krüger (2002) subrayan que las relaciones entre números, probabilidades y análisis estadísticos necesitan siempre la interpretación cualitativa para obtener significancia más allá de la sencilla significancia estadística. Al mismo tiempo el análisis de artículos típicos en revistas científicas (p.ej. Admiraal & Wubbels, 2005) o de libros de texto (p.ej. Hays, 1978) muestran que muchos autores en el campo de la investigación cualitativa utilizan en sus interpretaciones conceptos cuantitativos como “más que”, “menos que”, “más frecuente” o “más raro” (Gürtler & Huber, 2006) y estadísticas dependen realmente del pensamiento cualitativo (p. ej. Hays, 1978) para la traducción de la lengua matemática en la lengua cotidiana (los “relativos” numéricos y empíricos según Gigerenzer, 1981). El lenguaje preferido en un estudio concreto no sirve como indicador confiable de la aplicación de una estrategia particular de investigación, al contrario, lo que notamos es que la pregunta general de investigación va delante de la metodología.

Otra posibilidad de integración la podemos encontrar en la evaluación de efectos, o sea en pruebas de la eficacia de varias intervenciones. Se puede vincular sin problemas esfuerzos por comprender y por comprobar los procesos (p. ej., por “estructuras de casos”; Kraimer, 2000). En un estudio a largo plazo, que evalúa instituciones de terapia de adicción, Studer (1998) formuló como pregunta central de investigación:

¿Trata la institución a sus clientes con éxito y podemos comprobar que el trabajo con los clientes es llevado por los conceptos básicos de la institución?

El autor contesta la pregunta por un lado aplicando técnicas de la teoría de probabilidad según Bayes y Jaynes en muestras pequeñas (n < 30 por año; ca. 66 % curas después de dos años después de la terminación del tratamiento) y por otro lado al analizar secuencias de casos (análisis de solicitudes de trabajo, entrevistas, apuntes biográficos de los clientes). Ambas técnicas juntas determinan tanto el punto de vista teórico como práctico de un contexto adecuado para la evaluación/investigación del trabajo de esta institución. Procederes semejantes se les pueden encontrar en varios estudios detallados.

El cómo se aplica una estrategia particular está determinado por varios factores del diseño de la investigación, que Maxwell (1996; p. 7) discute detalladamente. Además de la pregunta central de investigación se encuentran elementos críticos como objetivo y propósito (personal, institucional, político) de la investigación, contexto institucional y profesional, experiencias biográficas y profesionales del investigador, su socialización académica, los intereses del auspiciador de las investigaciones, el estilo personal del investigador, sus propias destrezas, los estándares éticos de la disciplina particular y el contexto general del estudio.

Entre las condiciones prácticas que influencian sobre un estudio debemos tener en cuenta el contexto institucional y su orientación fundamental hacia los paradigmas de investigación – vinculado no solamente con poder social, sino también el poder de definir contenidos y tópicos relevantes de investigación. Como ejemplo podemos aducir el programa prioritario de la Deutsche Forschungsgemeinschaft (DFG; comunidad alemana de investigación) para el desarrollo de la “medición de competencias” (Klieme & Leutner, 2006), que define un concepto muy estrecho de “competencia” y por eso permite solamente una selección estrecha de metodologías para la investigación pedagógica-psicológica. La probabilidad de que se apruebe una solicitud de investigación depende de si la solicitud cumple con las metas de la institución o no. Por eso se debe adaptar la pregunta de investigación a los métodos preferidos por la institución financiera – y no seleccionar métodos adecuados según las exigencias de la pregunta de investigación. Además, aspectos económicos, políticos y sociales ganan importancia para el solicitante cuando trata de determinar su pregunta de investigación. Lo mismo vale frecuentemente para tesis, porque los autores esperan lógicamente evaluaciones positivas. La política de publicación de muchas revistas científicas aporta también a la determinación contradictoria del tópico de investigación por la metodología preferida.

 

La pregunta de investigación - punto de partida y final

Hemos ya tematizado el papel central de la pregunta de investigación. Esta discusión es muy importante porque se nota durante el trabajo con estudiantes y doctorandos, que se forman muchas veces una idea equivocada de las tareas de investigación. Sus consideraciones empiezan por ejemplo con preguntas como “¿Dónde puedo aplicar la triangulación en este caso?” o “Quisiera utilizar aquí este y aquel método – ¿cómo puedo aplicarlo?” Usualmente contestamos con una respuesta casi rutinaria: “¿Qué es lo que quiere investigar en realidad? ¿Cuál es la pregunta de investigación?” Esta reacción frecuentemente causa que los estudiantes piensen por primera vez claramente, sobre los aspectos que son necesarios en su investigación y cuales no – y después podemos discutir juntos la aplicación de métodos. Los métodos de investigación no representan un fin en sí mismos, sino resultan de una deducción lógica de las metas y condiciones de estudios concretos (Gigerenzer, 1981). Por eso la aplicación de métodos mixtos puede ser innovador en el contexto de un estudio, pero no tiene ningún sentido para otro estudio.

Una obra fundamental de Maxwell (1999) sobre el desarrollo de preguntas científicas y diseños de investigación es válida no sólo para enfoques cualitativos, sino también para investigaciones cuantitativas, porque los principios fundamentales son equivalentes. Los ejemplos de nuestra estrategia de aconsejar a estudiantes (vea arriba) recuerdan a la observación de Patton (2006, p. i):

“Según mi propio punto de vista [...] el estándar de oro debería ser más la adecuación metodológica que la ortodoxia metodológica. Adecuación metodológica significa que se debería evaluar diseños en razón al grado en que proporcionan respuestas a la pregunta de investigación actual, no si cumplen con cualquier estándar pre-determinado. Declarar [un método distinto] como estándar de oro coloca el método delante de la pregunta, una violación fundamental de investigaciones en cualquier campo.”

Pero muchas veces se prefiere el “estándar de oro” y el tema verdadero pierde desgraciadamente importancia.

 

La naturaleza cíclica del proceso de investigación

La figura 1 muestra el proceso de investigación como ciclo de distintas fases, que se engranan y que el investigador puede recorrer distintas veces, dependiente de su proceder científico:

 

Fig. 1: El proceso cíclico de investigación y sus fases

 

El proceso de investigación usualmente no avanza linealmente, sino por lazos, o sea repeticiones e iteraciones de varias fases. El proceso recorre las fases distintas bajo condiciones variadas dependiendo de informaciones nuevas y hallazgos influyentes (Hildenbrand, 1999), después de recoger datos (p.ej. una entrevista biográfica) y analizarlos (p.ej. reconstrucción de la estructura del caso) el investigador selecciona otro caso según la estrategia de aplicar pruebas orientado sistemáticamente por principios teóricos (“theoretical sampling”; vea arriba), recoge y analiza datos, etc. (Hildenbrand, 1999, p. 65). Se termina este movimiento cíclico según el criterio de “saturación” solamente cuando más casos no aportan más información – un criterio descrito detalladamente por Glaser y Strauss (1967) dentro del contexto de su enfoque de la “teoría anclada”. Una estructuración a grandes rasgos diferencia entre las fases de exploración, explicación y aplicación.

En la fase de exploración el investigador pregunta qué aspecto o fenómeno del mundo social necesita ser aclarado, indagado o investigado. En este punto, lo que se hace es decidirse por una temática en el campo de investigación que se considere más prioritaria. Es decir, las actividades científicas se concentran en esbozar la pregunta de investigación y clarificarla también por investigaciones en la literatura teórica y empírica sobre este tema. La fase termina con la construcción del diseño del estudio, o sea con decisiones metodológicas, que siguen de la decisión sobre la pregunta clave. Lazos o iteraciones son muy comunes en esta fase, porque en el campo de interés se suele formular la pregunta de investigación demasiado ampliamente y por eso se tiene que considerar el tema varias veces bajo perspectivas cada vez más precisas.

En la fase de explicación se toma decisiones concretas sobre los métodos, que pueden aportar a explicar el fenómeno investigado, pues se recogen y analizan correspondientemente datos empíricos. Por regla general los lazos son necesarios, que pueden incluir también modificaciones del diseño: El investigador entra en contacto concreto con el campo de investigación, trata de ganarse la cooperación de sujetos y de adaptar sus métodos a las condiciones y particularidades del campo (p.ej., estilos de comunicación, relaciones de poder social, etc.). Muchas veces las observaciones en el campo (p.ej. en una empresa, escuela, etc.) sirven de mucho para resolver problemas y modificar el enfoque metodológico. Sigue la recogida de datos y su análisis, que otra vez pueden llevar a lazos, por ejemplo a recoger más datos de un grupo de sujetos, que proporciona hallazgos importantes, pero inicialmente no previstos. Además se tiene que chequear la validez y viabilidad de los resultados con las consideraciones teóricas y las preguntas de fondo. Al fin se juntan y estructuran todos los resultados en un informe (artículo, tesis, etc.).

En las ciencias aplicadas como la psicopedagogía se entra después en la fase de aplicación; cómo se podría utilizar los resultados para mejorar tanto la situación inicial en el campo de investigación como el conocimiento científico. Es decir, el informe lleva a la pregunta continua de la relación entre la teoría (investigación empírica, conocimiento teórico) y la práctica. Cuando se piensa en las consecuencias para la práctica, se debe tener en cuenta no solamente en particular el campo de investigación, sino también generalmente el beneficio del público. A veces siguen incluso actividades políticas, campañas de información (p.ej. sobre modos de transmisión de SIDA; consecuencias del consumo de violencia en los medios; etc.) o se trata de interesar en general los medios en los hallazgos. En ambos casos – aplicación académica y pública – surgen regularmente más campos problemáticos y preguntas, así un nuevo ciclo de investigación comienza.

Lo que parece importante en esta estructura heurística del proceso de investigación es la posibilidad de orientarse en su propio estudio: ¿Dónde estoy ahora? El ciclo puede servir como guía e indicar, los pasos siguientes que serán necesarios, que se tienen que repetir (p.ej. recoger más datos) o cómo se tienen que tratar y elaborar los resultados para que un público de expertos o de profanos pueda comprenderlos y tal vez aplicarlos directamente (p.ej. en caso de estudios sobre métodos nuevos de enseñanza y aprendizaje).

 

Estrategias de investigación

Vamos a seleccionar tres enfoques de la multitud de estrategias de la investigación cualitativa: el desarrollo de teorías ancladas (“grounded theory”), la replicación de estudios y la triangulación de métodos. Discutimos también el método de la hermenéutica objetiva según Oevermann et al. (1979), pero sólo al final, por su engranaje con el análisis de secuencias sobre paradigmas del análisis cualitativo de datos.

En los libros de texto, por ejemplo el de Mertens (2005) se encuentran más estrategias: investigacion etnográfica, estudio de caso, investigación fenomenológica, investigación clínica, grupos de foco, etc. No nos ocuparemos de estas estrategias, porque intentamos hacer hincapié en el fondo de la lógica de establecer hipótesis/teorías y la validación de hallazgos empíricos en el campo de enfoques cualitativos.

 

La teoría anclada (“grounded theory”) o teoría generada

La estrategia de “grounded theory”, desarrollada por Glaser y Strauss (1967) debería ser el enfoque cualitativo más conocido. La influencia de la obra de estos autores es tan fuerte, que se encuentra frecuentemente en informes de investigación una referencia a Glaser y Strauss sin que quede claro si se puede encasillar de hecho este estudio entre los trabajos de la teoría anclada. La meta de la estrategia es generar una teoría directamente por la comparación permanente de los datos y hallazgos empíricos, o sea analiza datos, forma categorías, agrupa categorías, compara categorías, grupos, casos completos y quizás se recoge de nuevo datos, etc. hasta que el proceso es “saturado” y se puede esperar que las repeticiones no aporten ninguna información nueva. Dependiente del campo de investigación entre 8 hasta 12 casos son suficiente para este proceder (Hildenbrand, 2005), pero claro se les tiene que analizar intensivamente. La comparación permanente tiene como meta el contraste máximo entre los casos, como se muestra en la figura 2:

 

Fig. 2: El proceso de “grounded theory” hacia el contraste máximo

 

Se empieza con un caso, que aparece significativo para el problema de la investigación, al menos según la información que se ha encontrado durante la búsqueda en la literatura científica. Notamos que el trabajo con la literatura juega un papel importante también en el enfoque de la teoría anclada. Muchas veces se ha entendido mal a Glaser y Strauss y dicho de que ellos rechazan referencias a la literatura. Sin análisis de la literatura cada investigación corre el riesgo de trabajar con una pregunta clave incompleta y de no ver sugerencias importantes. Lo que Glaser y Strauss subrayan en cambio es la necesidad de comportarse abiertamente tanto frente a los datos como a los sujetos. Cuando se ve todo el repertorio de la literatura, no se nota indicadores o hechos importantes. Pero cuando se deja llevar e influir por los hechos empíricos, aumenta la probabilidad de descubrir algo nuevo. Por eso, lo que se necesita para investigaciones según el enfoque de la teoría anclada es un espíritu abierto inocente basado en un conocimiento sólido. Pero el investigador tiene que evitar sus experiencias subjetivas, opiniones o prejuicios, así como las memorias, visiones globales o conducta de los sujetos que han proporcionado la información. El investigador tiene que evitar establecer prematuramente principios de reducción de los datos comparando categorías momentáneas y declaraciones relevantes en los textos disponibles. A menudo la información específica sobre el orador o escritor de un texto es muy útil. Si esta información no está disponible en un texto, puede ser necesario buscar las fuentes adicionales. Estas fuentes y su información ayudan a acercarse mejor a la meta, ver el objeto de estudio a través de sus propios ojos y entenderlo desde sus propias perspectivas.

Después del análisis del primer caso se selecciona un segundo caso de modo que los dos casos se distinguen lo más posible el uno del otro. La selección sigue principios teóricos, por ejemplo después de un experto se entrevista a un principiante de su profesión. De esta manera se continúa hasta que se observa el proceso de saturación señalado, es decir casos nuevos no aportan más información/comprensión. Ahora se tiene que integrar los casos en un conjunto, que describe el campo de investigación y su problema clave.

En este proceso intentamos no sólo describir las visiones globales subjetivas, sino encontrar los conceptos concordantes y reconstruir las relaciones sistemáticas entre estos conceptos, es lo que Glaser y Strauss (1967) llamaron descubrimiento de una teoría conectada a la realidad. El término descubrimiento acentúa una diferencia esencial de las aproximaciones metodológicas que son aplicadas para confirmar las teorías dadas. Se desarrollan las teorías conectadas con la realidad durante el análisis cualitativo, por consiguiente, no se empieza de una teoría disponible que busca verificar los datos en los textos, el comienzo es un fenómeno a que el texto se refiere, que se quiere entender y explicar (Strauss y Corbin, 1990). Este acercamiento exige un máximo de esfuerzo interpretativo. Este aspecto parece causar problemas a los investigadores principiantes en análisis cualitativo.

 

La replicación

La replicación de estudios es menos una estrategia verdadera sino más una necesidad imprescindible de validar investigaciones dentro de los límites de su validez afirmada y de su marco conceptual. Pero muchas veces los investigadores renuncian a replicaciones – quizás porque no parece muy innovador tratar de repetir lo que otros ya han hecho. Sin embargo faltan replicaciones exactas incluso de estudios muy conocidos (p.ej. del studio de Schachter & Singer, 1962, sobre la relación de emoción y cognición) y por eso la base empírica de teorías muy discutidas queda estrecha. Sólo la repetición con variación controlada de las condiciones empíricas puede dar información acerca la generalización de los hallazgos iniciales. Eso vale para cualquiera investigación, pero especialmente la investigación cualitativa corre peligro de no orientarse a la generalización por su concentración en estudios de caso. Generalizar resultados es importante sobre todo cuando se descubre algo nuevo y las teorías, hipótesis o reconstrucciones tienen que dar buen resultado en el sentido de Popper.

 

La triangulación

La triangulación se deriva del uso multi-modal de métodos por Campbell y Fiske (1959), que intentaban inicialmente aumentar la validez de investigaciones por aplicar varios métodos en el mismo estudio. Metas claves eran la validación cruzada de resultados por varios métodos y la convergencia de varios métodos aplicados para estudiar el mismo fenómeno. Pero en breve se notó que los métodos constituyen (Gigerenzer, 1981) o determinan su objeto y por eso tanto la validación cruzada como la convergencia se ven en dificultades. Más bien es de suponer que los resultados pueden distinguirse precisamente por la decisión de usar métodos distintos y no por falta de precisión del análisis y de la interpretación. Cuando se aplica más métodos se crea una complejidad que aumenta la ambigüedad en lugar de clarificar la situación.

Erzberger y Kelle (2003) describen detalladamente varios diseños de triangulación y sus bases lógicas. Se puede usar métodos de manera que se complementan y así permitan ver el mismo objeto bajo perspectivas distintas. Esta estrategia proporciona reconstrucciones del objeto investigado más complejas y con más facetas que un método solo. Al mismo tiempo aumenta los grados de libertad y a veces el grado de incertidumbre de modo que una investigación que quisiera proporcionar certidumbre por aplicar una multitud de métodos llegará a sus límites. Son las perspectivas complementarias las que justifican el aprecio común de la triangulación en las ciencias sociales (Flick, 1987; Mayring, 2001). Además la triangulación es una estrategia particular que deberá ser discutida dentro de enfoques cualitativos (Flick, 2000), no solamente como estrategias rituales en la frontera de los métodos mixtos.

Por último se puede triangular todo (Denzin, 1989; vea también Flick, 2002): teorías, investigadores, resultados de métodos e instrumentos de recogida de datos y los métodos mismos. Respecto a la triangulación metodológica se puede diferenciar entre una estrategia de triangular “dentro un método”, o sea aplicar varias procederes de análisis al mismo juego de datos, y triangular “cruzando varios métodos”, o sea aplicar varios métodos para recoger datos del mismo fenómeno. Entre las metas de estrategias de triangulación se mencionan sobre todo generalizar y validar los resultados y desarrollar conocimiento nuevo (Flick, 2002, p. 311). Tenemos que repetir nuestro postulado inicial: Es la pregunta de investigación la que determina la metodología – ¡no a la inversa! -.

En tanto que se usa “triangulación” casi para toda combinación de perspectivas o enfoques (vea arriba) parece útil diferenciar entre combinaciones implícitas de métodos en el proceso de investigaciones cualitativas y de combinaciones como criterio explícito del diseño de estudios. Para una descripción breve de la combinación implícita referimos a Mayring (2001), que plantea la generación de categorías (vea abajo) y la clasificación de segmentos de datos como meta común de procesos inductivosdeductivos en el análisis de datos cualitativos y concluye: “Si se trabaja sistemáticamente de esta manera, sigue lógicamente entender estas clasificaciones como ‘datos’ y continuar el trabajo bajo la perspectiva de cantidad en un segundo paso del análisis” (sección [16]). Entonces se toman los hallazgos de una primera reducción interpretativa-cualitativa de los datos iniciales y se cuentan, ordenan por frecuencia, expresan en porcentajes, agregan sobre dimensiones ordinales (mucho - medio - poco) estos hallazgos, se comparan segmentos de datos y/o casos con procedimientos estadísticos, etc. Pues sigue un tercer paso para interpretar cualitativamente qué aportan los resultados nuevos (de contar, ordenar, etc.) a contestar las preguntas de la investigación (Mayring, 2001, [17]).

Según Villar y Marcelo (1992), los progresos de la investigación en el ámbito de las ciencias sociales resultan de aplicar combinaciones explícitas de métodos, o sea una multitud de métodos dependiente de las preguntas de investigación – y no de limitar el problema y los accesos empíricos según las posibilidades de un enfoque metodológico determinado. Villar y Marcelo (1992) explican que se abre por eso el proceso de investigación para la estrategia de “triangulación”, o sea para incluir varios métodos, fuentes de datos e investigadores, que aportan juntos a aumentar la validez del estudio (Mathison, 1988). Los autores diferencian concretamente esta idea y muestran cómo se combinan métodos en fases centrales de la investigación empírica, es decir para ganar acceso al campo, para recopilar datos y para analizarlos:

 

Combinación de métodos en la fase de acceso al campo

Cuando se necesita una prueba representativa de una población determinada (por ejemplo: “los” maestros de la escuela primaria; “los” profesores de matemática de la escuela secundaria; etc.), se combinan muchas veces una selección de sujetos basado en métodos cuantitativos y el control de representatividad de la prueba basado en su características cualitativas. Como ejemplo Villar & Marcelo (1992) describen un estudio de la socialización profesional de principiantes en el aula. Los autores seleccionaron a los participantes de una lista por medio de una tabla de números aleatorios. Después comprobaron la composición de la prueba según características como sexo, asignatura, nivel de la escuela (primaria/segundaria) y el sitio del centro escolar (pueblo/ciudad) – todas características cualitativas. Instrumentos cuantitativos pueden servir mucho en este proceso: Si suponemos en un estudio sobre los efectos subjetivos y los procesos individuales de aprendizaje, que alumnos más eficientes y alumnos menos eficientes reaccionarán diferentemente a un método específico de enseñanza, podemos aplicar tests de inteligencia y/o de rendimiento y así precisar la selección de unos pocos sujetos (porque no hay tiempo o dinero para entrevistar o observar a muchos alumnos). El ejemplo muestra también que las decisiones de una fase de investigación solapan con decisiones en otras fases e interaccionan.

 

Combinación de métodos en la fase de recopilación de datos

Otra vez tenemos que empezar con la formula “Depende de la pregunta de investigación ...”, si queremos evaluar una combinación particular como la mejor. En el ámbito de investigaciones cualitativas de procesos de enseñanza/ aprendizaje en la formación de profesores, Villar y Marcelo (1992) refieren como ejemplos frecuentes de recopilación de datos la observación partícipe, la entrevista profunda y el diario de clase. Enfoques de investigación de efectos por otro lado aplican muchas veces la observación sin participación e indagan la frecuencia de fenómenos específicos por un sistema pre-diseñado de categorías. Como ejemplo de una de las combinaciones posibles los autores describen un estudio cuantitativo de las prácticas de enseñanza para estudiantes de la Universidad de Sevilla (Villar, 1981): Se recopilaron las actividades en el aula por grabaciones de sonido (observación sin participación) y evaluaron las cintas con un sistema prediseñado de análisis, se entrevistaron a estudiantes para ganar acceso a su vista subjetiva y sus experiencias personales y al fin pidieron a los estudiantes llenar cuestionarios cuantitativos (referente a opiniones, problemas y el clima social en el seminario). Esta combinación permite tanto complementar los resultados diferentes – en este caso profundizar los hallazgos de las observaciones por información subjetiva – como triangular (metodológicamente) los datos de entrevistas y cuestionarios (comp. abajo y Mayring, 2001).

 

Combinación de métodos en la fase de análisis de datos

Se pueden combinar técnicas cualitativas y cuantitativas de análisis tanto en el proceso de evaluar datos de un enfoque específico, por ejemplo datos de entrevistas, como de métodos diferentes, por ejemplo, datos de entrevistas y cuestionarios (vea arriba). El segundo caso representa el enfoque de triangulación en un sentido estrícto. Por un lado se pueden emplear en el análisis cualitativo las contribuciones de varios métodos (Medina, Feliz, Domínguez & Pérez, 2002), por otro lado sirven análisis cuantitativos (sobre todo procedimientos de análisis de dimensiones como el análisis de factores o de cluster) para identificar o comprobar muestras centrales de interpretación. Poniendo el acento en el enfoque cuantitativo Schweitzer (2004) describe detalladamente cómo analizó el primer capítulo de Cervantes’ “Don Quijote”, es decir cómo contó formas de palabras y evaluó su aporte a la comprensión del texto, y por eso elaboró hallazgos hermenéuticos (por ejemplo qué importancia tiene leer para el desarrollo individual o qué posibilidades de descubrir los motivos e intereses del autor real ofrece la mirada detrás de su mundo ficticio).

Respecto a los diseños de triangulación (vea arriba), Mayring (2001) sugiere cuatro modelos de combinación de métodos cualitativos y cuantitativos, que llamó el modelo de estudio preparativo, el modelo de generalización, el modelo de profundización y el modelo de triangulación:

 

Combinación de métodos al nivel del diseño de estudios empíricos

-El modelo del estudio preparativo:

Según las sugerencias tradicionales, una fase cualitativa prepara la investigación “seria”. Se limita las actividades cualitativas de investigación a pasos de generar una hipótesis, lo que se trata de probar después en la fase más intensa y extensa de la investigación con métodos cuantitativos. Claro que hay fases de preparación en cada tipo de investigación. Por ejemplo en estudios cualitativos muchas veces se proporcionan unas pocas entrevistas de “ensayo”, para desarrollar categorías para una guía estructurada de entrevista. Claro que el rol de herramienta de ayuda no corresponde a la relación complementaria de enfoques cuantitativos y cualitativos, pero se nota al menos que estudios cuantitativos pueden raramente renunciar al fundamento cualitativo.

– El modelo de generalización

Las fases cualitativas tienen alto valor dentro del enfoque de generalización. Se empieza la investigación por un estudio cualitativo completo, por ejemplo por unos estudios de caso. Es decir, se toman decisiones sobre preguntas de investigación y métodos (cualitativos) apropriados, se recopilan y analizan los datos y al fin se estructuran los resultados. Después sigue más o menos gradualmente la fase cuantitativa. Muy distintas son las fases cuando se generaliza, por ejemplo, los resultados de un estudio de observación por un cuestionario construido según los hallazgos cualitativos. Ahora se trata de generalizar los resultados por medios de estadística.

-El modelo de profundización

El tercer enfoque aplica los pasos del segundo enfoque en secuencia inversa: Un estudio cuantitativo, por ejemplo una encuesta, proporciona resultados ambivalentes. Solamente por preguntar a sujetos seleccionados se pueden interpretar claramente los resultados o explicar la dirección de la causalidad, que se podría mostrar en una correlación. Es decir, los hallazgos cualitativos pueden servir para profundizar los resultados cuantitativos: Muchos estudios en el contexto de investigación de la juventud (comp. Held, 1994; Kiegelmann, Huber, Held & Ertel, 2000) del departamento de Pädagogische Psychologie de la Universidad de Tübingen aplican este modelo. Por ejemplo, un proyecto de investigación de “Las orientaciones políticas de trabajadores juveniles” (Held, Horn & Marvakis, 1996) trató de encontrar los motivos de los jóvenes para sus orientaciones. Primero los autores pidieron a los jóvenes llenar un cuestionario largo y después entrevistaron a una muestra de ellos. Las informaciones adicionales sirvieron para interpretar los resultados del cuestionario o sea para profundizar y concretizar los hallazgos cuantitativos.

Ese estudio muestra otro efecto del modelo de profundización: El modelo vincula explicación y aplicación en el proceso de investigación. No se terminaron los contactos con los sujetos después de la encuesta por un instrumento cuantitativo, sino se trata de retro-alimentar resultados críticos y discutirlos en colegios técnicos y empresas con trabajadores juveniles. Es decir, los hallazgos animaron a los sujetos a participar en discusiones de grupos y en entrevistas, el instrumento cuantitativo fue convertido en un medio de cambio potencial. Así se transforma el proceso de investigación en un proceso práctico de educación.

-El modelo de triangulación (en el sentido estrícto):

El enfoque de triangulación da accesos diversos al campo de investigación lado a lado con los mismos derechos. Depende solamente de comparar las informaciones y determinar la intersección de los conjuntos como resultado final. Para triangular perspectivas diversas se pueden combinar métodos cualitativos y cuantitativos, pero lógicamente también varios métodos cualitativos. Un ejemplo bien fundado de la triangulación de métodos cualitativos lo dan Medina, Feliz, Domínguez y Pérez, (2002, pág. 178; original en inglés). Los autores describen la combinación de tres enfoques metodológicos: El método de biogramas sirve para abrir el acceso a la historia de la vida personal o profesional de los sujetos, la entrevista profunda que aporta a entender más precisamente aspectos específicos y la discusión en grupos que hace posible comparar los puntos de vista subjetivo de los sujetos. Dentro de la intersección de los conjuntos de la perspectiva temporal-biográfica, de la perspectiva personal y de la perspectiva dinámica-social, o sea en el área de triangulación encuentran al fin interpretaciones equilibradas.

 

Paradigmas del análisis de datos cualitativos: Codificación y análisis de secuencias

El análisis de datos cualitativos tiene que reducir el tamaño enorme de datos (textos, grabaciones de sonido o video, fotos, dibujos, etc.) para la interpretación del contenido y reconstruir el sentido general del material. Para facilitar la descripción, vamos a mencionar solamente los textos como datos típicos de estudios cualitativos (p.ej. en forma de transcripciones de entrevistas). Muchas veces se combinan ambos procederes y complementan la codificación, el modo más eficiente de reducir los datos es un análisis preciso de secuencias de sentido en los textos. Lo que resulta es un panorama de contenidos y estructuras, que sirven para la reconstrucción, por ejemplo, de tipos de expresión o de estructuras de casos en el material concreto.

 

El paradigma de codificación

La categorización de segmentos textuales se consigue a través de un esfuerzo en la interpretación por parte del investigador que busca discernir el significado de una porción de texto y asignarle un símbolo que represente ese significado. Según la terminología de Miles y Huberman (1984/1994) y de la mayoría de investigadores cualitativos, llamaremos a estos símbolos “códigos”. La codificación del texto convierte las formulaciones coloquiales e individuales, pertenecientes al lenguaje diario, en un sistema de notaciones menos complejo y ambiguo. El enfoque del análisis cualitativo de contenidos (Mayring, 1995) es por último un caso especial del paradigma de codificación. La codificación permite categorizar los datos cualitativos muy eficientemente de manera que más tarde se podría proporcionar incluso análisis cuantitativos complejos.

Mientras el proceso de codificación no varía mucho, lo que se codifica depende estrictamente de la pregunta clave de la investigación. Se podría, por ejemplo, codificar en una comunicación terapéutica solamente lo que el cliente expresa respecto a sus emociones y pensamientos sobre sí mismo – cuando eso sea el tema del estudio. Otro tema y pregunta clave podría tomar el mismo texto, pero concentrar la atención en la interacción social entre terapeuta/cliente y analizar, cuáles de las interacciones comunicativas se lograban y cuáles no. Así se podrían crear categorías (códigos), que significarían “rechazo”, “aceptación”, “oraciones sobre sí mismo”, “provocación”, etc. En un paso siguiente se tendría que estudiar, qué criterios representan el éxito o el fracaso de una comunicación y si se puede encontrar secuencias correspondientes de códigos en la base de datos. Con esta sugerencia llegamos al paradigma del análisis de secuencias (vea abajo). La codificación misma es un proceder para reducir y estructurar los datos. Más allá se puede resumir códigos en jerarquías u organizarlos (y contarlos) en tablas (representación por matrices según Miles & Huberman, 1984/1994) y al fin comparar eses estructuras dentro y entre varios casos. Por eso, la codificación forma una parte esencial de la interpretación del contenido, pero no revela el sentido profundo de los datos.

En el contexto de la estrategia de la teoría anclada Strauss y Corbin (1990) distinguen tres maneras de codificar textos, la codificación abierta, axial y selectiva, mientras para Miles y Huberman (1994, p. 56) “codificar” significa siempre analizar datos, o sea interpretarlos y atribuir significado:

• La codificación abierta caracteriza la fase inicial del análisis. Se trabaja con el espíritu abierto descrito arriba y divide el texto original por códigos de significado relevante desde punto de vista de la pregunta clave de la investigación.

• La codificación axial casi invierte este proceso. Ahora se junta códigos en unidades más amplias y trata de reconstruir la complejidad de los datos, que se olvidó durante el primer paso de codificar abiertamente. Las unidades o categorías nuevas representan relaciones relevantes entre los códigos.

• La codificación selectiva al contrario estrecha la perspectiva. La interpretación se concentra en lo esencial, en el hilo conductor determinado por la pregunta clave de la investigación. Se trata de vincular todas las categorías con esta pregunta o de modificarlas de manera que puedan contribuir a respuestas con sentido.

Durante una fase de análisis de datos, que llamamos según Ragin (1987) el “análisis de implicantes” o “minimización lógica” se trata de generalizar los hallazgos interpretativos. Si preguntamos ¿Qué es lo general o lo típico de un caso particular?, proporcionamos como respuesta varias características del caso que tiene en común con una clase de casos semejantes. Si preguntamos al revés ¿Qué es lo único de un caso?, esperamos como respuesta los atributos que diferencian este caso de otros. La clasificación es satisfactoria cuando cada una de las categorías contiene solamente casos muy parecidos y lo más posible diferentes de los casos de las otras categorías. El proceso de clasificación no intenta solamente establecer un orden de los casos dados en este momento, sino trata también de explicar relaciones, vincular experimentaciones o establecer expectativas. Para Mayring (2001 [18]) “la identificación del caso individual como típico de un ámbito determinado de hechos ...” representa “un primer paso cuantitativo de generalización...”

 

El paradigma del análisis de secuencias

El análisis de secuencias se deriva de los trabajos de Oevermann et al. (1979) sobre la hermenéutica objetiva. Por eso el análisis de secuencias no es sencillamente un instrumento del análisis de datos, sino una estrategia de investigación o una metodología distinta. Oevermann basa eso en su fondo sociológico, sobre todo en la teoría de socialización y da ejemplos de sus trabajos sobre la práctica de la vida, la autonomía y la crisis. La meta del enfoque es la “reconstrucción estructural-lógica” de estructuras latentes y sentidos de “textos” (conversaciones, entrevistas, fotos, grabaciones de sonido o video – para Oevermann todo el mundo social tiene la forma de texto). La reconstrucción del error previene el falseamiento. Se analiza textos por secuencias y trata de formular una hipótesis (basado en la pregunta de investigación) respecto a su continuación. Esta hipótesis se tiene que comprobar estrictamente con los datos del texto. El intercambio permanente entre formular y comprobar hipótesis lleva a la (re)construcción de una primera estructura hipotética del caso.

Se continúa el análisis de secuencias hasta que se encuentra la estructura hipotética otra vez. Ahora se busca segmentos de texto que podrían servir para probar lo contrario, es decir, que se podrían “leer” como o interpretar como contradicción de la estructura hipotética. En caso de falsación, el error sirve para probar la hipótesis, se acepta que la hipótesis estructural explica el caso y se habla desde este punto de la estructura del caso.

Muy importante para poner al descubierto los niveles latentes de significado, son por un lado los significados objetivos y por otro lado la intuición lingüística de los interpretadores. Oevermann reclama que estructuras de casos bien reconstruidas que son realmente válidas, no representan solamente el producto de atribuciones subjetivas-constructivistas de sentido. Principalmente se hace análisis de secuencia en equipos pequeños para reducir la influencia de errores que aparecerían inevitablemente cuando no hay oportunidades de intercambiar opiniones subjetivas entre los investigadores. Un análisis de 4-5 páginas de una entrevista transcrita demanda más o menos 15 horas de interpretación, pero al fin es poco texto suficiente para reconstruir la estructura general del caso. Según el criterio de la repetición de una estructura crítica (vea arriba) no es necesario interpretar todo el texto - se termina después de la reproducción y prueba de la estructura hipotética.

Mostramos el proceder por un ejemplo, que proviene del análisis de la solicitud de una cliente potencial para su admisión en una institución contra drogadicción y su tratamiento hospitalario (Studer, 1995). Una frase clave dice:

“Ich möchte meine Sucht in den Griff bekommen” (“Quisiera conseguir dominar mi adicción.” o traducido literalmente – aquí importante para el análisis: “Quisiera obtener control sobre mi adicción.”)

Según la hipótesis de los interpretadores la solicitante no expresa su deseo de liberarse de su adicción, sino de controlar su consumo de drogas. Porque lo que se domina o controla, no se puede soltar. El estudio secuencial de la carta de solicitud confirmó que la motivación inicial “in den Griff bekommen” (conseguir dominar) señala el deseo de control. Es decir, la solicitante no quiere empezar un tratamiento con la meta de eliminar sin reservas sus comportamientos de adicción, más bien intenta una vida de consumir drogas bajo control personal, o sea las metas de la institución (abstinencia) y de la cliente potencial (consumo controlado) se contradicen. En este caso el significado objetivo de la oración analizada indica la motivación latente, pero probablemente no consciente, de continuar el consumo de drogas, pero sí evitar las consecuencias (físicas, mentales, sociales) peligrosas.

El enfoque de hermenéutica objetiva busca y reconstruye el significado “objetivo” de la vida actual (“Lebenspraxis”; práctica de la vida) detrás de la intención subjetiva (“Willenskundgebung”; intención hecho público) del sujeto. “La vida actual se constituye ... en la unidad contradictoria de la compulsión de tomar decisiones y la obligación de justificarlas. Se manifiesta como tal solamente en la crisis” (Oevermann, 1997, p. 7s.). La reconstrucción de acciones y por lo tanto de la vida actual es posible al separar los deseos e intenciones subjetivas que el sujeto expresa, de los motivos latentes que se trata de reconstruir. Por suponer mucho sentido detrás de cualquier oración/expresión (“abrir el espacio de posibilidades”) y comprobar estas hipótesis de sentido, la aglomeración muy saturada de estructuras de sentido se derrumba rápidamente de manera que quedan solamente las hipótesis o “modos de leer” sólidos, que se puede comprimir e integrar en una hipótesis de la estructura de caso. Las reglas siguientes determinan el proceder del análisis de secuencias (Wernet, 2000):

• Determinación del caso – ¿Cuál es el caso, cuál es el contexto?

• Empezar con los datos objetivos (nacimiento, entorno social, profesión/profesiones, etc.), después análisis de las huellas causadas por la realidad (p.ej., entrevista, conversación terapeutica), o sea los textos;

• Interpretación según las líneas maestras siguientes:

- Independencia del contexto, es decir no se ignora el contexto, pero no se recurre de momento a esta fuente de información, porque se trata de reconstruir la estructura del caso y explicaciones independientes del contexto.

- Interpretación al pie de la letra, es decir las interpretaciones (los modos distintos de leer el texto) dependen de lo que es dado literalmente en el texto, porque el texto mismo es una parte de la realidad.

- Consideración de la secuencia, es decir se trabaja estrictamente y paso por paso según la estructura del texto desde el comienzo hasta el final.

- Análisis extensivo, es decir lo que cuenta es la totalidad del texto como objeto de la investigación y no preferencias subjetivas de los investigadores para aspectos distintos del contenido: Todo es igualmente importante.

- Economía, es decir se parte del caso normal.

Falta solamente destacar que el análisis de secuencias no solamente vale para analizar textos, sino también organigramas, genogramas y otros datos estructurales (Hildenbrand, 2005).

 

La ayuda del ordenador en el análisis de datos cualitativos

Ya durante la recopilación de datos, el investigador a menudo empieza a buscar, de forma más o menos sistemática, las ideas generales que están detrás de las oraciones de los sujetos, por ejemplo, buscar unidades centrales de significado en los textos de las entrevistas. Normalmente, estas ideas generales se representan por códigos (vea arriba). Los códigos no sólo reducen declaraciones individuales llamativas y destacadas en un sistema menos complejo y ambiguo de anotación que el lenguaje ordinario, también representan un esfuerzo interpretativo y explicativo del investigador. Por tanto, conociendo que la codificación es principalmente un proceso de interpretación, es preciso que los resultados deban ser controlados para que la investigación sea objetiva, fiable y válida.

Para garantizar sobre todo la validez interna como un requisito previo para posteriores consideraciones, es necesario verificar si los códigos se utilizaron de forma consistente, si las áreas de significado que definen se observaron en todos los casos, si el significado simbolizado por códigos específicos realmente coincide con el contenido de aquellos pasajes de texto que reducen, etc. (Huber, 1989). Una vez que la tarea de interpretar o codificar un texto se ha llevado a cabo con éxito, al menos de momento, los datos originales se reducen considerablemente.

Tener una relación de códigos con validez interna, sin embargo, no es suficiente como resultado de un análisis cualitativo, incluso si a través de la descripción de la frecuencia de los códigos y del modo de su distribución, llegan a hacerse visibles los puntos clave del texto original. En el mejor de los casos eso es una aproximación a la estructura del significado en el texto codificado. Lo que se requiere es mostrar configuraciones de códigos comunes y/o repetidas. Miles y Huberman (1984/1994) sugieren y usan en su libro principalmente el formato bidimensional de matrices para responder a las demandas de la estructuración de los datos, por ejemplo: proporcionar una información bien ordenada de forma simultánea (en lugar de secuencial); permitir la comparación con los resultados de otros sujetos, situaciones, tiempos, estudios, etc.; así como dar directrices para realizar nuevos y más refinados análisis. Y si es verdad que una imagen vale más que mil palabras, entonces, las matrices reemplazan al menos a 100 palabras, sobre todo porque sitúan los datos y los procesos analíticos juntos en una situación, así como indican la necesidad de posteriores análisis.

Sin embargo, incluso una sofisticada exposición a partir de los datos reducidos, no es una conclusión suficiente sino un requisito previo de considerable ayuda para extraer conclusiones. Cuando se llevan a cabo análisis de alto orden, se deben especificar las condiciones complejas, que normalmente incluyen diferentes códigos o unidades de significado y sus relaciones lógicas específicas, en algunos casos también se incluyen datos cuantitativos y socio-demográficos. Al llevar a cabo un formato bidimensional, éste puede resultar sobrecargado por las demandas del análisis, incluso cuando se llega al acuerdo de seleccionar las matrices más amplias y las más específicas, se corre el riesgo de perder claridad. Por el contrario, un instrumento que parece ser de gran ayuda es la combinación de condiciones relevantes para llegar a una conclusión en la forma de una simple pregunta. Podemos entender que al responder a tal pregunta, estamos contrastando hipótesis complejas. En el último capítulo de este artículo se presenta un ejemplo acerca del desarrollo de hipótesis en este tipo de análisis. El último paso en investigación cualitativa descrito por Miles y Huberman (1984/1994) es sacar conclusiones. Pueden ser conclusiones respecto a configuraciones de unidades de significado típicas y repetidas, ya sean secuencias específicas, agrupaciones, estructuras jerárquicas y dimensionales, o relaciones causales.

La interacción entre la reducción de datos cualitativos y la fase de sacar conclusiones es evidente. Si modificamos una interpretación, tanto al cambiar un código como un conjunto de códigos, las conclusiones que incluyen a estos códigos comienzan a ser cuestionadas. Si por otro lado, identificamos en un texto un patrón de códigos que es incongruente con las reglas utilizadas para la interpretación hasta ese momento, entonces hemos de controlar los otros textos y probablemente debamos modificar las definiciones de algunos códigos. Eso implica volver a empezar con el proceso de reducción de datos desde el principio, cambiando, como consecuencia, la representación de los datos y las conclusiones (vea arriba). Tal como establece la noción del círculo hermenéutico, esto es en principio un proceso que nunca acaba. Estos procesos circulares aparecen con frecuencia durante la codificación: las reglas básicas de la codificación cambian durante el proceso de reducción de datos, y a veces no somos conscientes inmediatamente de este cambio. Por ejemplo: una entrevista se interpreta de una forma y la siguiente de una forma diferente; tan pronto como nos damos cuenta de la inconsistencia en nuestro fichero de códigos, hemos de volver al principio. Es decir, hemos de leer de nuevo muchas páginas del texto, así como buscar unidades de significado específicas. Así mismo puede ocurrir que notemos al final del proceso de reducción de datos que hemos combinado algunos códigos, o que hemos diferenciado otras unidades de significado. De nuevo, hemos de luchar con los cientos de páginas y todas las dificultades que mientras tanto adjuntamos al texto. Los problemas se multiplican si dificultades como éstas aparecen durante la fase de contraste de hipótesis. En este caso hemos de repetir la búsqueda simultánea para dos, tres o incluso más códigos que aparecen en determinadas configuraciones en todas nuestras transcripciones.

Sin exagerar podemos resumir que un análisis complejo de datos cualitativos pronto se convierte en intrincado, y sin un cuidadoso y sistemático procedimiento de control, siempre se corre el riesgo de perder su propia orientación. La probabilidad de perder la pista de los elementos de una hipótesis y sus relaciones es alta sobre todo cuando se saca conclusiones, mientras se comprueban cientos de páginas de transcripciones de este patrón específico. Hace falta una herramienta para la investigación cualitativa que ayude a los investigadores a mantener una visión sobre sus decisiones y a modificarlas sin dificultad. Resumiendo: Lo que el investigador necesita es el ordenador como una herramienta que facilita sus tareas de manejar su banco de datos, de buscar y encontrar segmentos de textos, códigos y sus vínculos, secuencias de segmentos de texto codificado, etc., es decir una herramienta para tareas mecánicas y rutinarias. Pero de todas maneras no para la codificación mismo, o sea el proceso de interpretación. Claro, es un apoyo cuando el ordenador busca palabras clave en los textos y sugiere segmentos correspondientes de texto para codificarlas, pero es el investigador quien tiene que determinar anteriormente las palabras clave según su pregunta clave de investigación y es también el investigador quien toma la decisión de marcar el segmento de texto por un código distinto o no, basado en su destrezas lingüísticas: Es el investigador quien controla el análisis y no el ordenador, el ordenador es sólo una herramienta útil.

 

Perspectivas – Integración de enfoques cualitativos y cuantitativos

Al final queremos mencionar unas tendencias actuales vinculadas con el desarrollo de “métodos mixtos”. Como ya se ha dicho se observa hoy más autores que no recomiendan un paradigma distinto, sino la selección de métodos conforme a las exigencias del objeto o de la pregunta de la investigación (Patton, 2006). Lo que sigue para la investigación cualitativa es el requerimineto de estar abierto a procedimientos estadísticos que resuelvan problemas, que los enfoques cualitativos no pueden superar. Un ejemplo interesante sería el análisis estadístico de las codificaciones de personas después de un análisis de contenido (vea “paradigma de codificación”). Por algoritmos disponibles como el escalado multidimensional o el análisis jerárquico de cluster se pueden situar gráficamente a las personas en un espacio bidimensional respecto a su semejanza (proximidad, distancia). De esta manera los métodos estadísticos reciben una función exploradora y contribuyen a los esfuerzos de generar hipótesis - casi funciones cualitativas de “data mining”. Pero se tiene que observar que es imposible interpretar estos resultados en el sentido de validación, porque sólo el tamaño de algoritmos prohibe una filiación clara de preguntas y procedimientos matemáticos. Además debería la interpretación al nivel de casos individuales referirse cada vez más a los datos originales, no solamente a las codificaciones o índices estadísticos y representaciones gráficas. Pero bajo la condición que el investigador presta atención a su pregunta clave, estos procederes pueden servir mucho. Gürtler (2005) muestra el beneficio de esta estrategia en su estudio sobre las teorías subjetivas de profesores y la generación de varios tipos de teorías subjetivas. También los análisis de tablas o matrices aportan a proporcionar interpretaciones convincentes de datos cualitativos. Del mismo modo se podría pensar en analizar distribuciones de códigos por pruebas de ?2 o en contestar la pregunta, si las frecuencias de palabras en grupos distintos de sujetos (p.ej. mujeres y varones; alumnos de varios tipos de escuelas, etc.; vea Gürtler, 2005) pueden pronosticar códigos particulares, o sea significados particulares en los datos de estos grupos.

Pero no se debería exagerar las posibilidades de interpretar los datos disponibles. Muchas veces sería mejor la replicación de los mismos procedimientos con sujetos de una prueba nueva. De todas maneras se tiene que justificar la selección y combinación de métodos; bajo esta condición no hay problemas con combinaciones innovadoras de enfoques distintos. Se encuentra unas ideas muy notables respecto al uso creativo de métodos más allá de “métodos mixtos” en un artículo por Shank (2006).

Porque se necesita más esfuerzo para preparar y analizar los datos para combinaciones metodológicas de este tipo, se tiene que observar también los aspectos económicos de los enfoques. Sobre todo la compra de software estadístico causa gastos adicionales. Por eso queremos indicar una alternativa sin ningún gasto del entorno “open source”: El software estadístico se llama sencillamente “R” (www.r-project.org) y representa hoy el estándar de programación estadística. Para usuarios no (más) familiarizados con manejar ordenadores por órdenes hay también interfases gráficas para manejar el programa.

Muy impresonantes son las posibilidades de aplicar “R” para análisis cualitativos de estructuras de contenido y como interfase de análisis cuantitativos. Hay paquetes de funciones para la minimización lógica, el análisis de teorías subjetivas (Groeben & Scheele, 1988) y el análisis de datos estructurales (Oldenbürger, 2005; ejemplos en Gürtler, 2005 y Gürtler & Oldenbürger, 2005).

Resumiendo queremos subrayar que los enfoques cualitativos permiten accesos variables al problema de un estudio de modo que no hay dificultades para diseñar el estudio conforme a las exigencias de la pregunta clave. Sobre todo cuando se intenta incluir métodos estadísticos, se tienen que considerar las metas del estudio.

 

REFERENCIAS

Admiraal, W. & Wubbels, T. (2005). Multiple voices, multiple realities, what truth? Student teachers’ learning to reflect in different paradigms. Teachers and Teaching: Theory and Practice, 11 (3), 315-330.         [ Links ]

Baumgartner, E. & Baumgartner, W. (1999). Franz Brentano. In H.E. Lück & R. Miller (Hrsg.) (1999). Illustrierte Geschichte der Psychologie (pp.19-23). Göttingen: Hogrefe.         [ Links ]

Campbell, D. & Fiske, D. (1959). Convergant and discriminant validation by multitrait-multimethod matrix. Psychological Bulletin, 56, 81-105.         [ Links ]

Denzin, N.K. (1989). The research act. (3rd ed.). Englewood Cliffs: Prentice Hall.         [ Links ]

Erzberger, C. & Kelle, U. (2003). Making inferences in mixed methods: The rules of integration. In A. Tashakkori & C. Teddlie (Hrsg.), Handbook of mixed methods in social and behavioral research (pp. 457-488). Thousand Oaks: Sage.         [ Links ]

Flick, U. (1987). Methodenangemessene Gütekriterien in der qualitativ-interpretativen Forschung. In U. Flick & J. Bergold (Hrsg.), Ein-Sichten. Zugänge zur Sicht des Subjekts mittels qualitativer Forschung, (pp. 247-263). Tübingen: DGVT.         [ Links ]

Flick, U. (2000). Triangulation in der qualitativen Forschung. In U. Flick, E.v. Kardorff, & I. Steinke (Eds.), Qualitative Forschung. Ein Handbuch (pp. 309-318). Reinbek bei Hamburg: Rowohlts Enzyklopädie.         [ Links ]

Foerster, H. & Pörksen, B. (2004). Wahrheit ist die Erfindung eines Lügners. Gespräche für Skeptiker. Heidelberg: Carl- Auer-Systeme.         [ Links ]

Freud, S. (1905). Der Witz und seine Beziehung zum Unbewußten. Ausgabe 1999. Frankfurt am Main: Fischer.         [ Links ]

Freud, S. (1927). Der Humor. Ausgabe 1999. Frankfurt am Main: Fischer.         [ Links ]

Gigerenzer, G. (1981). Messung und Modellbildung in der Psychologie. München: Reinhardt.         [ Links ]

Glaser, B.G. & Strauss, A.L. (1967). The discovery of grounded theory: Strategies for qualitative research. Chicago: Aldine.         [ Links ]

Groeben, N. (1986). Handeln, Tun, Verhalten als Einheiten einer verstehend-erklärenden Psychologie. Tübingen: Francke.         [ Links ]

Groeben, N. & Westmeyer, H. (1975). Kriterien psychologischer Forschung. Grundfragen der Psychologie. München: Juventa.         [ Links ]

Groeben, N. & Scheele, B. (1977). Argumente für eine Psychologie des reflexiven Subjekts. Darmstadt: Steinkopff.         [ Links ]

Groeben, N., Wahl, D., Schlee, J., & Scheele, B. (1988). Das Forschungsprogramm Subjektive Theorien. Eine Einführung in die Psychologie des reflexiven Subjekts. Tübingen: Francke.         [ Links ]

Gürtler, L. (2005). Die Bewältigung der Katastrophe. Vipassana-Meditation und Humor. Die Rekonstruktion von Innensicht und Außensicht humorvollen Handelns in Schule und Erwachsenenbildung. Berlin: Logos.         [ Links ]

Gürtler, L. & Huber, G.L. (2006). The ambiguous use of language in the paradigms in QUAN and QUAL. Qualitative Resarch in Psychology, 3, 313-328.         [ Links ]

Gürtler, L. & Oldenbürger, H.A. (2005). Humor aus Schüler/ innensicht. Vortrag und Paper auf dem FST Symposium, 2.-4. März 2005, Ludwigsburg.         [ Links ]

Hays, W.L. (1978). Statistics for the social sciences (2nd ed.). London: Holt.         [ Links ]

Heisenberg, W. (1927). Anschaulicher Inhalt der quantenmechanischen Kinematik. Zeitschrift für Physik, 43, 172.         [ Links ]

Held, J. (1994). Praxisorientierte Jugendforschung. Theoretische Grundlagen, methodische Ansätze, exemplarische Projekte. Hamburg: Argument.         [ Links ]

Held, J., & Marvakis. A. (1992). Empirische Jugendforschung und ihr Verhältnis zur politischen Bildung. In K.-H. Braun & K. Wetzel (Eds.). Lernwidersprüche und pädagogisches Handeln. Bericht von der 6. internationalen Ferienuniversität Kritische Psychologie, 24. bis 29. Februar 1992 in Wien (S. 243-256). Marburg: Verlag Arbeit & Gesellschaft.         [ Links ]

Hildenbrand, B. (1999). Fallrekonstruktive Familienforschung. Anleitungen für die Praxis ( 2. Auflage). Wiesbaden: Verlag für Sozialwissenschaften.         [ Links ]

Huber, G.L. (1989). AQUAD. Auswertung qualitativer Daten, Version 2.2. Informe Nº 25 del Departamento de la Psicología de la Educación, Universidad de Tübingen.         [ Links ]

Huber, G.L. (Ed.) (1992). Qualitative Analyse. Computereinsatz in der Sozialforschung. München: Oldenbourg.         [ Links ]

Huber, G.L. & Gürtler, L. (2003). AQUAD SECHS. Manual zur Software AQUAD 6. Tübingen: Ingeborg Huber.         [ Links ]

Jahoda, M., Lazarsfeld, P. F., & Zeisel, H. (1933/2002). Die Arbeitslosen von Marienthal. Ein soziographischer Versuch über die Wirkungen langandauernder Arbeitslosigkeit (1. Aufl./16. Nachdruck). Frankfurt am Main: Suhrkamp.         [ Links ]

Jaynes, E.T. (1988) How does the brain do plausible reasoning? In G.J. Erickson & C.R. Smith (Hrsg.), Maximum-entropy and Bayesian methods in science and engineering, I. Foundations and II. Applications, p. 1-23. Dordrecht: Kluwer Academic Publishers. [Reprint of Jaynes, 1957]         [ Links ]

Jaynes, E.T. (2003). Probability theory. The logic of science. Edited by G.L. Bretthorst. Cambridge: University Press.         [ Links ]

Kraimer, K. (Hrsg.) (2000). Die Fallrekonstruktion. Sinnverstehen in der sozialwissenschaftlichen Forschung. Frankfurt a. Main: Suhrkamp.         [ Links ]

Kelle, U. & Kluge, S. (1999). Vom Einzelfall zum Typus. Fallvergleich und Falkontrastierung in der qualitativen Sozialforschung. Opladen: Leske + Budrich.         [ Links ]

Kiegelmann, M., Held, J., Huber, G. L. & Ertel, I. (2000). Das Zentrum für Qualitative Psychologie an der Universität Tübingen [24 Absätze]. Forum Qualitative Sozialforschung; Forum: Qualitative Social Research [On-line Journal], 1/(2). URL: http://www.qualitative-research.net/fqs-texte/2-00/2- 00kiegelmannetal-d.htm        [ Links ]

Klieme, E. & Leutner, D. (2006). Kompetenzmodelle zur Erfassung individueller Lernergebnisse und zur Bilanzierung von Bildungsprozessen. Überarbeitete Fassung des Antrags an die DFG auf Einrichtung eines Schwerpunktprogramms. URL: http://www.kompetenzdiagnostik.de/images/Dokumente/antrag_spp_kompetenzdiagnostik_ueberarbeitet.pdf (Acceso: 24-07-07)         [ Links ]

Krüger, H.H. (2002). Einführung in Theorien und Methoden der Erziehungswissenschaft. Stuttgart: UTB.         [ Links ]

Lakatos, I. (1977). The methodology of scientific research programmes. Philosophical Papers Volume 1. Cambridge University Press, Cambridge.         [ Links ]

Lamiell, J.T. (1981). Toward a idiothetic psychology of personality. American Psychologist, 36, 267-289.         [ Links ]

Lefrancois, G.R. (2006). Psychologie des Lernens. Berlin: Springer.         [ Links ]

Lincoln, Y.S. & Guba, E.G. (2000). Paradigmatic controversies, contradictions, and emerging confluences. In N.K. Denzin & Y.S. Lincoln (Hrsg.), Handbook of qualitative research (pp. 163-188). Thousand Oaks: Sage.         [ Links ]

Lück, H.E. & Miller, R. (Eds.) (1999). Illustrierte Geschichte der Psychologie. Göttingen: Hogrefe.         [ Links ]

Mack, W. (1999). Die Würzburger Schule. In H.E. Lück & R. Miller (Eds.) (1999). Illustrierte Geschichte der Psychologie (pp. 50-53). Göttingen: Hogrefe.         [ Links ]

Marcelo García, C. (1991). El primer año de enseñanza. Sevilla: Grupo de Investigación Didáctica de la Universidad de Sevilla.         [ Links ]

Marcelo García, C. (1992). Desarrollo profesional e iniciación a la enseñanza. Estudio de caso de un programa de formación para profesores principantes. Resolución de 30 de sept. de 1992, de la Universidad de Sevilla.         [ Links ]

Maxwell, J. (1999). Qualitative research design: An interactive approach. Thousand Oaks: Sage.         [ Links ]

Maxwell, J.A. (2004). Using qualitative methods for causal explanation. Field Methods, 16, 243-264         [ Links ]

Mayring, P. (1995). Qualitative Inhaltsanalyse, Grundlagen und Techniken. Weinheim: Deutscher Studien Verlag.         [ Links ]

Mayring, P. (2001). Kombination und Integration qualitativer und quantitativer Ansätze. Forum Qualitative Sozialforschung (Online Journal), 2, URL: http://www.qualitative-research.net/fqs-texte/1-01/1-01mayring-d.htm (Acceso: 24-07-2007)         [ Links ]

McDermott, R.B. (1985). Computer-aided logic design. Indianapolis/ Indiana: Howard W. Sams & Co., Inc.         [ Links ]

Medina, A., Feliz, T., Domínguez, M.-C., & Pérez, R. (2002). The methodological complementariness of biograms, in-depth interviews, and discussion groups. In M. Kiegelmann (Ed.), The role of the researcher in qualitative psychology (pp. 169-184). Tübingen: Ingeborg Huber Verlag.         [ Links ]

Mertens, D.M. (2005). Research and evaluation in education and psychology. Integrating diversity with quantitative, qualitative, and mixed methods (2nd edition). Thousand Oaks: Sage.         [ Links ]

Miles, M.B. & Hubermann, A.M. (1994). Qualitative data analysis. An expanded sourcebook. 2nd edition. Thousand Oaks: Sage.         [ Links ]

Milgram, S. (1963). Behavioral study of obedience. Journal of Abnormal and Social Psychology, 67, 371-378.         [ Links ]

Nüse, R., Groeben, N., Freitag, B., & Schreier, M. (1996). Über die Erfindung/en des Radikalen Konstruktivismus. Kritische Gegenargumente aus psychologischer Sicht. Weinheim: Deutscher Studien Verlag.         [ Links ]

Oevermann, U., Allert, T., Konau, E., & Krambeck, J. (1979). Die Methodologie einer »objektiven Hermeneutik« und ihre allgemeine forschungslogische Bedeutung in den Sozialwissenschaften. In H.-G. Soeffner (Hrsg.), Interpretative Verfahren in den Sozial- und Textwissenschaften, (pp. 352-433). Stuttgart: Metzler.         [ Links ]

Oevermann, U. (1997). Gebildeter Fundamentalismus oder pragmatische Krisenbewältigung. Manuskript, korrigierte Version (Universität Frankfurt am Main).         [ Links ]

Oldenbürger, H.A. (2005). Netz-Werk-Zeuge: R-Programme zur Analyse semantischer Strukturdaten. Version 1.93. Fortschreibung eines Stichwort-Beitrags zur Methodologie des Forschungsprogramms ‘Subjektive Theorien’. URL: http:// www.liteline.de/~holdenb/fst/nwz/nwz-prog.html (Zugriff: 24- 07-2007)         [ Links ]

Patton, M.Q. (2006). Foreword: Trends and issues as context. Research in the Schools, 13 (1), i-ii.         [ Links ]

Peirce, C. S. (1931-1935; 1958). Collected Papers. Volume I-VI edited by C. Hartshorne and P. Weiß. Harvard University Press, 1931-1935. Volume VII, VIII edited by A. W. Burks, 1958.         [ Links ]

Popper, K. (1943). Logik der Forschung. 11. Auflage 2005, herausgegeben von Herberth Keupp. Tübingen: Mohr.         [ Links ]

Ragin, C.C. (1987). The comparative method. Moving beyond qualitative and quantitative strategies. Berkeley: University of California Press.         [ Links ]

Raymond, E. (2005). La teorización anclada (Grounded Theory) como método de investigación en ciencias sociales: En la encrucijada de dos paradigmas. Cinta de Moebio: Revista Electrónica de Epistemología de Ciencias Sociales, Nº. 23.         [ Links ]

Reichertz, J. (2003). Die Abduktion in der qualitativen Sozialforschung. Wiesbaden: VS Verlag.         [ Links ]

Schachter, S. & Singer, J.E. (1962). Cognitive, social and physiological determinants of emotional state. Psychological Review, 69, 379-407.         [ Links ]

Schreier, M. (1997). Die Aggregierung Subjektiver Theorien: Vorgehensweise, Probleme, Perspektiven. Kölner Psychologische Studien. Köln: Universität Köln.         [ Links ]

Schweizer, H. (2004). Preparations for the redemption of the world: Distribution of words and modalities in chapter I of Don Quixote. In M. Kiegelmann & L. Gürtler (Eds.), Research Questions and Matching Methods of Analysis (pp.71-108). Tübingen: Ingeborg Huber Verlag.         [ Links ]

Shank, G. (2006). Six alternatives to mixed methods in qualitative research. Qualitative Research in Psychology, 3, 346-356.         [ Links ]

Sherif, M., Harvey, O.J., White, B.J., Hood, W.R., & Sherif, C.W. (1961): Intergroup conflict and cooperation: the Robbers Cave experiment. Norman: University of Oklahoma Book Exchange.         [ Links ]

Stegmüller, W. (1975). Das Problem der Induktion: Humes Herausforderung und moderne Antworten. Der so genannte Zirkel des Verstehens. Darmstadt: Wissenschaftliche Buchgesellschaft.         [ Links ]

Stössel, A. & Scheele, B. (1989). Nomothetikorientierte Zusammenfassung Subjektiver Theorien zu übergreifenden Modalstrukturen. Bericht aus dem Psychologischen Institut Heidelberg, Diskussionspapier Nr. 63. Heidelberg: Psychologisches Institut: Universität Heidelberg.         [ Links ]

Strauss, A., & Corbin, J. (1990). Basics of qualitative research. Grounded theory procedures and techniques. Newbury Park, CA: Sage         [ Links ]

Studer, U.M. (1995). Therapieforschung in start again: Eine Werkstattschau. Jahresbericht 1995. Zürich: start again.         [ Links ]

Studer, U.M. (1996). Wahrscheinlichkeitstheorie als Logik: die formale Struktur konsistenten Schlußfolgerns. Unveröffentlichtes Manuskript. Therapieforschung Suchttherapiezentrum Start Again. Zürich: start again.         [ Links ]

Studer, U.M. (1998). Verlangen, Süchtigkeit und Tiefensystemik. Zürich: startagain. URL: http://www.startagain.ch/files/ Fallstudie_Vollversion.pdf (Zugriff: 24-07-07).         [ Links ]

Studer, U.M. (2006). Probability theory and inference: How to draw consistent conclusions from incomplete information. Qualitative Resarch in Psychology, 3, 329-345.         [ Links ]

Tashakkori, A. & Teddlie, C. (Hrsg.) (2003). Handbook of mixed methods in social and behavioral research. Thousand Oaks: Sage.         [ Links ]

Teddlie, C. & Tashakkori, A. (2006). A general typology of research designs featuring mixed methods. Research in the Schools, 13 (1), 12-28.         [ Links ]

Villar, L. M. (Ed.) (1981). Las prácticas de enseñanza. Sevilla: ICE de la Universidad.         [ Links ]

Villar, L. M., & Marcelo, C. (1992). Kombination qualitativer und quantitativer Methoden. In G. L. Huber (Ed.), Qualitative Analyse. Computereinsatz in der Sozialforschung (S. 177-218). München: Oldenbourg.         [ Links ]

Yin, R. K. (1989). Case study research. Design and methods. Applied Social Research Methods Series, Vol. 5. Newbury Park, CA: Sage.         [ Links ]

Zimbardo, P.G. (1972). Pathology of imprisonment. Society, 9 (6), 4-8. URL: http://www.angelfire.com/or/sociologyshop/path.html (acceso: 24-07-2007)        [ Links ]

 

 

Recibido: 30 de agosto de 2007
Revisado: 5 de setiembre de 2007
Aceptado: 28 de setiembre de 2007

 

 

* leog2001@amicca_vijja.de
** huber.paedpsy@umi-tuebingen.de

Creative Commons License