Validez y confiabilidad en la metodología cualitativa
Miguel Martínez Miguélez
Universidad Simón Bolívar
Resumen
Este
artículo trata de clarificar la frecuente confusión que tienen muchos
investigadores al utilizar los criterios relacionados con la validez y
la confiabilidad en una investigación, ya sea de orientación
cuantitativa tradicional o cualitativa. Se hace énfasis en el enfoque
epistemológico de cada una como base de todo, en sus características
propias y, principalmente, se resalta el proceso eminentemente crítico
que acompaña a la metodología cualitativa en todas sus fases: procesos
de acopio de la información, de categorización, de estructuración, de
contrastación y de teorización, y, de una manera especial, en los
criterios de evaluación de los resultados o estructuras teóricas como
objetivo final de la investigación.
Introducción
En
los medios académicos actuales, que cada vez más están usando métodos y
técnicas de orientación cualitativa para sus diferentes tipos de
investigación, se ha ido presentando reiteradamente una dificultad
relacionada con la validez y confiabilidad de sus resultados.
En
general, los conceptos de validez y confiabilidad que residen en la
mente de una gran mayoría de investigadores, siguen siendo los
utilizados en la orientación epistemológica positivista tradicional, ya
más que superada en la segunda mitad del siglo XX. De aquí nace un
conflicto, pues la metodología cualitativa adopta, como base y postulado
fundamental de su teoría del conocimiento y de la ciencia, el paradigma epistémico postpositivista.
El
paradigma postpositivista se ha instalado en el campo académico después
de muchos estudios en simposios internacionales sobre la filosofía de
la ciencia (ver Suppe, 1977, 1979) en los que se levantó el acta de defunción
de la concepción heredada (el positivismo lógico) la cual, a partir de
ese momento, quedó abandonada por casi todos los epistemólogos"
(Echeverría, 1989, p. 25), debido, como señala Popper (1977, p. 118), a
sus dificultades intrínsecas insuperables.
Evidentemente,
no es suficiente que en este alto nivel científico se llegue a esas
conclusiones para que de inmediato se adopten en la práctica por la
mayoría de los investigadores, como tampoco se adoptaron las ideas
heliocentristas de Copérnico y Galileo en forma completa sino hasta
después de un siglo por ilustres astrónomos de las universidades de
Bolonia, Padua y Pisa. Según Galileo (1968) eso requería cambiar la
cabeza a la gente, lo cual sólo Dios podía realizar (p. 119).
La epistemología postpositivista hace ver que no existe, en el proceso cognoscitivo de nuestra mente, una relación directa entre la imagen empírica visual, auditiva, olfativa, etc. y la realidad externa a que se refieren, sino que siempre
está mediada e interpretada por el horizonte personal e individual del
investigador: sus valores, intereses, creencias, sentimientos, etc., y,
por esta misma razón, los conceptos tradicionales positivistas de validez (como relación fisiológica mente-cosa) y de confiabilidad (como repetición de un mismo proceso mental) deben ser revisados y redefinidos.
1. Base epistemológica para una redefinición de la Validez y la Confiabilidad
1.1 Ontología sistémica
Cuando una entidad es una composición o agregado de elementos
(diversidad de partes no relacionadas), puede ser, en general,
estudiada y medida adecuadamente bajo la guía de los parámetros de la
ciencia cuantitativa tradicional, en la que la matemática y las
técnicas probabilitarias juegan el papel principal; cuando, en cambio,
una realidad no es una yuxtaposición de elementos, sino que sus "partes
constituyentes" forman una totalidad organizada con fuerte interacción entre sí, es decir, constituyen un sistema,
su estudio y comprensión requiere la captación de esa estructura
dinámica interna que la caracteriza y, para ello, requiere una
metodología estructural-sistémica. Ya Bertalanffy había señalado
que "la teoría general de sistemas –como la concibió él originariamente y
no como la han divulgado muchos autores que él critica y desautoriza
(1981, p. 49)– estaba destinada a jugar un papel análogo al que jugó la
lógica aristotélica en la ciencia de la antigüedad" (Thuillier, 1975, p.
86).
Hay dos clases básicas de sistemas: los lineales y los no-lineales. Los sistemas lineales
no presentan "sorpresas", ya que fundamentalmente son "agregados", por
la poca interacción entre las partes: se pueden descomponer en sus
elementos y recomponer de nuevo, un pequeño cambio en una interacción
produce un pequeño cambio en la solución, el determinismo está siempre
presente y, reduciendo las interacciones a valores muy pequeños, puede
considerarse que el sistema está compuesto de partes independientes o
dependientes linealmente. El mundo de los sistemas no-lineales,
en cambio, es totalmente diferente: puede ser impredecible, violento y
dramático, un pequeño cambio en un parámetro puede hacer variar la
solución poco a poco y, de golpe, variar a un tipo totalmente nuevo de
solución, como cuando, en la física cuántica, se dan los "saltos
cuánticos", que son un suceso absolutamente impredecible que no está
controlado por las leyes causales, sino solamente por las leyes de la
probabilidad.
Estos
sistemas no-lineales deben ser captados desde adentro y su situación
debe evaluarse paralelamente con su desarrollo. Prigogine afirma (1986)
que el mundo no-lineal contiene mucho de lo que es importante en la naturaleza: el mundo de las estructuras disipativas.
hora bien, nuestro universo está constituido básicamente por sistemas no-lineales en todos sus niveles: físico, químico, biológico, psicológico y sociocultural.Si observamos nuestro entorno vemos que estamos inmersos en un mundo de sistemas. Al considerar un árbol, un libro, un área urbana, cualquier aparato, una comunidad social, nuestro lenguaje, un animal, el firmamento, en todos ellos encontramos un rasgo común: se trata de entidades complejas, formadas por partes en interacción mutua, cuya identidad resulta de una adecuada armonía entre sus constituyentes, y dotadas de una sustantividad propia que transciende a la de esas partes; se trata, en suma, de lo que, de una manera genérica, denominamos sistemas (Aracil, 1986, p. 13). De aquí, que von Bertalanffy (1981) sostenga que desde el átomo hasta la galaxia vivimos en un mundo de sistemas (p. 47).
Según
Capra (1992), la teoría cuántica demuestra que todas las partículas se
componen dinámicamente unas de otras de manera autoconsistente, y, en
ese sentido, puede decirse que contienen la una a la otra. De esta
forma, la física (la nueva física) es un modelo de ciencia para los nuevos conceptos y métodos de otras disciplinas. En el campo de la biología,
Dobzhansky (1967) ha señalado que el genoma, que comprende tanto genes
reguladores como operantes, trabaja como una orquesta y no como un
conjunto de solistas.
También Köhler (1967), para la psicología,
solía decir que "en la estructura (sistema) cada parte conoce
dinámicamente a cada una de las otras". Y Ferdinand de Saussure (1931),
para la lingüística, afirmaba que "el significado y valor de cada
palabra está en las demás", que el sistema es "una totalidad
organizada, hecha de elementos solidarios que no pueden ser definidos
más que los unos con relación a los otros en función de su lugar en esta
totalidad.
Si
la significación y el valor de cada elemento de una estructura dinámica
o sistema está íntimamente relacionado con el de los demás, si todo es
función de todo, y si cada elemento es necesario para definir a los otros, no podrá ser visto ni entendido ni medido "en sí", en forma aislada, sino a través de la posición y de la función
o papel que desempeña en la estructura. Así, Parsons señala que "la
condición más decisiva para que un análisis dinámico sea válido, es que cada problema se refiera continua y sistemáticamente al estado del sistema considerado como un todo" (en: Lyotard, 1989, p. 31).
La
necesidad de un enfoque adecuado para tratar con sistemas se ha sentido
en todos los campos de la ciencia. Así fue naciendo una serie de enfoques modernos afines
como, por ejemplo, la cibernética, la informática, la teoría de
conjuntos, la teoría de redes, la teoría de la decisión, la teoría de
juegos, los modelos estocásticos y otros; y, en la aplicación práctica,
el análisis de sistemas, la ingeniería de sistemas, el estudio de los
ecosistemas, la investigación de operaciones, etc. Aunque estas teorías y
aplicaciones difieren en algunos supuestos iniciales, técnicas
matemáticas y metas, coinciden, no obstante, en ocuparse, de una u otra
forma y de acuerdo con su área de interés, de "sistemas", "totalidades" y
"organización"; es decir, están de acuerdo en ser "ciencias de
sistemas" que estudian aspectos no atendidos hasta ahora y problemas de
interacción de muchas variables, de organización, de regulación, de
elección de metas, etc. Todas buscan la "configuración estructural
sistémica" de las realidades que estudian.
En un sistema se da un conjunto de unidades interrelacionadas de tal manera que el comportamiento de cada parte depende del estado de todas las otras,
pues todas se encuentran en una estructura que las interconecta. La
organización y comunicación en el enfoque de sistemas desafía la lógica
tradicional, reemplazando el concepto de energía por el de información, y el de causa-efecto por el de estructura y realimentación.
En los seres vivos, y sobre todo en los seres humanos, se dan
estructuras de un altísimo nivel de complejidad, las cuales están
constituidas por sistemas de sistemas cuya comprensión desafía la
agudeza de las mentes más privilegiadas; estos sistemas constituyen un
todo "físico-químico-biológico-psicológico-cultural y espiritual".
Solamente refiriéndonos al campo biológico, hablamos de sistema
sanguíneo, sistema respiratorio, sistema nervioso, sistema muscular,
sistema óseo, sistema reproductivo, sistema inmunológico y muchísimos
otros. Imaginemos el alto nivel de complejidad que se forma cuando todos
estos sistemas se interrelacionan e interactúan con todos los otros
sistemas de una sola persona y, más todavía, de enteros grupos sociales.
Ahora bien, ¿qué implicaciones tiene la adopción del paradigma sistémico
para el cultivo de la ciencia y su tecnología? Cambian completamente
los cimientos de todo el edificio científico: sus bases, su estructura
conceptual y su andamiaje metodológíco. Ése es el camino que tratan de
seguir hoy las metodologías que se inspiran en los enfoques
hermenéuticos, en la perspectiva fenomenológica y en las orientaciones
etnográficas, es decir, las metodologías cualitativas.
1.2. La validez y confiabilidad positivistas
La literatura positivista tradicional define diferentes tipos de validez, (validez
de construcción, validez interna, validez externa); pero todas tratan
de verificar si en realidad medimos lo que nos proponemos medir.
Igualmente, esta orientación epistemológica busca determinar un buen
nivel de confiabilidad, es decir, su posibilidad de repetir la misma investigación con idénticos resultados. Todos estos indicadores tienen un denominador común: se calculan y determinan por medio de "una medida aislada, independiente de las realidades complejas a que se refieren.
La validez de construcciones hipotéticas (de constructos), que es la más importante, trata de establecer una medida operacional
para los conceptos usados; en el campo psicológico, por ejemplo, se
trataría de que el instrumento mida la propiedad o propiedades
psicológicas aisladas que subyacen a la variable. Esta validez no es
fácil de entender, ya que se encuentra inmersa en el marco de referencia
científico de la investigación y su metodología. Éstos son los que le
dan sentido.
La validez interna está relacionada específicamente con el establecimiento o búsqueda de una relación causal o explicativa; es decir, si el evento x lleva al evento y; excluyendo la posibilidad de que sea causado por el evento z. Esta lógica no es aplicable, por ejemplo, a un estudio descriptivo o exploratorio (Yin, 2003, p. 36).
La validez externa trata de verificar si los resultados de un determinado estudio son generalizables
más allá de los linderos del mismo. Esto requiere que se dé una
homología o, al menos, una analogía entre la muestra (caso estudiado) y
el universo al cual se quiere aplicar. Algunos autores se refieren a
este tipo de validez con el nombre de validez de contenido, pues
la definen como la representatividad o adecuación muestral del contenido
que se mide con el contenido del universo del cual es extraída
(Kerlinger, 1981a, p. 322).
Igualmente, la confiabilidad tiene
por objeto asegurarse de que un investigador, siguiendo los mismos
procedimientos descritos por otro investigador anterior y conduciendo el
mismo estudio, puede llegar a los mismos resultados y conclusiones. Nótese que se trata de rehacer el mismo estudio, no una réplica del mismo.
1.3. Análisis crítico de los criterios positivistas
Todos estos indicadores desconocen
que cada realidad o entidad humana, ya sea un pensamiento, una
creencia, una actitud, un interés, un comportamiento, etc., no son
entidades aisladas, sino que reciben su sentido o significado, es decir,
se configuran como tales, por el tipo y naturaleza de los otros
elementos y factores del sistema o estructura dinámica en que están
insertos y por el papel y la función que desempeñan en el
mismo; todo lo cual puede ir cambiando con la variable temporal, pues
nunca son estáticos. Un elemento aislado no podrá nunca conceptualizarse
o categorizarse adecuadamente, ya que podrá tener muchos sentidos de
acuerdo a esa constelación de factores o estructura de la cual proviene.
Si nos adentramos más en el fenómeno partes-todo, y enfocamos más de cerca su aspecto gnoseológico,
diremos que hay dos modos de aprehensión intelectual de un elemento que
forma parte de una totalidad. Michael Polanyi (1966) lo expresa de la
siguiente manera:
...no podemos comprender el todo sin ver sus partes, pero tampoco podemos ver las partes sin comprender el todo... Cuando comprendemos como parte de un todo a una determinada serie de elementos, el foco
de nuestra atención pasa de los detalles hasta ahora no comprendidos a
la comprensión de su significado conjunto. Este pasaje de la atención no
nos hace perder de vista los detalles, puesto que sólo se puede ver un
todo viendo sus partes, pero cambia por completo la manera como
aprehendemos los detalles. Ahora los aprehendemos en función del todo en
que hemos fijado nuestra atención. Llamaré a esto aprehensión subsidiaria de los detalles, por oposición a la aprehensión focal que emplearíamos para atender a los detalles en sí, no como partes del todo (pp. 22-23).
Lamentablemente, la filosofía analítica y su orientación positivista siguió el consejo que Descartes pone como idea rectora y como segunda máxima, en el Discurso del Método:
"fragmentar todo problema en tantos elementos simples y separados como
sea posible". Esta orientación ha aceptado sistemáticamente el supuesto
(falso) de que la realidad total se captaría desmembrándola (análisis
desintegrador) en sus diferentes componentes.
Este enfoque constituyó el paradigma conceptual de la ciencia durante casi tres siglos; pero rompe o desconoce el conjunto de nexos y relaciones
que cada entidad humana, y, a veces, aun en los mismos entes físicos o
químicos, tiene con el resto. Y ese resto o contexto es precisamente el
que le da la naturaleza que lo constituye, sus características, sus
propiedades y sus atributos. Esta descontextualización de las
realidades las vuelve amorfas, ambiguas y, la mayoría de las veces, sin
sentido alguno o, también, con muchos posibles significados. Como señala
muy apropiadamente el creador de la Teoría General de Sistemas,
Ludwig von Bertalanffy (1976), "todo modelo matemático es una
sobresimplificación, y es discutible si reduce a los huesos los
acontecimientos reales o si arranca partes vitales de su anatomía" (p.
117).
Para
una ejemplificación mayor, pensemos en lo que está pasando en los
últimos tiempos en el campo de la medicina. Excelentes profesionales de
esta ciencia, a veces guiados por su especialización o
superespecialización, recetan una medicina que parece magnífica para una
determinada dolencia o afección, pero desconocen que, para algunas
personas en particular, puede ser hasta fatal, ya que tienen una alergia
especial, por ejemplo, a la penicilina o hacia algún componente de la
misma. Esto sin puntualizar que la etiología de una determinada
enfermedad tiene, a veces, su origen en áreas no biológicas, como un
alto nivel de estrés por razones psicológicas, problemas familiares o
dificultades socioeconómicas; áreas todas que el insigne especialista
puede desconocer hasta en sus temas más simples, pero que podrían dar la
pista de hacia dónde hay que dirigir la necesaria terapéutica.
2. Visión Postpositivista de la Validez y Confiabilidad
2.1 La Validez.
En sentido amplio y general, diremos que una investigación tendrá un alto nivel de validez en
la medida en que sus resultados reflejen una imagen lo más completa
posible, clara y representativa de la realidad o situación estudiada.
Pero no tenemos un solo tipo de conocimiento. Las ciencias naturales
producen un conocimiento que es eficaz para tratar con el mundo físico;
ellas han tenido éxito con la producción de un conocimiento instrumental
que ha sido explotado política y lucrativamente en aplicaciones
tecnológicas. Pero el conocimiento instrumental es sólo una de las tres
formas cognitivas que contribuyen a la vida humana.
Las ciencias histórico-hermenéuticas (ciencias interpretativas) producen el conocimiento interactivo que subyace en la vida de cada ser humano y de la comunidad de que forma parte; igualmente, la ciencia social crítica produce el conocimiento reflexivo y crítico que el ser humano necesita para su desarrollo, emancipación y autorrealización.
Cada forma de conocimiento tiene sus propios intereses, sus propios usos y sus propios criterios de validez; por esto, debe ser justificada en sus propios términos, como se ha hecho tradicionalmente con la 'objetividad' para las ciencias naturales, como hizo Dilthey para la hermenéutica, y como hicieron Marx y Engels para la teoría crítica. En las ciencias naturales,
la validez está relacionada con su capacidad para controlar el ambiente
físico con nuevas invenciones físicas, químicas y biológicas; en las ciencias hermenéuticas
la validez se aprecia de acuerdo al nivel de su habilidad para producir
relaciones humanas con alto sentido de empatía y vinculación; y en la ciencia social crítica
esta validez estará relacionada con su capacidad de superación de
obstáculos para favorecer el crecimiento y desarrollo de seres humanos
más autosuficientes en sentido pleno.
Como señalamos, una investigación tiene un alto nivel de validez si al observar o apreciar una realidad, se observa o aprecia esa realidad en sentido pleno, y no sólo un aspecto o parte de la misma.
Si la confiabilidad
ha representado siempre un requisito difícil para las investigaciones
cualitativas, debido a la naturaleza peculiar de éstas (imposibilidad de
repetir, stricto sensu, el mismo estudio), no ha ocurrido lo mismo en relación con la validez. Al contrario, la validez es la fuerza mayor de estas investigaciones.
En efecto, la aseveración de los investigadores cualitativos de que sus
estudios poseen un alto nivel de validez deriva de su modo de recoger
la información y de las técnicas de análisis que usan. Esos
procedimientos los inducen a vivir entre los sujetos participantes en el
estudio, a recoger los datos durante largos períodos de tiempo,
revisarlos, compararlos y analizarlos de manera continua, a adecuar las
entrevistas a las categorías empíricas de los participantes y no a
conceptos abstractos o extraños traídos de otro medio, a utilizar la
observación participativa en los medios y contextos reales donde se dan
los hechos y, finalmente, a incorporar en el proceso de análisis una
continua actividad de realimentación y reevaluación. Todo esto garantiza
un nivel de validez que pocas metodologías pueden ofrecer. Sin embargo,
también la validez es perfectible, y será tanto mayor en la medida en
que se tengan en cuenta algunos problemas y dificultades que se pueden presentar en la investigación cualitativa. Entre otros, para una buena validez interna, habrá que prestar especial atención a los siguientes:
a) Puede haber un cambio notable en el ambiente estudiado entre el principio y el fin de la investigación. En este caso, habrá que recoger y cotejar la información en diferentes momentos del proceso.b) Es necesario calibrar bien hasta qué punto la realidad observada es una función de la posición, el estatus y el rol que el investigador ha asumido dentro del grupo. Las situaciones interactivas siempre crean nuevas realidades o modifican las existentes.c) La credibilidad de la información puede variar mucho: los informantes pueden mentir, omitir datos relevantes o tener una visión distorsionada de las cosas. Será necesario contrastarla con la de otros, recogerla en tiempos diferentes, etc.; conviene, asimismo, que la muestra de informantes represente en la mejor forma posible los grupos, orientaciones o posiciones de la población estudiada, como estrategia para corregir distorsiones perceptivas y prejuicios, aunque siempre seguirá siendo cierto que la verdad no es producida por el ejercicio azarístico y democrático en la recolección de la información general, sino por la información de las personas más capacitadas y fidedignas.
En cuanto a la validez externa,
es necesario recordar que a menudo las estructuras de significado
descubiertas en un grupo no son comparables con las de otro, porque son
específicas y propias de ese grupo, en esa situación y en esas
circunstancias, o porque el segundo grupo ha sido mal escogido y no le
son aplicables las conclusiones obtenidas en el primero.
2.2 La Confiabilidad.
Una
investigación con buena confiabilidad es aquella que es estable,
segura, congruente, igual a sí misma en diferentes tiempos y previsible
para el futuro. También la confiabilidad tiene dos caras, una interna y
otra externa: hay confiabilidad interna cuando varios observadores, al estudiar la misma realidad, concuerdan en sus conclusiones; hay confiabilidad externa cuando investigadores independientes, al estudiar una realidad en tiempos o situaciones diferentes, llegan a los mismos resultados.
El concepto tradicional de confiabilidad externa implica que un estudio se puede repetir con el mismo método sin alterar los resultados, es decir, es una medida de la replicabilidad
de los resultados de la investigación. En las ciencias humanas es
prácticamente imposible reproducir las condiciones exactas en que un comportamiento
y su estudio tuvieron lugar. Ya Heráclito dijo en su tiempo que "nadie
se bañaba dos veces en el mismo río"; y Cratilo le añadió que "no era
posible hacerlo ni siquiera una sola vez", ya que el agua está fluyendo
continuamente (Aristóteles, Metafísica, iv, 5).
En
los estudios realizados por medio de investigaciones cualitativas, que,
en general, están guiados por una orientación sistémica, hermenéutica,
fenomenológica, etnográfica y humanista, la confiabilidad está orientada
hacia el nivel de concordancia interpretativa entre diferentes
observadores, evaluadores o jueces del mismo fenómeno, es decir, la
confiabilidad será, sobre todo interna, interjueces. Se
considera un buen nivel de esta confiabilidad cuando alcanza un 70%, es
decir, que, por ejemplo, de 10 jueces, hay consenso entre 7.
Dada
la naturaleza particular de toda investigación cualitativa y la
complejidad de las realidades que estudia, no es posible repetir o
replicar un estudio en sentido estricto, como se puede hacer en muchas
investigaciones experimentales. Debido a ello, la confiabilidad de estos
estudios se logra usando otros procedimientos rigurosos y
sistemáticos.
La confiabilidad interna es muy importante. En efecto, el nivel de consenso entre diferentes observadores de la misma
realidad eleva la credibilidad que merecen las estructuras
significativas descubiertas en un determinado ambiente, así como la
seguridad de que el nivel de congruencia de los fenómenos en estudio es
fuerte y sólido.
Los investigadores cualitativos suelen utilizar varias estrategias (LeCompte-Goetz, 1982) para reducir las amenazas que se le presentan a la confiabilidad interna:
a) Usar categorías descriptivas de bajo nivel de inferencia, es decir, lo más concretas y precisas posible. Los datos son algo ya interpretado (Hanson, 1977); por esto, es conveniente que estén cercanos a la realidad observada: quién hizo qué cosa y en qué circunstancias. Los comentarios interpretativos pueden añadirse, eliminarse o modificarse más tarde. Además, la mayoría de los autores coinciden en señalar que los procedimientos cualitativos son ricos en datos primarios y frescos, que ofrecen al lector múltiples ejemplos extraídos de las notas de campo, y son, por esto, generalmente consideradas como más creíbles.b) El mejor aval para la confiabilidad interna de un estudio cualitativo es la presencia de varios investigadores. El trabajo en equipo, aunque es más difícil y costoso, garantiza un mejor equilibrio de las observaciones, los análisis y la interpretación.c) Pedir la colaboración de los sujetos informantes para confirmar la "objetividad" de las notas o apuntes de campo. Asegurarse de que lo visto o registrado por el investigador coincide o es consistente con lo que ven o dicen los sujetos del grupo estudiado.d) Utilizar todos los medios técnicos disponibles en la actualidad para conservar en vivo la realidad presenciada: grabaciones de audio y de vídeo, fotografías, diapositivas, etc. Este material permitirá repetir las observaciones de realidades que son, de por sí, irrepetibles, y que las puedan "presenciar" otros observadores ausentes en el momento en que sucedieron los hechos. Su aporte más valioso radica en que nos permiten volver a los "datos brutos" y poder categorizarlos y conceptualizarlos de nuevo.
Para alcanzar un buen nivel de confiabilidad externa, se aconseja (LeCompte y Goetz, 1982) recurrir, entre otras, a las siguientes estrategias:
a) Precisar el nivel de participación y la posición asumida por el investigador en el grupo estudiado; cierta información puede ser diferente de acuerdo con el sexo de quien la dé (las mujeres pueden ocultar ciertos datos íntimos si el investigador, por ejemplo, es de sexo masculino); igual sucede si el investigador ha hecho amigos dentro del grupo; éstos le darán informaciones que no les dan otros.b) Identificar claramente a los informantes. Éstos pueden representar grupos definidos y dar información parcial o prejuiciada. Los miembros que simpatizan y colaboran más con los investigadores pueden ser, por esto mismo, miembros atípicos. Esta situación se puede advertir al hacer una buena descripción del tipo de personas que han servido como informantes.c) Un tercer elemento que puede influir en los datos es el contexto en que se recogen. Debido a ello, conviene especificar el contexto físico, social e interpersonal de que se derivan. Esto aumentará la replicabilidad de los estudios.d) Para que sea posible una cierta réplica es imprescindible la identificación de los supuestos y metateorías que subyacen en la elección de la terminología y los métodos de análisis. Los conceptos de "cultura", "ciencia", "método", "análisis", "dato", "codificación" y muchos otros pueden diferir sustancialmente entre diferentes investigadores.e) Precisar los métodos de recolección de la información y de su análisis, de tal manera que otros investigadores puedan servirse del reporte original como un manual de operación para repetir el estudio. La replicabilidad se vuelve imposible sin una precisa identificación y cuidadosa descripción de las estrategias de procedimiento.
La triangulación. En sentido amplio, en las ciencias humanas, también se pueden realizar varias "triangulaciones
que mejoran notablemente los resultados de la investigación y su
validez y confiabilidad. De una manera particular, se pueden combinar,
en diferentes formas, técnicas y procedimientos cualitativos y
cuantitativos. La idea central es utilizar todo lo que se considere pertinente, tenga relación y se considere útil.
Más concretamente, se pueden identificar varios tipos básicos de triangulación:
a) Triangulación de métodos y técnicas: que consiste en el uso de múltiples métodos o técnicas para estudiar un problema determinado (como, por ejemplo, el hacer un estudio panorámico primero, con una encuesta, y después utilizar la observación participativa o una técnica de entrevista).b) Triangulación de datos: en la cual se utiliza una variedad de datos para realizar el estudio, provenientes de diferentes fuentes de información.c) Triangulación de investigadores: en la cual participan diferentes investigadores o evaluadores, quizá con formación, profesión y experiencia también diferentes.d) Triangulación de teorías: que consiste en emplear varias perspectivas para interpretar y darle estructura a un mismo conjunto de datos (por ejemplo, una teoría basada en las técnicas de correlación, análisis de varianza, análisis de regressión, análisis factorial o cluster analysis y otra que utilice la observación participativa).e) Triangulación interdisciplinaria: con la cual se invocan múltiples disciplinas a intervenir en el estudio o investigación en cuestión (por ejemplo, la biología, la psicología, la sociología, la historia, la antropología, etc.)
Conviene, sin embargo, advertir que no se puede dar, hablando con precisión epistemológica, una triangulación de paradigmas,
como insinúan algunas personas empleando ciertos procedimientos que
llaman "pluriparadigmáticos". No se puede jugar al ajedrez, ni a ningún
otro juego, utilizando dos o más cuerpos de reglas diferentes o, peor
aún, antagónicos. Lo menos que se puede decir de esas personas es que
están usando el concepto de "paradigma epistémico" en forma errónea, es
decir, como "punto de vista". Los puntos de vista sí son complementarios
y se pueden integrar, los paradigmas epistémicos no, ya que uno se
configura negando al otro: si sostengo que la Tierra es redonda estoy
negando que sea plana.
En conclusión, podríamos afirmar que las realidades, especialmente las humanas, constituyen un todo polisistémico que se rebela cuando es reducido a sus elementos, aunque sea con la intención de medirlos;
es más, precisamente en esos momentos, porque se pone en práctica un
reduccionismo desnaturalizador. Y se rebela, precisamente, porque, así,
reducido, pierde las cualidades emergentes del "todo" y la acción de éstas sobre cada una de las partes. Este
"todo polisistémico", que constituye la naturaleza global, nos obliga,
incluso, a dar un paso más en esta dirección. Nos obliga a adoptar una metodología interdisciplinaria para poder captar la riqueza de la interacción entre los diferentes subsistemas que estudian las disciplinas particulares.
Por
estas razones, la confiabilidad, sobre todo la externa, no está dentro
del círculo de intereses inmediatos de las investigaciones cualitativas,
pues el fin de éstas es el mejoramiento y aplicación a una situación
particular, que puede ser una persona, un grupo, una comunidad o una
empresa, y no la generalización a otras áreas, de la misma manera que el médico está interesado en curar a su paciente. Si ese estudio, ese tratamiento y ese plan de acción o patrón teórico pueden, después, transferirse y aplicarse en otros pacientes o a otros campos similares, tanto mejor: se irá haciendo una ciencia más universal; pero ése no es el fin primario de una investigación cualitativa.
3. Procesos que refuerzan la Validez y la Confiabilidad
3.1.Categorización, Contrastación, Estructuración y Teorización
Estos procesos tienen por finalidad permitir la emergencia
de la posible estructura teórica, "implícita" en el material recopilado
en las entrevistas, observaciones de campo, grabaciones, filmaciones,
etc. El proceso completo implica la categorización, la estructuración
propiamente dicha, la contrastación y la teorización. Precisamente,
todos estos procesos son esencialmente críticos y evaluativos; es decir, que, en su devenir, se juega continuamente con alternativas posibles para elegir la mejor categoría para una determinada información, la estructura que da explicaciones más plausibles para un conjunto de categorías y la teoría que mejor integra las diferentes estructuras en un todo coherente y lógico.
La categorización. Este proceso trata de asignar categorías o clases significativas,
de ir constantemente diseñando y rediseñando, integrando y reintegrando
el todo y las partes, a medida que se revisa el material y va
emergiendo el significado de cada sector, párrafo, evento, hecho o dato;
y como
nuestra mente salta velozmente de un proceso a otro tratando de
hallarle un sentido a las cosas que examina, como se adelanta y vuelve
atrás con gran agilidad para ubicar a cada elemento en un contexto y
para modificar ese contexto o fondo de acuerdo con el sentido que va
encontrando en los elementos, se aconseja
una gran tolerancia a la ambigüedad y contradicción (que, quizá, sean
sólo aparentes), una gran resistencia a la necesidad de dar sentido a
todo con rapidez, y una gran oposición a la precipitación por
conceptualizar, categorizar o codificar las cosas de acuerdo con los
esquemas que nos son ya familiares.
Por
ello, se recomienda también al investigador alejar todo lo que no
emerja de la descripción protocolar (es decir, de la fuente primaria
de la información); de otra manera, no veremos más de lo que ya sabemos y
no haremos más que confirmarnos en nuestras viejas ideas y aun en
nuestros propios prejuicios. En efecto, todo símbolo verbal o categoría aspira a representar a su referente, pero no hay símbolo que sea capaz de describir todos
los rasgos del referente; en consecuencia, está obligado a omitir uno o
varios de ellos. Por eso, todo símbolo es abstracto en sus
representaciones de la naturaleza, pierde algo (o mucho) de ella y no es
estrictamente adecuado o representativo.
Esta dialéctica entre la figura y el fondo es continua y permanente; la toma de conciencia de la dinámica
de este proceso ayudará a facilitar su actividad normal y efectiva,
como también ayudará a demostrar al lector del trabajo cuál fue el
camino que el investigador siguió para llegar a sus resultados o
conclusiones.
La palabra análisis,
en su origen etimológico, quiere decir "separar" o "dividir" las partes
de un todo con el fin de entender los principios y elementos que lo
componen. Hoy día se ha vuelto muy corriente tender a analizarlo
todo, analizar todas las cosas "para comprenderlas". Pero cuando una
entidad es un sistema o constituye una estructura, la división o
separación puede también destruir su naturaleza y llevarnos a no
entender la nueva realidad "emergente" que la hace tal. Así, por
ejemplo, nunca podríamos conocer las propiedades del agua descomponiendo
sus moléculas en átomos de hidrógeno y oxígeno, ya que las propiedades
de la molécula de agua aparecen o emergen sólo al unirse dos átomos de
hidrógeno con uno de oxígeno. Lo mismo sucedería con cualquier otro
sistema o estructura, ya sea del campo natural como del área social. Por
estas razones, al ponderar, apreciar o categorizar un párrafo escrito o
una actividad humana cualquiera, se trata siempre de ubicarla en
posibles diferentes contextos, escenarios u horizontes para elegir el
que se considera más adecuado, pero siempre dispuestos a cambiarlo al
examinar el resto de la información. Todo esto aumentará mucho la validez del estudio.
La estruturación.
Todo el proceso de estructuración es también un ejercicio continuo que
tiende a validar una comprensión realista y auténtica del tópico
estudiado. El ser humano es superior a los animales, no por la riqueza
de su información sensorial, ya que la mayoría de los animales poseen
una agudeza visual, auditiva, olfativa, etc., muy superior a la del
hombre, sino por su capacidad de relacionar, interpretar y teorizar con
esa información. La inteligencia humana tiene una propensión natural
innata a buscar regularidades y la capacidad básica de ordenar las
cosas, según sean semejantes o diferentes, de acuerdo con su naturaleza y
características y según la interacción que se dé entre ellas. Esta
actividad mental está en acción continuamente y puede sorprendernos con
sus hallazgos hasta en el mismo sueño.
Al
reflexionar y tratar de descubrir la dinámica psicológica de nuestra
mente en el momento en que conoce algo, comprobaremos la importancia de
una determinada condición previa y la naturaleza del proceso en sí
mismo. La condición previa es una inmersión lo más completa
posible en el campo fenoménico que se va a estudiar. Cuanto más completa
y duradera sea esta inmersión, cuanto más se estime y aprecie el campo
objeto de nuestro conocimiento, cuanto más abierto se esté a los
detalles, matices y sutilezas del mismo, más fácil será la captación de
una nueva red de relaciones, es decir, de un nuevo conocimiento.
Los
psicólogos de la Gestalt han demostrado que cuando la mente humana
contempla serena y atentamente un determinado fenómeno, en medio de esa
quietud comienza como a jugar con sus elementos, y de golpe algo
llega a la mente: puede ser una relación, un ritmo, una estructura o una
configuración. El organismo humano, cuando obra libre y no
defensivamente, es quizá el mejor instrumento científico que existe, y
es capaz de sentir esta configuración mucho antes de poderla formular de
manera consciente (Rogers, 1968, págs. 62-63). Kepler, Einstein y
muchos otros grandes científicos tenían gran confianza en esa captación
intuitiva.
Por
todo ello, al reflexionar y concentrarse, en esa contemplación, irán
apareciendo en nuestra mente diversas constelaciones formadas por las
categorías y, poco a poco, también una prevalente estructura que las
integra. De esta forma, se logrará llevar a cabo apropiadamente el
proceso de estructuración que se inició en el mismo momento de comenzar
la recolección de información.
El
investigador cualitativo sabe que este proceso, eminentemente creador,
de análisis-categorización-interpretación, necesita, para su buen
funcionamiento, que se tengan presentes algunos consejos que se derivan del estudio de la naturaleza del proceso creativo:
§ que no debe precipitarse, pues las ideas tienen su propio camino;§ que no debe dirigir o presionar el pensamiento en una sola dirección;§ que su imaginación debe estar en libertad de utilizar las analogías, metáforas, comparaciones, símiles y hasta alegorías que crea útiles o convenientes (la moda científica de hoy los llama modelos);§ que debe albergar una gran confianza en sí mismo y en la propia capacidad, ya que esta confianza elimina ciertos constreñimientos mentales que imposibilitan, en el nivel neurofisiológico cerebral, el flujo de ideas y sus relaciones;§ que toda persona normal puede ser muy creativa, si se dan ciertas condiciones;§ que el buen investigador siente oposición a las presiones conformistas y le agrada el riesgo de enfrentarse a lo desconocido; lo ama; le agrada vivir una cierta osadía intelectual.
Todo esto hace que el investigador se aproxime a cualquier expresión de la vida humana, no con la famosa tabula rasa de John Locke, sino con expectativas y prejuicios sobre lo que pudiera ser el objeto observado. Debido a ello, la interpretación implica una "fusión de horizontes", una interacción dialéctica
entre las expectativas del intérprete y el significado de un texto o
acto humano. En términos de la psicología de la Gestalt, aunque no
siempre, diríamos que la realidad exterior tiende a sugerirnos la
figura, mientras que nosotros le ponemos el fondo (contexto, horizonte,
marco teórico).
Heidegger
sostiene que ser humano es ser interpretativo; es decir, que la
interpretación, más que un instrumento para adquirir conocimientos, es
el modo natural de ser de los seres humanos, y todos los intentos
cognoscitivos para desarrollar conocimientos no son sino expresiones de
la interpretación sucesiva del mundo.
La contrastación. Esta etapa de la investigación consiste en relacionar y contrastar sus resultados con aquellos estudios paralelos o similares que se presentaron en el marco teórico-referencial (ver
Martínez, 2004, p.77), para ver cómo aparecen desde perspectivas
diferentes o sobre marcos teóricos más amplios y explicar mejor lo que
el estudio verdaderamente significa. Es, por consiguiente, también un
proceso típicamente evaluativo, que tiende a reforzar la validez y la
confiabilidad.
Aunque el marco teórico-referencial sólo nos informa de lo que han realizado otras personas, en otros lugares, en otros tiempos y, quizá, también con otros
métodos, sin embargo, el comparar y contraponer nuestras conclusiones
con las de otros investigadores, igualmente rigurosos, sistemáticos y
críticos, no sólo nos permitirá entender mejor las posibles diferencias,
sino que hará posible una integración mayor y, por consiguiente, un
enriquecimiento del cuerpo de conocimientos del área estudiada, como se
verá en el sector siguiente de la teorización.
Esta
comparación y contrastación pudieran llevarnos hacia la reformulación,
reestructuración, ampliación o corrección de construcciones teóricas
previas, logrando con ello un avance significativo en el área; es decir,
que algunas teorizaciones ya existentes cumplirían en gran parte la
función de proveer algunas líneas directrices para interpretar los
nuevos datos.
De aquí, se deriva la importancia que tiene el diálogo
con los autores que nos han precedido en nuestra área de estudio, no
para seguir ciegamente lo que ellos digan (marco teórico tradicional),
sino para corregir, mejorar, ampliar o reformular nuestras conclusiones;
es decir, para enfocarlas desde otros puntos de vista y con el uso de
otras categorías, lo cual enriquecerá y profundizará nuestra comprensión
de lo que estamos estudiando.
La Teorización. Einstein solía decir que "la ciencia consistía en crear teorías". Pero una teoría es un modo nuevo de ver las cosas, y puede haber muchos modos diferentes de verlas. De aquí, también la idea de que toda teorización es un ejercicio continuo de validación y de creación de credibilidad en nuestros resultados.
El
proceso de teorización utiliza todos los medios disponibles a su
alcance para lograr la síntesis final de un estudio o investigación. Más
concretamente, este proceso trata de integrar en un todo coherente y lógico los resultados de la investigación en curso, mejorándolo con los aportes de los autores reseñados en el marco teórico-referencial después del trabajo de contrastación.
En
el campo de las ciencias humanas, la construcción y reconstrucción, la
formulación y reformulación de teorías y modelos teóricos o de alguna de
sus partes, mediante elementos estructurales de otras construcciones
teóricas, es el modo más común de operar y de hacer avanzar estas
ciencias.
Einstein
mismo llegó a afirmar en repetidas ocasiones que su teoría de la
relatividad especial no encontró entidades aisladas nuevas ni hechos
anteriormente desconocidos, ya que todos sus elementos (los conceptos de
espacio, tiempo, materia, fuerza, energía, partículas, gravitación,
aceleración, onda, corpúsculo, velocidad y otros) estaban en el ambiente
desde hacía cincuenta años; lo que él propuso fue una nueva manera de clasificar y relacionar cosas ya conocidas. Y Leibniz afirmó: "mi sistema toma lo mejor de todas partes".
La mayoría de los investigadores manifiestan dificultades en describir qué es lo que hacen cuando teorizan;
pero un análisis cuidadoso de sus actividades mentales hará ver que son
similares a las actividades cotidianas de una persona normal: las
actividades formales del trabajo teorizador consisten en percibir, comparar, contrastar, añadir, ordenar, establecer nexos y relaciones y especular; es decir, que el proceso cognoscitivo de la teorización consiste en descubrir y manipular categorías y sus relaciones y las posibles estructuras que se pueden dar entre ellas.
La
transición de los datos a la teoría requiere de imaginación creadora.
Popper observa que las teorías son el resultado de una intuición casi
poética (1963, p. 192). Las hipótesis y teorías científicas no se
derivan de los hechos observados, sino que se inventan para dar cuenta
de ellos; son conjeturas relativas a las conexiones que se pueden
establecer entre los fenómenos estudiados y las uniformidades y
regularidades que subyacen a éstos. Las conjeturas felices de este
tipo requieren gran inventiva, especialmente si suponen una desviación
radical de los modos ordinarios del pensamiento científico, como ocurrió
con las grandes teorías que fundamentan a cada una de las ciencias.
Einstein
precisa que están en un error aquellos teóricos que creen que la
teoría se obtiene inductivamente a partir de la experiencia (Hanson,
1977, p. 229). Al contrario, una teoría es una construcción mental
simbólica, verbal o icónica, de naturaleza conjetural o hipotética, que
nos obliga a pensar de un modo nuevo al completar, integrar,
unificar, sistematizar o interpretar un cuerpo de conocimientos que
hasta el momento se consideraban incompletos, imprecisos, inconexos o
intuitivos.
La teoría es, por tanto, un modelo ideal,
sin contenido observacional directo, que nos ofrece una estructura
conceptual inteligible, sistemática y coherente para ordenar los
fenómenos; de manera más concreta, suele consistir en un sistema de hipótesis, fórmulas legaliformes y hasta leyes ya establecidas, de modo que su síntesis puede incluir desde lo plenamente conocido hasta lo meramente sospechado.
La
historia de la ciencia nos permite ver en forma palpable que sus
avances más revolucionarios y significativos no provienen de
investigaciones empíricas aisladas o de la acumulación de hechos y
experimentos, sino de teorías novedosas inicialmente desconcertantes.
Como vemos, este análisis integrador,
que tratamos de ilustrar, está muy lejos de consistir en separar,
dividir, aislar, atomizar o viviseccionar una realidad, ya que ello
llevaría a su incomprensión. En este enfoque, que es hermenéutico,
fenomenológico y etnográfico, se considera que el significado es el verdadero dato, es decir, que la magnitud de un dato está dada por su nivel de significación
y que este dato se presenta en un contexto individual y en una
estructura personal y social que es necesario conocer para
interpretarlo. Así, el proceso teorizador es un esfuerzo eminente del
investigador por aumentar los niveles de validez y de confiabilidad de los resultados de su investigación.
4. Evaluación de las estructuras teóricas formuladas
El
intento de evaluar una estructura teórica es un proceso epistemológico
muy arduo. Depende mucho del concepto de validez que se tenga y
también del concepto de verdad. Por ello, también este proceso
refuerza el valor de toda investigación.
En efecto, la evidencia racional es la última instancia de validación de toda prueba o verificación.
La "validación empírica" debe apoyarse siempre, en último análisis, en
una validación "racional"; dicho de otro modo, no existe, en sentido
estricto, algo que podamos llamar "evidencia empírica"; la evidencia
será siempre intelectual, racional, algo que es "visto" en un contacto
directo, inmediato, en un acto "intuitivo". Este acto implica
invariablemente una interpretación, es decir, la captación de una
relación en el marco de un contexto, y este contexto puede ser, en gran
parte, construcción o añadidura del sujeto. La mente humana no puede
trabajar de manera distinta; ésa es su forma natural de operar. Por
supuesto, la evidencia racional y su consiguiente "validación" tienen la
fragilidad de la limitación humana y, en fin de cuentas, valdrán tanto
como la agudeza intelectual del investigador.
Todo
esto nos lleva a una conclusión lógica que no debemos olvidar en
nuestra validación de las teorías: todas las teorías científicas serán
siempre parciales (tratan sólo algunos aspectos de la realidad) y aproximadas
(contienen errores o apreciaciones parcialmente erróneas). Una teoría
perfecta (completa y precisa en su totalidad) no existe ni existirá
nunca: resulta algo contradictorio con el mismo concepto de teoría.
Cualquiera
que sea la posición adoptada, una determinada teoría nunca tendrá una
aceptación universal por parte de todos los científicos, para todos los
propósitos y en todos sus contextos posibles de aplicación. Siempre ha
habido insignes científicos que no han aceptado teorías famosas:
Huygens, por ejemplo, no estaba satisfecho con la mecánica de Newton y,
para Einstein, la validez de la indeterminación cuántica sostenida por
Planck, Heisenberg, Niels Bohr y muchos otros notables científicos,
siempre estuvo en duda. En las ciencias humanas se sostiene, más como
regla que como excepción, que la aceptabilidad de una teoría sea una
cuestión de grados.
Criterios para evaluar las teorías. A continuación señalamos algunos criterios
que, a nuestro juicio y de muchos otros autores, se han revelado más
importantes y útiles en la "validación" y evaluación de las teorías o
estructuras teóricas (verlos más ampliamente en Martínez, 2004).
1. Coherencia interna:
éste es el criterio básico. Indica que todos los elementos y partes
constituyentes de una teoría se relacionan entre sí sin contradicciones,
es más, que forman un todo coherente y bien integrado.
2. Consistencia externa:
es la compatibilidad que hay entre la doctrina que constituye la teoría
y el conocimiento ya establecido en el mismo campo o en campos
adyacentes o afines. Sin embargo, la consistencia externa es un criterio
esencialmente conservador. Las teorías revolucionarias rompieron
drásticamente con lo establecido y aceptado. Por eso, debe ser usado con
prudencia, es decir, no es absoluto, sino que está sujeto a un juicio
más básico y fundamental, derivado del examen y apreciación del
contexto.
3. Comprehensión:
en igualdad de condiciones, una teoría será mejor que otra si abarca o
se relaciona con un amplio campo de conocimientos, es decir, si logra
integrar y unificar un vasto espectro de ideas en el área.
4. Capacidad predictiva:
una buena teoría debe ofrecer la capacidad de hacer predicciones sobre
lo que sucederá o no sucederá si se dan ciertas condiciones
especificadas en ella, aunque la confirmación o contrastación de esas
predicciones pueda resultar en extremo difícil, debido a la naturaleza
de esa teoría.
5. Precisión conceptual y lingüística:
debe haber unidad conceptual, es decir, el universo del discurso debe
estar definido y sus predicados deben ser semánticamente homogéneos y
conexos. No debe haber vaguedad ni ambigüedad.
6. Originalidad:
las más fecundas revoluciones del conocimiento han consistido en la
introducción de teorías que, lejos de limitarse a condensar lo sabido,
nos obligaron a pensar de un modo nuevo, a formular nuevos problemas y a
buscar nuevas clases de relaciones y de conocimiento.
7. Capacidad unificadora:
es la capacidad de reunir dominios cognoscitivos que aún permanecen
aislados. Así lo hicieron hombres como Newton, Maxwell, Niels Bohr y,
sobre todo, Einstein con las teorías físicas que propusieron.
8. Simplicidad y parsimonia:
en igualdad de condiciones, es preferible la teoría más simple, por su
claridad y diafanidad, como hace Carl Rogers en Psicología.
9. Potencia heurística: una buena
teoría debe sugerir, guiar y generar nuevas investigaciones, planteando
nuevos problemas interesantes y facilitando el diseño de estudios y
experimentos de gran proyección en el área.
10. Aplicación práctica: una teoría fácil de aplicar será mejor que otra que, en igualdad de condiciones, es de difícil aplicación.
11. Contrastabilidad:
es una ventaja para una teoría que sus postulados, axiomas y derivados
sean susceptibles de contrastación, es decir, de un examen, crítica y
control que lleven o permitan confirmarla o refutarla. Todo esto depende
mucho de la naturaleza del objeto a que se refiere esa teoría.
12. Expresión estética:
los griegos siempre pensaron que lo verdadero era también bello; en la
física, por ejemplo, está resultando un lugar común el pensar que la
"belleza" de una teoría física resulta a menudo una pista más importante
hacia su verdad que su correspondencia con los hechos, los cuales
pueden constituir una dificultad temporal.