METODOLOGÍA DE LA INVESTIGACIÓN
InvestigacionSocial  
 
  Validéz y Confiabilidad en la Metodología Cualitativa 18-12-2017 02:54 (UTC)
   
 

 

Validez y Confiabilidad en la Metodología Cualitativa
 
Miguel Martínez Miguélez *
 
Resumen
     Este artículo trata de clarificar la frecuente confusión que tienen muchos investigadores al utilizar los criterios relacionados con la validez y la confiabilidad en una investigación, ya sea de orientación cuantitativa tradicional o cualitativa. Se hace énfasis en el enfoque epistemológico de cada una como base de todo, en sus características propias y, sobre todo, se resalta el proceso eminentemente crítico que acompaña a la metodología cualitativa en todas las fases del mismo: procesos de acopio de la información, de categorización, de estructuración, de contrastación y de teorización, y, de una manera especial, en los criterios de evaluación de los resultados o estructuras teóricas como objetivo final de la investigación.
Palabras Clave: validez, confiabilidad, epistemología, metodología cualitativa
 
Abstract
       This article tries to clarify the frequent confusion that many investigators have when using the approaches related to the validity and reliability in an investigation of the traditional quantitative orientation or the qualitative one. Emphasis is made on the epistemological focus of each one like base of everything, on its own characteristics and, mainly, on the eminently critical process that accompanies the qualitative methodology in all its phases: processes of information gathering, of categorization, of structuring, of “contrasting”, and of teorization, and, in a special way, in the approaches to the evaluation of results or theoretical structures as final objective of the investigation.
Key words: validity, reliability, epistemology, cualitative metodology.
 
Introducción
       En los medios académicos actuales, que están usando, cada vez más, métodos y técnicas de orientación cualitativa para sus diferentes tipos de investigación, se ha ido presentando reiteradamente una dificultad relacionada con la validez y confiabilidad de sus resultados.
       En general, los conceptos de validez y confiabilidad que residen en la mente de una gran mayoría de investigadores, siguen siendo los utilizados en la orientación epistemológica positivista tradicional, ya más que superada en la segunda mitad del siglo XX. De aquí nace ese conflicto, pues la metodología cualitativa adopta, como base y postulado fundamental de su teoría del conocimiento y de la ciencia, el paradigma epistémico postpositivista.
       El paradigma postpositivista se ha instalado en el campo académico después de los estudios de muchos simposios internacionales sobre la filosofía de la ciencia (ver Suppe, 1977, 1979) en que se levantó “el acta de defunción de la concepción heredada (el positivismo lógico) la cual, a partir de ese momento, quedó abandonada por casi todos los epistemólogos” (Echeverría (1989, p. 25), debido, como señala Popper (1977, p. 118), a sus “dificultades intrínsecas insuperables”.
       Evidentemente, no es suficiente que en este alto nivel científico se llegue a esas conclusiones para que de inmediato se adopten en la práctica por la mayoría de los investigadores, como tampoco se adoptaron las ideas heliocentristas de Copérnico y Galileo en forma completa sino hasta después de un siglo por ilustres astrónomos de las universidades de Bolonia, Padua y Pisa. Según Galileo (1968) eso requería “cambiar la cabeza a la gente, lo cual sólo Dios podía realizar” (p. 119).
       La epistemología postpositivista hace ver que no existe, en el “proceso cognoscitivo” de nuestra mente, una relación directa entre la imagen empírica visual, auditiva, olfativa, etc. y la realidad externa a que se refieren, sino que siempre está mediada e interpretada por el horizonte personal e individual del investigador: sus valores, intereses, creencias, sentimientos, etc., y, por esta misma razón, los conceptos tradicionales positivistas de validez (como relación fisiológica mente-cosa) y de confiabilidad (como repetición de un mismo proceso mental) deben ser revisados y redefinidos.
1. Base epistemológica para una redefinición
         de la Validez y la Confiabilidad
       1.1  Ontología sistémica
       Cua­ndo una entidad es una com­po­si­ción o agregado de elemen­tos (diversidad de partes no relacionadas), puede ser, en general, es­tu­dia­da y medida ade­cua­da­mente bajo la guía de los parámetros de la ciencia cuan­ti­tativa tradi­cio­nal, en la que la ma­temá­tica y las técni­cas pro­ba­bilitarias juegan el papel princi­pal; cuando, en cam­bio, una realidad no es una yuxta­posi­ción de elementos, sino que sus “par­tes cons­tituyentes” forman una totalidad orga­nizada con fuerte interacción en­tre sí, es decir, cons­titu­yen un siste­ma, su estu­dio y compren­sión requiere la capta­ción de esa estruc­tura dinámi­ca interna que la carac­teriza y, para ello, re­quiere una meto­do­logía es­tructural-sistémica. Ya Bertalanffy había señalado que “la teoría general de sistemas –como la concibió él originaria­mente y no como la han divulgado muchos autores que él critica y desautoriza (1981, p. 49)– estaba destinada a jugar un papel análogo al que jugó la lógica aristotélica en la ciencia de la antigüedad” (Thui­llier, 1975, p. 86).
       Hay dos clases básicas de sistemas: los lineales y los no-lineales. Los sistemas lineales no presentan “sorpre­sas”, ya que fundamentalmente son “agregados”, por la poca inte­racción entre las partes: se pueden descomponer en sus ele­mentos y recomponer de nuevo, un pequeño cambio en una in­teracción produce un pequeño cambio en la solu­ción, el de­terminismo está siempre presente y, reduciendo las interac­ciones a valo­res muy pequeños, puede considerarse que el sistema está compuesto de partes independientes o dependientes linealmente. El mundo de los siste­mas no-lineales, en cambio, es totalmente di­ferente: puede ser impre­decible, violento y dramático, un pequeño cambio en un parámetro puede hacer variar la solu­ción poco a poco y, de golpe, variar a un tipo totalmente nuevo de solución, como cuando, en la física cuántica, se dan los “saltos cuánti­cos”, que son un suceso absolutamente imprede­cible que no está controlado por las leyes causales, sino solamente por las leyes de la probabilidad.
       Estos sistemas no-lineales deben ser captados desde adentro y su situa­ción debe evaluarse parale­lamente con su desarro­llo. Prigogi­ne afirma (1986) que el mundo no-lineal contie­ne mucho de lo que es importante en la naturaleza: el mun­do de las estructu­ras disipativas.
       Ahora bien, nuestro universo está constituido básica­mente por sistemas no-lineales en todos sus niveles: físi­co, químico, biológico, psicológico y socio­cultural.
       “Si observa­mos nuestro entorno vemos que estamos inmersos en un mun­do de sistemas. Al considerar un árbol, un libro, un área urbana, cualquier aparato, una comunidad social, nuestro lenguaje, un animal, el firmamento, en todos ellos encontra­mos un rasgo común: se trata de entidades complejas, for­madas por partes en interacción mutua, cuya identidad resul­ta de una adecuada armonía entre sus constituyentes, y dota­das de una sustanti­vidad propia que transciende a la de esas partes; se trata, en suma, de lo que, de una manera gené­rica, denominamos sistemas” (Aracil, 1986, p. 13). De aquí, que von Bertalanffy (1981) sostenga que “desde el átomo hasta la galaxia vivimos en un mundo de sistemas” (p. 47).
       Según Capra (1992), la teoría cuántica demuestra que “todas las partícu­las se componen dinámicamente unas de otras de manera autoconsistente, y, en ese sentido, puede decirse que ‘contienen’ la una a la otra”. De esta forma, la física (la nueva física) es un modelo de ciencia para los nuevos conceptos y métodos de otras disciplinas. En el campo de la biología, Dobzhansky (1967) ha señalado que el genoma, que comprende tanto genes reguladores como operantes, trabaja como una orquesta y no como un conjunto de solistas.
       También Köhler (1967), para la psicología, solía decir que “en la es­tructura (siste­ma) cada parte conoce dinámicamen­te a cada una de las otras”. Y Ferdinand de Saussure (1931), para la lingüística, afirma­ba que “el significado y valor de cada pala­bra está en las demás”, que el sistema es “una totalidad organizada, hecha de elementos solidarios que no pueden ser definidos más que los unos con relación a los otros en función de su lugar en esta totali­dad”.
       Si la significación y el valor de cada elemento de una estruc­tura dinámica o sistema está íntimamente relacionado con los demás, si todo es función de todo, y si cada ele­mento es nece­sario para definir a los otros, no podrá ser visto ni en­tendido ni medido “en sí”, en forma aislada, sino a tra­vés de la posición y de la función o papel que desempeña en la es­tructu­ra. Así, Parsons señala que “la condición más decisiva para que un análisis dinámico sea válido, es que cada problema se refiera continua y sistemáticamente al estado del sistema considera­do como un todo” (en: Lyotard, 1989, p. 31).
       La necesidad de un enfoque adecuado para tratar con sistemas se ha sentido en todos los campos de la ciencia. Así fue naciendo una serie de enfoques mo­dernos afines como, por ejemplo, la cibernética, la informática, la teoría de conjuntos, la teoría de redes, la teoría de la decisión, la teoría de juegos, los modelos estocásticos y otros; y, en la aplicación práctica, el análisis de sistemas, la ingeniería de sistemas, el estudio de los ecosistemas, la inves­tigación de operaciones, etc. Aunque estas teorías y aplicaciones difieren en algunos supuestos iniciales, técnicas matemáticas y metas, coinciden, no obs­tante, en ocuparse, de una u otra forma y de acuerdo con su área de interés, de “sistemas”, “totalidades” y “organización”; es decir, están de acuerdo en ser “ciencias de sistemas” que estudian aspectos no atendidos hasta ahora y problemas de interacción de muchas variables, de organización, de regulación, de elección de metas, etc. Todas buscan la “configuración estructural sistémi­ca” de las realidades que estudian.
       En un “sistema” se da un conjunto de unidades interrelacionadas de tal ma­nera que el comportamiento de cada parte depende del estado de todas las o­tras, pues todas se encuentran en una estructura que las interconecta. La or­ganización y comunicación en el enfoque de sistemas desafía la lógica tradi­cional, reemplazando el concepto de energía por el de información, y el de causa-efecto por el de estructura y realimentación. En los seres vivos, y so­bre todo en los seres humanos, se dan estructuras de un altísimo nivel de com­plejidad, las cuales están constituidas por sistemas de sistemas cuya compren­sión desafía la agudeza de las mentes más privilegiadas; estos sistemas constituyen un todo “físico-químico-biológico-psicológico-cultural y espiritual”. Solamente refiriéndonos al campo biológico, hablamos de sistema sanguíneo, sistema respiratorio, sistema nervioso, sistema muscular, sistema óseo, sistema reproductivo, sistema inmunológico y muchísimos otros. Imaginemos el alto nivel de complejidad que se forma cuando todos estos sistemas se interrelacionan e interactúan con todos los otros sistemas de una sola persona y, más todavía, de enteros grupos sociales.
       Ahora bien, ¿qué implicaciones tiene la adopción del paradigma sistémico para el cultivo de la ciencia y su tecnología? Cambian completamente los cimientos de todo el edificio científico: sus bases, su estructura conceptual y su andamiaje metodológíco. Ése es el camino que tratan de seguir hoy las metodologías que se inspiran en los enfoques hermenéuticos, en la perspectiva fenomenológica y en las orientaciones etnográficas, es decir, las metodologías cualitativas.
 
       1. 2   La validez y confiabilidad positivistas
 
       La literatura positivista tradicional define diferentes tipos de validez,(validez de construcción, validez interna, validez externa); pero todas tratan de verificar si en realidad medimos lo que nos proponemos medir. Igualmente, esta orientación epistemológica busca determinar un buen nivel de confiabilidad, es decir, su posibilidad de repetir la misma investigación con idénticos resultados. Todos estos indicadores tienen un denominador común: se calculan y determinan por medio de “una medida aislada, independiente de las realidades completas a que se refieren”.
       La validez de construcciones hipotéticas (de ‘constructos’), que es la más importante, trata de establecer una medida operacional para los conceptos usados; en el campo psicológico, por ejemplo, se trataría de que el instrumento mida la propiedad o propiedades psicológicas aisladas que subyacen a la variable. Esta validez no es fácil de entender, ya que se encuentra inmersa en el marco de referencia científico de la investigación y su metodología. Éstos son los que le dan sentido.
       La validez interna está relacionada específicamente con el establecimiento o búsqueda de una relación causal o explicativa; es decir, si el evento x lleva al evento y; excluyendo la posibilidad de que sea causado por el evento z. Esta lógica no es aplicable, por ejemplo, a un estudio descriptivo o exploratorio (Yin, 2003, p. 36).
       La validez externa trata de verificar si los resultados de un determinado estudio son generalizables más allá de los linderos del mismo. Esto requiere que se dé una homología o, al menos, una analogía entre la muestra (caso estudiado) y el universo al cual se quiere aplicar. Algunos autores se refieren a este tipo de validez con el nombre de validez de contenido, pues la definen como la representatividad o adecuación muestral del contenido que se mide con el contenido del universo del cual es extraída (Kerlinger, 1981a, p. 322).
       Igualmente, la confiabilidad tiene por objeto asegurarse de que un investigador, siguiendo los mismos procedimientos descritos por otro investigador anterior y conduciendo el mismo estudio, puede llegar a los mismos resultados y conclusiones. Nótese que se trata de rehacer el mismo estudio, no una réplica del mismo.
 
       1.3. Análisis crítico de los criterios positivistas
       Todos estos indicadores desconocen que cada realidad o entidad humana, ya sea un pensamiento, una creencia, una actitud, un interés, un comportamiento, etc., no son entidades aisladas, sino que reciben su sentido o significado, es decir, se configuran como tales, por el tipo y naturaleza de los otros elementos y factores del sistema o estructura dinámica en que están insertos y por el papel y la función que desempeñan en el mismo; todo lo cual puede ir cambiando con la variable temporal, pues nunca son estáticos. Un elemento aislado no podrá nunca conceptualizarse o categorizarse adecuadamente, ya que podrá tener muchos sentidos de acuerdo a esa constelación de factores o estructura de que proviene.
            Si nos adentramos más en el fenó­meno “partes-todo”, y enfocamos más de cerca su aspecto gnoseo­lógico, diremos que hay dos modos de aprehensión intelec­tual de un elemento que forma parte de una totali­dad. Mi­chael Polanyi (1966) lo expresa de la siguiente ma­nera:
 
   ...no podemos comprender el todo sin ver sus partes, pero pode­mos ver las partes sin com­pren­der el todo... Cuando com­prendemos como parte de un todo a una deter­minada serie de elementos, el foco de nuestra atención pasa de los deta­lles hasta ahora no com­prendidos a la com­pren­sión de su signifi­cado con­jun­to. Este pasa­je de la aten­ción no nos hace perder de vista los deta­lles, pues­to que sólo se puede ver un todo viendo sus par­tes, pero cambia por completo la mane­ra como apre­hen­demos los detalles. Ahora los aprehende­mos en fun­ción del todo en que hemos fijado nuestra aten­ción. Lla­maré a esto aprehensión subsi­diaria de los deta­lles, por oposición a la apre­hensión focal que emplearíamos para aten­der a los deta­lles en sí, no como partes del todo (pp. 22-23).
 
            Lamentablemente, la filosofía analítica y su orientación positivista siguió el consejo que Descartes pone como idea rectora y como segunda máxima, en el Discurso del Método: “fragmen­tar todo problema en tantos ele­mentos simples y separados como sea posible”. Esta orientación ha aceptado sistemáticamente el supuesto (falso) de que la realidad total se captaría desmembrándola (análisis desintegrador) en sus diferentes componentes.
       Este enfoque constituyó el paradigma con­cep­tual de la ciencia durante casi tres siglos; pero rompe o desconoce el conjunto de nexos y relaciones que cada entidad humana, y, a veces, aun en los mismos entes físicos o químicos, tiene con el resto. Y ese resto o contexto es precisamente el que le da la naturaleza que lo constituye, sus características, sus propiedades y sus atributos. Esta descontextualización de las realidades las vuelve amorfas, ambiguas y, la mayoría de las veces, sin sentido alguno o, también, con muchos posibles significados. Como señala muy apropiadamente el creador de la “Teoría General de Sistemas”, Ludwig von Bertalanffy (1976), “todo modelo matemático es una sobresimplificación, y es discutible si reduce a los huesos los acontecimientos reales o si arranca partes vitales de su anatomía” (p. 117).
       Para una ejemplificación mayor, pensemos en lo que está pasando en los últimos tiempos en el campo de la medicina. Excelentes profesionales de esta ciencia, a veces guiados por su especialización o superespecialización, recetan una medicina que parece magnífica para una determinada dolencia o afección, pero desconocen que, para algunas personas en particular, puede ser hasta fatal, ya que tienen una alergia especial, por ejemplo, a la penicilina o hacia algún componente de la misma. Esto sin puntualizar que la etiología de una determinada enfermedad tiene, a veces, su origen en áreas no biológicas, como un alto nivel de estrés por razones psicológicas, problemas familiares o dificultades socioeconómicas; áreas todas que el insigne especialista puede desconocer hasta en sus temas más simples, pero que podrían dar la pista de hacia dónde hay que dirigir la necesaria terapéutica.
 
     2. Visión Postpositivista de la Validez y Confiabilidad
     2.1  La Validez.
       En sentido amplio y general, diremos que una investigación tendrá un alto nivel de “validez” en la medida en que sus resul­tados “reflejen” una imagen lo más completa posible, clara y re­presentati­va de la realidad o situación estudiada.
       Pero no tenemos un solo tipo de conocimiento. Las ciencias naturales producen un conocimiento que es eficaz para tratar con el mundo físico; ellas han tenido éxito con la producción de un conocimiento instrumental que ha sido explotado política y lucrativamente en aplicaciones tecnológicas. Pero el conocimiento instrumental es sólo una de las tres formas cognitivas que contribuyen a la vida humana.
       Las ciencias histórico-hermenéuticas (ciencias interpretativas) producen el conocimiento interactivo que subyace en la vida de cada ser humano y de la comunidad de que forma parte; igualmente, la ciencia social crítica produce el conocimiento reflexivo y crítico que el ser humano necesita para su desarrollo, emancipación y autorrealización.
       Cada forma de conocimiento tiene sus propios intereses, sus propios usos y sus propios criterios de validez; por esto, debe ser justificada en sus propios términos, como se ha hecho tradicionalmente con la ‘objetividad’ para las ciencias naturales, como hizo Dilthey para la hermenéutica, y como hicieron Marx y Engels para la teoría crítica. En las ciencias naturales, la validez está relacionada con su capacidad para controlar el ambiente físico con nuevas invenciones físicas, químicas y biológicas; en las ciencias hermenéuticas la validez se aprecia de acuerdo al nivel de su habilidad para producir relaciones humanas con alto sentido de empatía y vinculación; y en la ciencia social crítica esta validez estará relacionada con su capacidad de superación de obstáculos para favorecer el crecimiento y desarrollo de seres humanos más autosuficientes en sentido pleno.
       Como señalamos, una investigación tiene un alto nivel de validez si al observar o apreciar una realidad, se observa o aprecia esa realidad en sentido pleno, y no sólo un aspecto o parte de la misma.
       Si la confiabilidad ha representado siempre un requisito difícil para las investigaciones cualitativas, debido a la naturaleza peculiar de éstas (imposibilidad de repetir, stricto sensu, el mismo estudio), no ha ocurrido lo mismo en relación con la validez. Al contrario, la validez es la fuerza mayor de estas investigaciones. En efecto, la aseveración de los investigadores cualitativos de que sus estudios poseen un alto nivel de validez deriva de su modo de recoger la información y de las técnicas de análisis que usan. Esos procedimientos los inducen a vivir entre los sujetos participantes en el estudio, a recoger los datos durante largos períodos de tiempo, revisarlos, compararlos y analizarlos de manera continua, a adecuar las entrevistas a las categorías empíricas de los participantes y no a conceptos abstractos o extraños traídos de otro medio, a utilizar la observación participativa en los medios y contextos reales donde se dan los hechos y, finalmente, a incorporar en el proceso de análisis una continua actividad de realimentación y reevaluación. Todo esto garantiza un nivel de validez que pocas metodologías pueden ofrecer. Sin embargo, también la validez es perfectible, y será tanto mayor en la medida en que se tengan en cuenta algunos problemas y dificultades que se pueden presentar en la investigación cualitativa. Entre otros, para una buena validez interna, habrá que prestar especial atención a los siguientes:
        a) Puede haber un cambio notable en el ambiente estudiado entre el principio y el fin de la investigación. En este caso, habrá que recoger y cotejar la información en diferentes momentos del proceso.
        b) Es necesario calibrar bien hasta qué punto la realidad observada es una función de la posición, el estatus y el rol que el investigador ha asumido dentro del grupo. Las situaciones interactivas siempre crean nuevas realidades o modifican las existentes.
        c) La credibilidad de la información puede variar mucho: los informantes pueden mentir, omitir datos relevantes o tener una visión distorsionada de las cosas. Será necesario contrastarla con la de otros, recogerla en tiempos diferentes, etc.; conviene, asimismo, que la muestra de informantes represente en la mejor forma posible los grupos, orientaciones o posiciones de la población estudiada, como estrategia para corregir distorsiones perceptivas y prejuicios, aunque siempre seguirá siendo cierto que la verdad no es producida por el ejercicio azarístico y democrático en la recolección de la información general, sino por la información de las personas más capacitadas y fidedignas.
       En cuanto a la validez externa, es necesario recordar que a menudo las estructuras de significado descubiertas en un grupo no son comparables con las de otro, porque son específicas y propias de ese grupo, en esa situación y en esas circunstancias, o porque el segundo grupo ha sido mal escogido y no le son aplicables las conclusiones obtenidas en el primero.
 
       2.2   La Confiabilidad.
       Una investigación con buena confiabilidad es aquella que es estable, segura, congruente, igual a sí misma en diferentes tiempos y previsible para el futuro. También la confiabilidad tiene dos caras, una interna y otra externa: hay confiabilidad interna cuando varios observadores, al estudiar la misma realidad, concuerdan en sus conclusiones; hay confiabilidad externa cuando investigadores independientes, al estudiar una realidad en tiempos o situaciones diferentes, llegan a los mismos resultados.
       El concepto tradicional de “confiabilidad” externa implica que un estudio se puede repetir con el mismo método sin alterar los resultados, es decir, es una medida de la replicabili­dad de los resultados de la investigación. En las ciencias humanas es prácti­camente imposible reproducir las con­diciones exactas en que “un comportamiento” y su estudio tuvieron lugar. Ya Herá­clito dijo en su tiempo que “nadie se bañaba dos veces en el mismo río”; y Cratilo le añadió que “no era posible hacerlo ni siquiera una sola vez”, ya que el agua está fluyendo continuamente (Aristóteles, Metafísica, iv, 5).
       En los estudios realizados por medio de investigaciones cualitativas, que, en general, están guiados por una orientación sistémica, hermenéutica, fenome­nológica, et­nográfica y humanista, la confiabili­dad está orien­tada hacia el nivel de concordancia interpretativa entre dife­rentes obser­vadores, evaluadores o jueces del mis­mo fenóme­no, es decir, la confiabilidad será, sobre todo interna, interjue­ces. Se considera un buen nivel de esta confiabilidad cuando alcanza un 70%, es decir, que, por ejemplo, de 10 jueces, hay consenso entre 7.
       Dada la naturaleza particular de toda investigación cualitativa y la complejidad de las realidades que estudia, no es posible repetir o replicar un estudio en sentido estricto, como se puede hacer en muchas investigaciones experimentales. Debido a ello, la confiabilidad de estos estudios se logra usando otros procedimientos rigurosos y sistemáticos.
      La confiabilidad interna es muy importante. En efecto, el nivel de consenso entre diferentes observadores de la misma realidad eleva la credibilidad que merecen las estructuras significativas descubiertas en un determinado ambiente, así como la seguridad de que el nivel de congruencia de los fenómenos en estudio es fuerte y sólido.
       Los investigadores cualitativos suelen utilizar varias estrategias (LeCompte-Goetz, 1982) para reducir las amenazas que se le presentan a la confiabilidad interna:
       a) Usar categorías descriptivas de bajo nivel de inferencia, es decir, lo más concretas y precisas posible. Los datos son algo ya interpretado (Hanson, 1977); por esto, es conveniente que estén cercanos a la realidad observada: quién hizo qué cosa y en qué circunstancias. Los comentarios interpretativos pueden añadirse, eliminarse o modificarse más tarde. Además, la mayoría de los autores coinciden en señalar que los procedimientos cualitativos son ricos en datos primarios y frescos, que ofrecen al lector múltiples ejemplos extraídos de las notas de campo, y son, por esto, generalmente consideradas como más creíbles.
        b) El mejor aval para la confiabilidad interna de un estudio cualitativo es la presencia de varios investigadores. El trabajo en equipo, aunque es más difícil y costoso, garantiza un mejor equilibrio de las observaciones, los análisis y la interpretación.
        c) Pedir la colaboración de los sujetos informantes para confirmar la “objetividad” de las notas o apuntes de campo. Asegurarse de que lo visto o registrado por el investigador coincide o es consistente con lo que ven o dicen los sujetos del grupo estudiado.
        d) Utilizar todos los medios técnicos disponibles en la actualidad para conservar en vivo la realidad presenciada: grabaciones de audio y de vídeo, fotografías, diapositivas, etc. Este material permitirá repetir las observaciones de realidades que son, de por sí, irrepetibles, y que las puedan “presenciar” otros observadores ausentes en el momento en que sucedieron los hechos. Su aporte más valioso radica en que nos permiten volver a los “datos brutos” y poder categorizarlos y conceptualizarlos de nuevo.
       Para alcanzar un buen nivel de confiabilidad externa, se aconseja (LeCompte y Goetz, 1982) recurrir, entre otras, a las siguientes estrategias:
        a) Precisar el nivel de participación y la posición asumida por el investigador en el grupo estudiado; cierta información puede ser diferente de acuerdo con el sexo de quien la dé (las mujeres pueden ocultar ciertos datos íntimos si el investigador, por ejemplo, es de sexo masculino); igual sucede si el investigador ha hecho amigos dentro del grupo; éstos le darán informaciones que no les dan otros.
        b) Identificar claramente a los informantes. Éstos pueden representar grupos definidos y dar información parcial o prejuiciada. Los miembros que simpatizan y colaboran más con los investigadores pueden ser, por esto mismo, miembros atípicos. Esta situación se puede advertir al hacer una buena descripción del tipo de personas que han servido como informantes.
        c) Un tercer elemento que puede influir en los datos es el contexto en que se recogen. Debido a ello, conviene especificar el contexto físico, social e interpersonal de que se derivan. Esto aumentará la replicabilidad de los estudios.
       d) Para que sea posible una “cierta réplica” es imprescindible la identificación de los supuestos y metateorías que subyacen en la elección de la terminología y los métodos de análisis. Los conceptos de “cultura”, “ciencia”, “método”, “análisis”, “dato”, “codificación” y muchos otros pueden diferir sustancialmente entre diferentes investigadores.
       e) Precisar los métodos de recolección de la información y de su análisis, de tal manera que otros investigadores puedan servirse del reporte original como un manual de operación para repetir el estudio. La replicabilidad se vuelve imposible sin una precisa identificación y cuidadosa descripción de las estrategias de procedimiento.
       La triangulación. En sentido amplio, en las ciencias humanas, también se pueden realizar varias “triangulaciones” que mejoran notablemente los resultados de la investigación y su validez y confiabilidad. De una manera particular, se pueden combinar, en diferentes formas, técnicas y procedimientos cualitativos y cuantitativos. La idea central es utilizar todo lo que se considere pertinente, tenga relación y se considere  útil.
       Más concretamente, se pueden identificar varios tipos básicos de triangulación:
a) Triangulación de métodos y técnicas: que consiste en el uso de múltiples métodos o técnicas para estudiar un problema determinado (como, por ejemplo, el hacer un estudio panorámico primero, con una encuesta, y después utilizar la observación participativa o una técnica de entrevista).
b)      Triangulación de datos: en la cual se utiliza una variedad de datos para realizar el estudio, provenientes de diferentes fuentes de información.
c) Triangulación de investigadores: en la cual participan diferentes investigadores o evaluadores, quizá con formación, profesión y experiencia también diferentes.
d)       Triangulación de teorías: que consiste en emplear varias perspectivas para interpretar y darle estructura a un mismo conjunto de datos (por ejemplo, una teoría basada en las técnicas de correlación, análisis de varianza, análisis de regressión, análisis factorial o cluster analysis y otra que utilice la observación participativa).
e)     Triangulación interdisciplinaria: con la cual se invocan múltiples disciplinas a intervenir en el estudio o investigación en cuestión (por ejemplo, la biología, la psicología, la sociología, la historia, la antropología, etc.).
       Conviene, sin embargo, advertir que no se puede dar, hablando con precisión epistemológica, una triangulación de paradigmas, como insinúan algunas personas empleando ciertos procedimientos que llaman “pluriparadigmáticos”. No se puede jugar al ajedrez, ni a ningún otro juego, utilizando dos o más cuerpos de reglas diferentes o, peor aún, antagónicos. Lo menos que se puede decir de esas personas es que están usando el concepto de “paradigma epistémico” en forma errónea, es decir, como “punto de vista”. Los puntos de vista sí son complementarios y se pueden integrar, los paradigmas epistémicos no, ya que uno se configura negando al otro: si sostengo que la Tierra es redonda estoy negando que sea plana.
       En conclusión, podríamos afirmar que las realidades, especialmente las humanas, constituyen un todo polisistémico que se rebela cuando es reducido a sus elemen­tos, aunque sea con la intención de medirlos; es más, precisamente en esos momentos, porque se pone en práctica un reduccionismo desnaturalizador. Y se rebela, precisamente, porque, así, reducido, pierde las cualidades emergentes del “todo” y la acción de éstas sobre cada una de las partes.  Este “todo polisistémico”, que constituye la naturaleza global, nos obliga, incluso, a dar un paso más en esta direc­ción. Nos obliga a adoptar una metodo­logíainterdisciplinaria para poder captar la riqueza de la interacción entre los dife­rentes subsiste­mas que estudian las disciplinas particu­lares.
       Por estas razones, la confiabilidad, sobre todo la externa, no está dentro del círculo de intereses inmediatos de las investigaciones cualitativas, pues el fin de éstas es el mejoramiento y aplicación a una situación particular, que puede ser una persona, un grupo, una comunidad o una empresa, y no la generalización a otras áreas, de la misma manera que el médico está interesado en curar a su paciente. Si ese estudio, ese tratamiento y ese plan de acción o patrón teórico pueden, después, transferirse y aplicarse en otros pacientes o a otros campos similares, tanto mejor: se irá haciendo una ciencia más universal; pero ése no es el fin primario de una investigación cualitativa.
 
     3.  Procesos que refuerzan la Validez y la Confiabilidad
     3.1   Categorización, Contrastación, Estructuración y Teorización
       Estos procesos tienen por finalidad permitir la emergencia de la posible estructura teórica, “implícita” en el material recopilado en las entrevistas, observaciones de campo, grabaciones, filmaciones, etc. El proceso completo implica la categorización, la estructuración propiamente dicha, la contrastación y la teorización. Precisamente, todos estos procesos son esencialmente críticos y evaluativos; es decir, que, en su devenir, se juega continuamente con alternativas posibles para elegir la mejor categoría para una determinada información, la estructura que da explicaciones más plausibles para un conjunto de categorías y la teoría que mejor integra las diferentes estructuras en un todo coherente y lógico.
       La categorización. Este proceso trata de asignar categorías o clases sig­nifi­cativas, de ir constantemente dise­ñando y rediseñan­do, inte­grando y rein­tegrando el todo y las partes, a medi­da que se revisa el ma­terial y va emer­giendo el significado de cada sector, párrafo, evento, hecho o dato; y como nuestra mente salta velozmente de un proceso a otro tratando de hallarle un sentido a las cosas que examina, como se adelanta y vuelve atrás con gran agilidad para ubicar a cada elemento en un contexto y para modificar ese contexto o fondo de acuerdo con el sentido que va encontrando en los elementos, se aconseja una gran toleran­cia a la ambigüedad y contradicción (que, quizá, sean sólo apa­ren­tes), una gran resistencia a la necesidad de dar senti­do a todo con rapidez, y una gran oposición a la pre­cipita­ción por conceptuali­zar, categorizar o codificar las cosas de acuerdo con los esque­mas que nos son ya familiares.
       Por ello, se recomienda también al investigador “alejar” todo lo que no “emerja” de la descripción protoco­lar (es decir, de la fuente primaria de la información); de otra manera, no veremos más de lo que ya sabemos y no hare­mos más que con­firmarnos en nues­tras viejas ideas y aun en nuestros pro­pios prejuicios. En efecto, todo símbolo verbal o categoría aspira a representar a su referente, pero no hay símbolo que sea capaz de describir todos los rasgos del referente; en consecuencia, está obligado a omitir uno o varios de ellos. Por eso, todo símbolo es abstracto en sus representaciones de la naturaleza, pierde algo (o mucho) de ella y no es estrictamente adecuado o representativo.
       Esta dialéctica entre la figura y el fondo es continua y permanente; la toma de conciencia de la dinámica de este proceso ayudará a facilitar su actividad normal y efectiva, como también ayudará a demostrar al lector del trabajo cuál fue el camino que el investigador siguió para llegar a sus resultados o conclusiones.
       La palabra análisis, en su origen etimológico, quiere decir “separar” o “dividir” las partes de un todo con el fin de entender los principios y elementos que lo componen. Hoy día se ha vuelto muy corriente tender a analizarlo todo, analizar todas las cosas “para comprenderlas”. Pero cuando una entidad es un sistema o constituye una estructura, la división o separación puede también destruir su naturaleza y llevarnos a no entender la nueva realidad “emergente” que la hace tal. Así, por ejemplo, nunca podríamos conocer las propiedades del agua descomponiendo sus moléculas en átomos de hidrógeno y oxígeno, ya que las propiedades de la molécula de agua aparecen o emergen sólo al unirse dos átomos de hidrógeno con uno de oxígeno. Lo mismo sucedería con cualquier otro sistema o estructura, ya sea del campo natural como del área social. Por estas razones, al ponderar, apreciar o categorizar un párrafo escrito o una actividad humana cualquiera, se trata siempre de ubicarla en posibles diferentes contextos, escenarios u horizontes para elegir el que se considera más adecuado, pero siempre dispuestos a cambiarlo al examinar el resto de la información. Todo esto aumentará mucho la validez del estudio.
       La estruturación. Todo el proceso de estructuración es también un ejercicio continuo que tiende a validar una comprensión realista y auténtica del tópico estudiado. El ser humano es superior a los animales, no por la riqueza de su información sensorial, ya que la mayoría de los animales poseen una agudeza visual, auditiva, olfativa, etc., muy superior a la del hombre, sino por su capacidad de relacionar, interpretar y teorizar con esa información. La inteligencia humana tiene una propensión natural innata a buscar regularidades y la capacidad básica de ordenar las cosas, según sean semejantes o diferentes, de acuerdo con su naturaleza y características y según la interacción que se dé entre ellas. Esta actividad mental está en acción continuamente y puede sorprendernos con sus hallazgos hasta en el mismo sueño.
       Al reflexionar y tratar de descubrir la dinámica psicológica de nuestra mente en el momento en que conoce algo, comprobaremos la importancia de una determinada condición previa y la naturaleza del proceso en sí mismo. La condición previa es una inmersión lo más completa posible en el campo fenoménico que se va a estudiar. Cuanto más completa y duradera sea esta inmersión, cuanto más se estime y aprecie el campo objeto de nuestro conocimiento, cuanto más abierto se esté a los detalles, matices y sutilezas del mismo, más fácil será la captación de una nueva red de relaciones, es decir, de un nuevo conocimiento.
       Los psicólogos de la Gestalt han demostrado que cuando la mente humana contempla serena y atentamente un determinado fenómeno, en medio de esa quietud comienza como a “jugar” con sus elementos, y “de golpe” algo llega a la mente: puede ser una relación, un ritmo, una estructura o una configuración. “El organismo humano, cuando obra libre y no defensivamente, es quizá el mejor instrumento científico que existe, y es capaz de sentir esta configuración mucho antes de poderla formular de manera consciente” (Rogers, 1968, págs. 62-63). Kepler, Einstein y muchos otros grandes científicos tenían gran confianza en esa captación intuitiva.
       Por todo ello, al reflexionar y concentrarse, en esa contemplación, irán apareciendo en nuestra mente diversas constelaciones formadas por las categorías y, poco a poco, también una prevalente estructura que las integra. De esta forma, se logrará llevar a cabo apropiadamente el proceso de estructuración que se inició en el mismo momento de comenzar la recolección de información.
       El investigador cualitativo sabe que este proceso, eminentemente creador, de análisis-categorización-interpretación, necesita, para su buen funcionamiento, que se tengan presentes algunos consejos que se derivan del estudio de la naturaleza del proceso creativo:
       ¨  que no debe precipitarse, pues las ideas tienen su propio camino;
       ¨  que no debe dirigir o presionar el pensamiento en una sola dirección;
       ¨ que su imaginación debe estar en libertad de utilizar las analogías, metáforas, comparaciones, símiles y hasta alegorías que crea útiles o convenientes (la moda científica de hoy los llama modelos);
       ¨ que debe albergar una gran confianza en sí mismo y en la propia capacidad, ya que esta confianza elimina ciertos constreñimientos mentales que imposibilitan, en el nivel neurofisiológico cerebral, el flujo de ideas y sus relaciones;
       ¨ que toda persona normal puede ser muy creativa, si se dan ciertas condiciones;
       ¨ que el buen investigador siente oposición a las presiones conformistas y le agrada el riesgo de enfrentarse a lo desconocido; lo ama; le agrada vivir una cierta osadía intelectual.
       Todo esto hace que el investigador se aproxime a cualquier expresión de la vida humana, no con la famosa tabula rasa de John Locke, sino con expectativas y prejuicios sobre lo que pudiera ser el objeto observado. Debido a ello, la interpretación implica una “fusión de horizontes”, una interacción dialéctica entre las expectativas del intérprete y el significado de un texto o acto humano. En términos de la psicología de la Gestalt, aunque no siempre, diríamos que la realidad exterior tiende a sugerirnos la figura, mientras que nosotros le ponemos el fondo (contexto, horizonte, marco teórico).
       Heidegger sostiene que “ser humano es ser interpretativo”; es decir, que la interpretación, más que un “instrumento” para adquirir conocimientos, es el modo natural de ser de los seres humanos, y todos los intentos cognoscitivos para desarrollar conocimientos no son sino expresiones de la interpretación sucesiva del mundo.
       La contrastación. Esta etapa de la investigación consiste en relacionar y contrastar sus resultados con aquellos estudios paralelos o similares que se presentaron en el marco teórico-referencial (ver Martínez, 2004, p.77), para ver cómo aparecen desde perspectivas diferentes o sobre marcos teóricos más amplios y explicar mejor lo que el estudio verdaderamente significa. Es, por consiguiente, también un proceso típicamente evaluativo, que tiende a reforzar la validez y la confiabilidad.
        Aunque el “marco teórico-referencial” sólo nos informa de lo que han realizado otras personas, en otros lugares, en otros tiempos y, quizá, también con otros métodos, sin embargo, el comparar y contraponer nuestras conclusiones con las de otros investigadores, igualmente rigurosos, sistemáticos y críticos, no sólo nos permitirá entender mejor las posibles diferencias, sino que hará posible una integración mayor y, por consiguiente, un enriquecimiento del cuerpo de conocimientos del área estudiada, como se verá en el sector siguiente de la teorización.
       Esta comparación y contrastación pudieran llevarnos hacia la reformulación, reestructuración, ampliación o corrección de construcciones teóricas previas, logrando con ello un avance significativo en el área; es decir, que algunas teorizaciones ya existentes cumplirían en gran parte la función de proveer algunas líneas directrices para interpretar los nuevos datos.
       De aquí, se deriva la importancia que tiene el diálogo con los autores que nos han precedido en nuestra área de estudio, no para seguir ciegamente lo que ellos digan (marco teórico tradicional), sino para corregir, mejorar, ampliar o reformular nuestras conclusiones; es decir, para enfocarlas desde otros puntos de vista y con el uso de otras categorías, lo cual enriquecerá y profundizará nuestra comprensión de lo que estamos estudiando.
       La Teorización. Einstein solía decir que “la ciencia consistía en crear teorías”. Pero una teoría es un modo nuevo de ver las cosas, y puede haber muchos modos diferentes de verlas. De aquí, también la idea de que toda teorización es un ejercicio continuo de validación y de creación de credibilidad en nuestros resultados.
       El proceso de teorización utiliza todos los medios disponibles a su alcance para lograr la síntesis final de un estudio o investigación. Más concretamente, este proceso trata de integrar en un todo coherente y lógico los resultados de la investigación en curso, mejorándolo con los aportes de los autores reseñados en el marco teórico-referencial después del trabajo de contrastación.
       En el campo de las ciencias humanas, la construcción y reconstrucción, la formulación y reformulación de teorías y modelos teóricos o de alguna de sus partes, mediante elementos estructurales de otras construcciones teóricas, es el modo más común de operar y de hacer avanzar estas ciencias.
       Einstein mismo llegó a afirmar en repetidas ocasiones que su teoría de la relatividad especial no encontró entidades aisladas nuevas ni hechos anteriormente desconocidos, ya que todos sus elementos (los conceptos de espacio, tiempo, materia, fuerza, energía, partículas, gravitación, aceleración, onda, corpúsculo, velocidad y otros) estaban en el ambiente desde hacía cincuenta años; lo que él propuso fue una nueva manera de clasificar y relacionar cosas ya conocidas. Y Leibniz afirmó: “mi sistema toma lo mejor de todas partes”.
       La mayoría de los investigadores manifiestan dificultades en describir qué es lo que hacen cuando teorizan; pero un análisis cuidadoso de sus actividades mentales hará ver que son similares a las actividades cotidianas de una persona normal: las actividades formales del trabajo teorizador consisten en percibir, comparar, contrastar, añadir, ordenar, establecer nexos y relaciones y especular; es decir, que el proceso cognoscitivo de la teorización consiste en descubrir y manipular categorías y sus relaciones y las posibles estructuras que se pueden dar entre ellas.
       La transición de los datos a la teoría requiere de imaginación creadora. Popper observa que las teorías son el “resultado de una intuición casi poética” (1963, p. 192). Las hipótesis y teorías científicas no se derivan de los hechos observados, sino que se inventan para dar cuenta de ellos; son conjeturas relativas a las conexiones que se pueden establecer entre los fenómenos estudiados y las uniformidades y regularidades que subyacen a éstos. Las “conjeturas felices” de este tipo requieren gran inventiva, especialmente si suponen una desviación radical de los modos ordinarios del pensamiento científico, como ocurrió con las grandes teorías que fundamentan a cada una de las ciencias.
       Einstein precisa que “están en un error aquellos teóricos que creen que la teoría se obtiene inductivamente a partir de la experiencia” (Hanson, 1977, p. 229). Al contrario, una teoría es una construcción mental simbólica, verbal o icónica, de naturaleza conjetural o hipotética, que nos obliga a pensar de un modo nuevo al completar, integrar, unificar, sistematizar o interpretar un cuerpo de conocimientos que hasta el momento se consideraban incompletos, imprecisos, inconexos o intuitivos.
       La teoría es, por tanto, un modelo ideal, sin contenido observacional directo, que nos ofrece una estructura conceptual inteligible, sistemática y coherente para ordenar los fenómenos; de manera más concreta, suele consistir en un sistema de hipótesis, fórmulas legaliformes y hasta leyes ya establecidas, de modo que su síntesis puede incluir desde lo plenamente conocido hasta lo meramente sospechado.
       La historia de la ciencia nos permite ver en forma palpa­ble que sus avances más revo­lucionarios y significa­tivos no pro­vienen de investigaciones empíricas aisladas o de la acu­mula­ción de hechos y experimentos, sino de teo­rías nove­dosas inicial­mente desconcer­tantes.
       Como vemos, este análisis integrador, que tra­tamos de ilus­trar, está muy lejos de consistir en separar, dividir, aislar, atomizar o vivi­seccionar una realidad, ya que ello llevaría a su incompren­sión. En este enfoque, que es hermenéutico, feno­menológico y etnográfico, se con­sidera que el significado es el verdadero dato, es decir, que la magnitud de un dato está dada por su nivel de signifi­cación y que este dato se presenta en un contex­to indivi­dual y en una estructura personal y social que es necesa­rio co­nocer para interpretarlo. Así, el proceso teorizador es un esfuerzo eminente del investigador por aumentar los niveles de validez y de confiabilidad de los resultados de su investigación.
 
     4. Evaluación de las estructuras teóricas formuladas
       El intento de evaluar una estructura teórica es un pro­ce­so epistemológico muy arduo. Depende mucho del con­cep­to de vali­dez que se tenga y también del concepto de ver­dad. Por ello, también este proceso refuerza el valor de toda investigación.
       En efecto, la evidencia racional es la última instan­cia de valida­ción de toda prueba o verificación. La vali­dación empíri­ca debe apoyarse siempre, en último análisis, en una valida­ción racional; dicho de otro modo, no exis­te, en sentido estricto, algo que poda­mos llamar evidencia empíri­ca; la evi­dencia será siem­pre intelec­tual, racional, algo que es visto en un contac­to direc­to, inmedia­to, en un acto intuitivo. Este acto im­plica invariable­mente una interpre­tación, es decir, la captación de una relación en el marco de un contexto, y este contexto puede ser, en gran parte, cons­trucción o añadidura del sujeto. La mente humana no puede trabajar de manera distinta; ésa es su forma natu­ral de ope­rar. Por supuesto, la evidencia racional y su consi­guiente validación tienen la fragi­lidad de la li­mita­ción humana y, en fin de cuentas, valdrán tanto como la agudeza intelectual del investi­gador.
       Todo esto nos lleva a una conclusión lógica que no debe­mos olvidar en nuestra validación de las teorías: todas las teo­rías científicas serán siempre parciales (tra­tan sólo algu­nos aspec­tos de la realidad) y aproximadas (contienen errores o apreciacio­nes parcialmente erróneas). Una teoría perfecta (com­pleta y preci­sa en su totalidad) no existe ni existirá nun­ca: resulta algo contra­dictorio con el mismo concepto de teo­ría.
       Cualquiera que sea la posición adoptada, una deter­minada teoría nunca tendrá una aceptación universal por parte de todos los científicos, para todos los propósitos y en todos sus con­tex­tos posibles de aplicación. Siempre ha habido in­signes cien­tíficos que no han aceptado teorías famosas: Huy­gens, por ejem­plo, no esta­ba satisfecho con la mecánica de Newton y, para Einstein, la validez de la in­determinación cuán­tica sos­tenida por Planck, Heisenberg, Niels Bohr y muchos otros nota­bles cientí­ficos, siempre estuvo en duda. En las ciencias hu­manas se sostiene, más como regla que como excepción, que la acepta­bilidad de una teoría sea una cues­tión de grados.
       Criterios para evaluar las teorías. A continuación señalamos algunos criterios que, a nues­tro juicio y de muchos otros autores, se han revelado más importantes y útiles en la “valida­ción” y evaluación de las teorías o estructuras teóricas (verlos más ampliamente en Martínez, 2004).
  1. Coherencia interna: éste es el criterio básico. Indi­ca que to­dos los elementos y partes constituyentes de una teoría se rela­cionan entre sí sin contradicciones, es más, que for­man un todo coheren­te y bien integrado.
  2. Consistencia externa: es la compatibilidad que hay entre la doctrina que constituye la teoría y el conocimien­to ya es­tablecido en el mismo campo o en campos adyacentes o afines. Sin embar­go, la consistencia externa es un cri­terio esencialmente con­serva­dor. Las teorías revoluciona­rias rompie­ron drásticamente con lo establecido y aceptado. Por eso, debe ser usado con pru­den­cia, es decir, no es absoluto, sino que está sujeto a un juicio más básico y fundamental, deriva­do del examen y aprecia­ción del contex­to.
  3. Comprehensión: en igualdad de condiciones, una teoría será mejor que otra si abarca o se relaciona con un amplio campo de conocimientos, es decir, si logra integrar y uni­ficar un vasto es­pectro de ideas en el área.
  4. Capacidad predictiva: una buena teoría debe ofrecer la capa­cidad de hacer predicciones sobre lo que sucederá o no suce­derá si se dan ciertas condiciones especificadas en ella, aunque la con­firmación o contrastación de esas pre­dicciones pueda re­sultar en extremo difícil, debido a la naturaleza de esa teoría.
  5. Precisión conceptual y lingüística: debe haber unidad con­ceptual, es decir, el universo del discurso debe estar defi­nido y sus predicados deben ser semánticamente homogé­neos y cone­xos. No debe haber vaguedad ni ambigüedad.
  6. Originalidad: las más fecundas revoluciones del cono­ci­mien­to han consistido en la introducción de teorías que, lejos de limi­tarse a condensar lo sabido, nos obligaron a pensar de un modo nuevo, a formular nuevos problemas y a buscar nuevas clases de relacio­nes y de conocimiento.
  7. Capacidad unificadora: es la capacidad de reunir domi­nios cognoscitivos que aún permanecen aislados. Así lo hicieron hombres como Newton, Maxwell, Niels   Bohr y, sobre todo, Einstein con las teorías físicas  que propu­sieron.
  8. Simplicidad y parsimonia: en igualdad de condiciones, es preferible la teoría más simple, por su claridad y dia­fanidad, como hace Carl Rogers en Psicología.
  9. Potencia heurística: una  buena teoría debe sugerir, guiar y generar nuevas investigaciones, planteando nuevos proble­mas interesantes y facilitando el diseño de estudios y experi­mentos de gran proyec­ción en el área.
  10. Aplicación práctica: una teoría fácil de aplicar será me­jor que otra que, en igualdad de condiciones, es de di­fícil aplica­ción.
  11. Contrastabilidad: es una ventaja para una teoría que sus postulados, axiomas y derivados sean susceptibles de con­tras­ta­ción, es decir, de un examen, crítica y control que lleven o per­mitan confirmarla o refutarla. Todo esto depende mucho de la naturaleza del objeto a que se refiere esa teo­ría.
12. Expresión estética: los griegos siempre pensaron que lo verdadero era también bello; en la física, por ejemplo, está resul­tado un lugar común el pensar que la belleza de una teor­ía física resulta a menudo una pista más importante hacia su verdad que su correspondencia con los hechos, los cuales pueden cons­tituir una dificultad temporal.
       Como síntesis, en la tabla que sigue se presenta una planilla que puede ser utilizada para efectuar una evaluación práctica de estos doce criterios de apreciación de una teoría o estructura teórica, que relacionan e integran todo el proceso de una investigación. Por ello, es también un buen instrumento de evaluación de su validez y confiabilidad.
 
Criterios para Evaluar las Teorías o Estructuras Teóricas
 

 
Criterios
Niveles
 
 
1
2
3
4
5
 
 
Mínimo
Bajo
Medio
Alto
Máximo
1
Coherencia interna
 
 
 
 
 
2
Consistencia externa
 
 
 
 
 
3
Comprehensión
 
 
 
 
 
4
Capacidad predictiva
 
 
 
 
 
5
Precisión conceptual   y lingüística
 
 
 
 
 
6
Originalidad
 
 
 
 
 
7
Capacidad             unificadora
 
 
 
 
 
8
Simplicidad, y            parsimonia
 
 
 
 
 
9
Potencia heurística
 
 
 
 
 
10
Aplicación práctica
 
 
 
 
 
11
Contrastabilidad
 
 
 
 
 
12
Expresión estética
 
 
 
 
 
 
TOTALES   = 
 
 
 
 
 

 
 


     5.  Conclusión
       La vida humana actual se ha vuelto cada vez más compleja, tanto en el ámbito personal y familiar, como en el colectivo: social, laboral y empresarial. Su estudio y evaluación no puede realizarse en forma adecuada con procedimientos que, si se consideraron válidos en tiempos pasados (antes de la década de los 60), hoy día son juzgados como inconsistentes e indefendibles epistemológica y metodológicamente “por sus dificultades intrínsecas insuperables” (Popper, 1977, p. 118).
       Esta complejidad requiere un paradigma sistémico y una metodología esencialmente crítica en todas sus fases, no sólo la relacionada con los instrumentos usados en una medición puntual o en la precisión de una réplica, como son la validez y la confiabilidad clásicas, sino que, dada la intrincada trama de variables que conforman la vida moderna (variables antecedentes, intervinientes e interactuantes), se vuelve absolutamente indispensable una examen crítico a lo largo de todo el proceso de investigación.
       Las metodologías cualitativas llevan más de 30 años avocándose a este desafío; han producido unos 400 manuales para adecuarse a la diversidad de los problemas y más de 3000 artículos en revistas sobre sus aspectos específicos. El problema de la validez y la confiabilidad de una investigación ha sido enfrentado por estas metodologías desde sus diferentes ángulos, como hemos expuesto, y, en su conjunto, le están dando una solución eminentemente rigurosa, sistemática y crítica, criterios que, desde Kant para acá, se consideran los referentes fundamentales exigidos por una auténtica cientificidad. En nuestra última obra, Ciencia y Arte en la Metodología Cualitativa (2004), hemos expuesto una amplísima bibliografía, general y también especificada por sectores, que puede ser muy útil al lector en el momento de tener que consultar autores, métodos y técnicas.


Referencias Bibliográficas
 
Aracil, J. (1986). Máquinas, sistemas y modelos. Madrid: Tecnos.
Aristóteles, (1973). Obras completas. Madrid: Aguilar.
Bertalanffy, L. von, (1974). Robots, hombres y mentes. Madrid:Guadarrama.
---, (1976). Teoría general de sistemas. Madrid:FCE.
---, (1981). Historia y situación de la teoría general de sistemas", en Bertalanffy, L. von y otros, Tendencias en la teoría general de sistemas. Madrid:Alianza.
Bryman, A. y Burgess, R. (1999). Qualitative Research. 4 vols. Londres: Sage.
Capra, F. (1992).  El tao de la física, 3ª edic. Madrid: Luis Cárcamo.
Denzin, N. y Lincoln, I.. (ed) (2000). Handbook of qualitative research, 2ª edic. Thousands Oaks, CA: Sage
Dobzhansky, T. (1967). The biology of ultimate concern. Nueva York: American Library.
Echeverría, J. (1989). Introducción a la metodología de la ciencia: la filosofía de la ciencia en el siglo XX.Barcelona: Barçanova.
Gadamer, H. G. (1976). Philosophic Hermeneutics. Berkeley:University of California Press.
---, (1984). Verdad y método: fundamentos de una hermenéutica filosófica. Salamanca: Sígueme.
Galilei, Galileo, (1968). I due massimi sistemi del mondo, en Le opere di Galileo Galilei (20 vols), vol. VII, Florencia: Barberà.
Hanson, N. R. (1977).Patrones de descubrimiento. Observación y explicación. Madrid: Alianza.
Kaplan, A., (1979). The Conduct of Inquiry: Methodology for Behavioral Science. Nueva York:Harper.
Kerlinger, F. N. (1981a). Investigación del comportamiento. México:Interamericana
---, (1981b). Enfoque conceptual de la investigación. México:Interamericana.
Kirk, J. y Miller, M. (1986). Reliability and validity in qualitative research. Newbury Park, CA.: Sage.
Köhler, W. (1967)., Psicología de la configuración.  Madrid: Morata.
Le Compte, M. D. y J. P. Goetz  (1982). "Problems of reliability and validity of ethnographic research", Review of Educational Research, 52 (1), 31-60.
Lincoln, Y. y Guba, E. (1999). Establishing trustworthiness. En Bryman y Burgess, 1999.
Lyotard J.F., (1989). La condición postmoderna. Barcelona: Gedisa.
Martínez, M., (1993). “El proceso creador a la luz de la neurociencia”, Comporta­miento (Caracas: USB), 2, 1, 3-22.
---,  (1994). “Hacia un nuevo paradigma de la racionalidad”, Anthropos (Venezuela), 28, 55-78.
---, (1996). El desafío a la racionalidad científica clásica, Congreso internacional multidisciplinario sobre los desafíos del siglo XXI, Caracas.
---,  (1996). Comportamiento humano: nuevos métodos de inves­tiga­ción, 2ª edic., México: Trillas.
---,  (1997). El paradigma emergente: hacia una nueva teoría de la racionalidad científica, México: Trillas.
---, (1999a). La nueva ciencia: su desafío, lógica y método. México: Trillas.
---, (1999b). La psicología humanista: un nuevo paradigma psicológico. México: Trillas.
---, (2004). Ciencia y Arte en la metodología cualitativa. México: Trillas.
---,  (en prensa). Evaluación cualitativa para una optimización gerencial. México: Trillas.
Miles, M. y Huberman A., (1994).  Qualitative data analysis: an expanded sourcebook, 2ª edic., Newbury Park, CA: Sage.
Pfaffenberger, B, (1988). Microcomputer applications in qualitative research, Newbury Park, CA: Sage.
Polanyi, M. (1966). El estudio del hombre. Buenos Aires: Paidós.
Popper, K., (1963). Conjetures and refutations.  Londres: Routledge.
Popper, K., (1977). Búsqueda sin término: una autobiografía intelectual. Madrid: Tecnos.
Popper, K. y J. Eccles, (1985). El yo y su cerebro. Barcelona:  Labor.
Prigogine I.– Stengers I. (1986). La nouvelle alliance: meta­morphose de la science. 2da edic., París: Gallimard.
Richards, T. J. y otros, (1994). Using computers in qualitative research, en: Denzin y Lincoln (ed), 2000.
Rogers, C. R., (1968). "Some thoughts regarding the current presuppositions of the behavioral sciences", en Coulson, W. y C. R. Rogers, Man and the Sciences of Man, Ohio: Merril.
Saussure, F. de (1931). Cours de linguistique générale. París: Payot.
Suppe, F., “Afterword-1977”,  (1977)en The structure of scientific theories, 2da edic., 617-730, Urbana, IL : University of Illinois Press.
---, (1979). La estructura de las teorías científicas (Actas del Simposio: Urbana, IL., EE.UU., marzo 1969), Madrid: Editora Nacional
Tesch, R. (1990). Qualitative research: analysis types and software tools. Nueva York: Falmes Press
Thuiller, P. (1975). La manipulación de la ciencia. Madrid: Fundamentos.
Weitzman,E. (2000). Software and qualitative research. En Denzin y Lincoln (ed), 2000.
Yin, R. (2003). Case study research; Design and methods. 3a edic. Thousand Oaks, CA: Sage.


*[1] El Dr. Miguel Martínez M. es Profesor Titular (Jubilado) de la Universidad Simón Bolívar de Caracas (Venezuela) y responsable de la Línea de Investigación “Epistemología y Metodología Cualitativa”.
 E-mail: miguelm@usb.ve; Página de Internet: http://prof.usb.ve/miguelm.
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
En esta página encontrarás contenidos relacionados con la investigación social, haz clip en el tema de tu interés y disfruta de la mejor información.
  Publicidad
Hoy habia 2 visitantes (6 clics a subpáginas) ¡Aqui en esta página!
=> ¿Desea una página web gratis? Pues, haz clic aquí! <=LA CIENCIA AL SERVICIO DE LA HUMANIDAD