339
La Investigación Científica Avanzada. Con Introducción a Los Programas de Investigación Científica; La Investigación Internivel y El Razonamiento Artificial. Primera Edición 2015 Roiman Valbuena Lógica Razón Suficiente Física Teórica Suficient Leyes Científicas Axiomática Lógica Hipótesis

La investigación científica avanzada primera edición 2015

  • Upload
    roiman2

  • View
    141

  • Download
    3

Embed Size (px)

Citation preview

Page 1: La investigación científica avanzada primera edición 2015

1

La Investigación Científica Avanzada.

Con Introducción a Los Programas de

Investigación Científica; La Investigación

Internivel y El Razonamiento Artificial.

Primera Edición 2015

Roiman Valbuena

Lógica

Razón

Suficiente

Física

Teórica

Suficient

Leyes

Científicas

Axiomática

Lógica

Hipótesis

Page 2: La investigación científica avanzada primera edición 2015

I

La Investigación Científica Avanzada.

Con Introducción a Los Programas de Investigación Científica;

La Investigación Internivel y El Razonamiento Artificial.

La Investigación Científica Avanzada.

Primera Edición Digital en Español.

Se prohíbe la reproducción total o parcial de esta obra, así como su tratamiento

informático, o su transmisión bajo ninguna forma o por cualquier medio, ya

sea electrónico, mecánico, por fotocopia, por registro u otros métodos, sin el

permiso previo y por escrito del Ing. Roiman Valbuena, titular del Copyright.

PRIMERA EDICIÓN EN ESPAÑOL 2015.

DERECHOS RESERVADOS. Copyright ©: MMXV

Por: Roiman Eduardo Valbuena Castro.

ISBN: (E pub) 978-980-12-8211-2.

Depósito legal: Ifi06120150042427.

Editado en Maracaibo; Estado Zulia; Venezuela.

[email protected]

[email protected]

@Roimanvalbuena

http://seguridaddigitalvenezuela.blogspot.com/

http://cencalzulia.blogspot.com/

Page 3: La investigación científica avanzada primera edición 2015

II

ACERCA DE LA INTUICIÓN EN LA CIENCIA

No es Científico aquel que, haciendo usufructo del método, con fe ciega y sin discernimiento

alguno lo sigue. Sino quien conociéndolo, está al tanto de sus bondades y limitaciones. Entonces,

emprende camino propio sabiendo que es éste el que construye al método y no al contrario. Pues,

el método, no es más que un largo y escabroso camino ya transitado por los procesos inherentes

a la ciencia. Es así como, desde este aparte del libro, en sus inicios, puedo afirmarles que no

existe tal cosa denominada Método Científico, si desea saber qué es esa entidad que emplea el

investigador para lograr su cometido, y cómo se consigue. Emprenda investigación propia sin

freno, vacilación ni limitación alguna. Cuando su objetivo sea alcanzado, voltee y observe el

sendero transitado, si se pregunta cómo llegó allí, sólo hay una respuesta posible: a través de la

Intuición y la experiencia, sólo con ellas es posible lograr descubrimientos sorprendentes, y sin

ellas, es imposible la ciencia. La intuición siempre ha sido y seguirá siendo, coautora y

codescubridora de maravillas científicas.

Escuche y siga a su intuición, ella puede ver y advertirle de cosas, representa el poder

máximo del intelecto a priori expresado en forma de aprehensiones. Es la intuición, a través de

flashes perceptivos generados en el inconsciente, la que construirá el proceso que lo guiará desde

el problema hasta su solución. Hacer caso a la intuición, es optar por seguir un conjunto de

acciones de nuestro genio interno, no consiste en meras sospechas, sino, en una facultad creadora

que todo hombre posee. Es percibir desde el inconsciente para proyectarlo sobre la mente

analítica, pues, la intuición no solo es primera a la razón, sino que es superior a ella.

La intuición no miente, se equivoca o explica, sólo orienta al espíritu y es base del accionar

del agente científico en la consecución de sus metas. Aporta la vía más expedita para lograr

descubrimientos, máximo trofeo del deporte científico. Isaac Asimov solía decir: La intuición es

el arte, propio de la mente humana, de la elaboración de la respuesta correcta, partiendo de

datos que son, en sí mismos, incompletos o incluso, engañosos. De esta manera doy la

bienvenida a los lectores, informándoles que, este libro, producto de 5 años de esfuerzo, no trata

únicamente de ciencia, sino también, de Intuición, Deducción e Inspiración.

Page 4: La investigación científica avanzada primera edición 2015

III

ACERCA DE LA INVESTIGACIÓN CIENTIFICA AVANZADA

Entiéndase por Investigación Científica Avanzada [ICA], a aquella, o aquel tipo de

indagación que parte desde un proyecto científico normal, incluyendo todas sus características

propias. En el cual, se agregarán conjeturas soportadas en el principio de duda razonable e

hipótesis más allá de cualquier cúmulo de datos, que no podrán ser modeladas sino por

algoritmos y mecanismos computacionales. Cuyos eslabones cognoscitivos darán luces a

descubrimientos por sí mismos imposibles desde el cerebro humano en su estructura natural.

Actuando donde la parálisis intelectual se haga presente. Logrando con ello, superar las

limitaciones que el cerebro biológico impone sobre el agente científico. Se pretende entonces,

lograr un cambio radical de las estructuras para producir conocimientos con el uso y aplicación

de una lógica superior a la tradicional, soportada sobre la Teoría Estadística de la Decisión y los

Razonamientos Bayesianos.

En vista de que la mente es la que define qué y quienes somos. Entonces, la recreación de

estados mentales por un agente artificial ayudaría a aumentar la percepción, la comprensión, el

entendimiento y la predicción, tendentes a superar las limitaciones del cerebro biológico. Serán

necesarios entonces, un conjunto de mecanismos que ayuden a perfeccionar tales procesos. El

Razonamiento Artificial; La Lógica Difusa; La Lógica Trivalente; Los Métodos Bayesianos o la

Teoría de Bayes y Las Cadenas de Markov; entre otros, son algunos de los procesos que se

detallan en este texto. La Investigación Científica Avanzada amerita de un nuevo hombre de

ciencia, aquel que a través de la intuición y la imaginación disciplinada, logre resultados que con

el método no se podrán. Pues, es imposible hacer ciencia con métodos definidos a priori. Para

lograr resultados sorprendentes a veces es necesaria en la experimentación, un toque de anarquía.

Este nuevo hombre, ha de operacionalizar un intrincado protocolo de captura de problemas,

escalando en unidades de razón y bajo el rigor y belleza de elegantes ecuaciones matemáticas.

No obstante, este tipo de investigación sólo ocupa una pequeña parte del contenido de este

libro. La representación de conocimientos de formas más avanzadas no solo se logra con la

aplicación de algoritmos computacionales embebidos dentro de una máquina. Por lo que también

se abordan temas sobre las teorías científicas explicativas, las leyes científicas, las explicaciones

puras y las investigaciones abstractas.

Page 5: La investigación científica avanzada primera edición 2015

IV

ACERCA DEL PORQUÉ DE ESTE LIBRO

Ningún descubrimiento viene solo ni nace porque quiere… se sobreviene producto de la

Causalidad Universal… donde cada cosa pasa porque tiene un motivo, ajeno al nuestro, para

ello… como solía decir David Hume: No existe evidencia cierta de que la causalidad sea propia

de este mundo. En cada descubrimiento concurre y opera una invisible fuerza que lo hace

aparecer cuando un científico, repentinamente, concibe una idea extraña que lo hace desviar del

camino. Lo somete y obliga a seguirla. El láser, el ADN y la Teoría de la Relatividad, nacieron

así. Como sensaciones realmente dadas y proyectadas mágicamente sobre el intelecto del ser

humano elegido para ello. En consecuencia, ciertos descubrimientos científicos y sus teorías,

indudablemente están fuera del alcance de la razón. Aunque afirmarles puedo, la irracionalidad

también es parte de la razón, pues ambas tienen lados opuestos en una misma escala.

Este libro pretende crear en el investigador novel, un espíritu filosófico acerca de la ciencia,

qué es, cómo esta se presenta y el cómo se le aborda. De no ser así, admitirá como válidas a

aquellas cosas que lo son sólo en apariencias, y a eso se le llama cientifismo prehistórico. Pues,

no es ni será descubridor quien, habiendo obtenido ciertos resultados, los acepta sólo por

sometimiento al yugo del método, ya que, si éste existe, y a través de él se obtuvo determinada

consecuencia, entonces aquello conseguido es válido. ¡No hay máxima más falsísima que esa!

Bien lo afirmaba Miguel de Cervantes: la falsedad tiene alas y vuela, y la verdad la sigue

arrastrándose, de modo que cuando la gente se da cuenta del engaño, ya es demasiado tarde.

El buen investigador no ha de subsumirse con fe ciega en sus instrumentos de recolección de

datos sin antes desconfiar de ellos. Son los principios de la lógica los que permitirán que los

juicios y los sentidos se calibren a través de la observación, tornando válidos a éstos

instrumentos y sabiendo siempre que, al conocimiento sólo es posible conseguirlo al final de la

cadena de razones. Cuando la mente hace uso de los principios de la lógica, es decir, opta por los

procedimientos del pensar, es capaz de encontrar atributos invisibles y subyacentes en el

fenómeno, será entonces cuando construya a través de ellos, cada uno de los eslabones que

conformarán la transcausalidad derivada de su propio método.

Un agente científico es aquel que asume su método como cierto, si y solo si, habiéndosele

presentado cierto cúmulo de datos, encuentra evidencias en su procesamiento y su razón es

sometida por la fuerza del convencimiento a través de la demostración. Aunque la demostración

Page 6: La investigación científica avanzada primera edición 2015

V

nunca da certeza de verdad, pues amerita de la certificación de un concepto con su hecho. Es la

única forma bajo la cual opera la ciencia, y si usted decidió dedicarse a la investigación

científica, entonces acepte, siga y sométase las reglas del juego. Si un investigador no sabe de

estadística, de lógica matemática, es incapaz de ejecutar razonamientos escalados, o desconoce

los principios de la teoría de la demostración, es mejor que abandone el juego inmediatamente.

Ya que, podría llegar a profesar falsa certeza, y en consecuencia, engañarse por semejanza sin

lograr conseguir un mínimo atisbo de verdad. Un arma falsa no es un arma en sí, simplemente

parece serla. Bien se dice, el hombre con la verdad se sosiega y satisface, solo si, esta se

presenta en correspondencia con los actos del entendimiento. Un entendimiento sutil, con

grandeza y capaz de mover cosas.

En el juego científico, una idea es una simple unidad de razón, por lo que nunca podrá actuar

sola. Ameritará de la concatenación e ilación con otras ideas intermedias ordenadas para

producir conocimientos. Un conjunto de ideas puede representar a un concepto, admitiéndosele a

éste como unidad descriptiva o mínima pieza que da inicio al proceso científico. No obstante, si

desea obtener resultados sensatos, deslíndese de aquella parsimoniosa e inútil rutina

pseudocientífica representada en las investigaciones descriptivas. Describir es sólo un paso del

método y no podrá separarse de él, la descripción no aporta profundidad de pensamiento, no

contrasta ni concatena, no hipotetiza, infiere o explica. Además de carecer de etapa alguna de

razonamiento. Describir por el simple hecho de hacerlo no es ciencia, entonces, la investigación

descriptiva carece de fuerza para semejante pretensión. Un científico es aquel que partiendo del

caos intelectual presente en el fenómeno, operacionaliza acciones tendentes a su ordenación

alejando a su paso el error, valiéndose únicamente de la explicación.

Siendo así, la descripción sin explicación es imposible que se convierta en ciencia, sólo sirve

para especificar cualidades, atributos o propiedades de objetos o personas, es decir, para admirar

la naturaleza de los eventos sin irrumpir en ellos, y observar por el mero acto de hacerlo, es

perder el tiempo. Sólo es posible convencer con conceptos científicos a través del acto

explicativo, y, nunca deberá someterse por fuerza la explicación de un hecho. Aquel que asume a

la descripción pura como un acto de creación de ciencia real, ciertamente no ha entendido los

principios básicos del quehacer científico, y como certificase Séneca: No hay viento favorable

para aquel barco que no sabe a dónde va.

Este libro presenta cuatro de los Programas de Investigaciones Científicas con los cuales se

proyectan eficaces resultados. Los Programas de Investigaciones Abstractas; Los de

Investigaciones Explicativas Puras; Los de Investigaciones Causales y Los de Investigaciones

Exploratorias. Además de dos de los procesos científicos más convincentes y poderosos de todos

Page 7: La investigación científica avanzada primera edición 2015

VI

los tiempos, la Experimentación Científica y los Métodos de la Física Teórica. Incluye también,

apartes dedicados a Los Experimentos Mentales y las Investigaciones Tecnológicas. Los

Programas de Investigación son secuencias de indagación divisibles en etapas, donde cada una

amerita de leyes diferentes o de teorías diferentes. En el proceso se les concatena a todas bajo el

Principio de Correspondencia. No hay resultados más impactantes en ciencias que los derivados

desde estos programas. Abstraer, comparar, discernir, hipotetizar y explicar, para en un final

retornar a la exploración de aquello inexplicable, conforman el conjunto de pasos de excelencia

para construir un quehacer científico productivo.

Debo recalcar, a estos Programas de Investigación lógicamente justifico, describo y explico,

pero no desarrollo una metodología directa para su abordaje, ello se llevará a cabo en una

segunda edición del texto, y con la rigurosidad ajustada a ciertos cánones, que a tales elegantes

operaciones ennoblecen. Pues, ameritan de un procedimiento lógico matemático que no se

aborda en la presente edición.

En otro sentido, las investigaciones de hoy han perdido fuerza con respecto a las del pasado, a

pesar de contar con un gran cúmulo de hechos y con toda la tecnología disponible, nos

encontramos encadenados a los mismos problemas. Esto es científicamente inexplicable, sin

embargo, la Inexplicabilidad tiene su lógica. En ocasiones es necesario cierto caos intelectual

dentro del proceso de construcción de la ciencia, la anarquía y cierto desorden intencional,

pueden en ocasiones sacar de contexto un evento, y comúnmente es la única forma de que éste

manifieste entidades o comportamientos emergentes. Entonces es cierto que la perturbación de

un sistema produce innovaciones científicas. De hecho, seguro estoy, de que es imposible la

existencia de un fenómeno universal o, entre el cielo y la tierra, que se resista a su explicación a

través de las matemáticas, pues los números nunca han sido buenos cómplices, ya que cuando se

les persigue y atormenta, comienzan a decirlo todo, nada lo callan.

En mis intentos por formar un nuevo tipo de investigador para el siglo XXI, objetivo,

analítico, detallista, experimentalista, mecanicista, determinista, teorista, que domine inducción y

deducción, además de la lógica demostrativa. Me he visto en la necesidad de hacerle entender el

cómo opera la mente, qué es el discernimiento y cómo funciona el intelecto. En ese sentido, el

hecho y su razón son combinados por la mente analítica en la conciencia para alterar el

conocimiento incrementando así el entendimiento. Pero el convencimiento se produce cuando la

mente, a través de la prueba, ha sido persuadida, pues es cuando se da una certificación de

verdad conforme a los actos del entendimiento. Tales hechos se dan a través de nociones

mentales que luego de procesadas, se convierten en potencias mentales de la inteligencia para

operar únicamente en la conciencia. Siendo así, un científico se transforma en un ser prisionero

Page 8: La investigación científica avanzada primera edición 2015

VII

de una idea suprema, para la cual no busca pruebas, sino, convencimiento. En razón de ello, y en

esa dirección, es que he querido presentar el siguiente esquema del libro.

Los primeros Cuatro Capítulos pretenden erosionar el pensamiento científico actual, tanto del

investigador novel como del experimentado. Donde, basado en una concepción científica

filosófica de la teoría de la mente, se podrá caracterizar cómo y porqué la lógica está presente

como ciencia del razonamiento. Según G. K. Chesterton; No puedes encontrar la verdad con la

lógica si no la has encontrado ya sin ella, por eso estudiamos en este libro, la teoría de la mente.

Más que una receta metodológica, que de hecho no la es, consiste en una guía para conectar los

engranajes de la ciencia con la mecánica de la mente. Si ya existe alguna forma de razonar del

investigador, ésta podrá ser reedificada con nuevos andamios para construir conocimientos a

través de una nueva forma de pensar y actuar en consecuencia. El investigador novel desconoce

ciertos procesos porque ignora la lógica, y la ignora porque en su formación le fue ocultada. No

obstante, toda investigación científica presupone sus principios, bajo ninguna razón los discute o

pone en duda, mucho menos los omite.

En la Sección [2.2] hago presentación de formas de adquirir conocimiento por demostración,

base y esencia de este texto. He querido introducir también, un aparte especial dedicado

únicamente a las Leyes Científicas [2.3 y 2.4]. Allí, se describen y manifiestan, de forma

figurativa y ordenada, toda una serie de acciones tendentes a la estructuración de explicaciones

basadas en modelos matemáticos legaliformes. Ya que, no hay forma más poderosa y

convincente de presentar resultados científicos satisfactorios, que cuando la extraña fuerza que

une a los agentes causales con los agentes efectores, es explicada con la sobriedad de un modelo

matemático escondido, subyacente, y fenomenológicamente invariante, sobre el evento aludido.

En ese sentido, en el aparte [2.5], presento una breve crítica sobre uno de los eventos de la

investigación social que me han inquietado toda la vida. Su incapacidad, o más bien, falta de

disposición, para estructurar leyes que describan, expliquen, y se anticipen a los eventos

comunes en las sociedades humanas. Sus científicos siempre han hecho inobservancia sobre

patrones causales. Se han centrado más en la construcción de conceptos, que en la predicción o

explicación de hechos. Y desde esta tribuna, con toda la humildad del mundo puedo afirmarles,

un concepto es un sustituto de muy, pero muy mala calidad, para una ley. Realmente me inquieta

observar el cómo pocas investigaciones sociales contradicen opinión manifiesta de otras.

Muchos de sus investigadores no quieren razonar debido al fanatismo, otros sencillamente no

pueden, y otros distintos no se atreven pues simplemente se han convertido en esclavos de su

propio método. Tanta coincidencia me hace pensar que existe una conspiración para tallarse un

lugar y perpetuarse convenientemente en esferas de poder académico.

Page 9: La investigación científica avanzada primera edición 2015

VIII

No obstante, y aunque innumerables son las críticas que tengo sobre su modelo, ciertamente

presenta características que de ser desarrolladas en completitud, podría conseguir las desideratas

de toda ciencia. El fenómeno social ha de separase un poco del probabilismo y acercarse más al

determinismo. Pues, todo lo que derive de la teoría de la probabilidad, es tan probablemente

verdadero como probablemente falso, si no son bien afinados sus mecanismos. Si bien sus obras

son deliciosas en cuanto a argumentaciones, y son elegantes en cuanto a sus desarrollos

expositivos, carecen de los grados de corroboración necesarios y suficientes para soportar tales

cadenas de razones. Es peldaño más bajo de la escalera de la ciencia es operar con variables, y el

más alto, el explicar con teorías soportadas por leyes, entonces, sería bueno que el científico

social comience a subir la escalinata.

En la Sección [3.2.3] presento antología sobre uno de los eventos científicos más polémicos

de todos los tiempos, El Problema de Superponer Inducción y Deducción, fuente de diatriba

histórica entre el cualitativismo y el cuantitativismo. Allí se explica por qué la inducción como

método en el cualitativismo, ha consistido en un mal proceso para el abordaje de la ciencia. Un

razonamiento de este tipo contiene sicología pero resulta indemostrable a través de los procesos

de la lógica. Ambos pasos, Inducción y Deducción, son necesarios en la ciencia y no deben

superponerse el uno sobre el otro, sino, uno después del otro.

El Capítulo V es el que realmente da el merecido nombre al libro: La Investigación Científica

Avanzada. Allí se presenta el razonamiento artificial y la secuencia de algoritmos que hacen

posibles las grandes tecnologías de hoy. Si la razón del ser humano funciona bajo combinaciones

de presencia/ausencia de señales eléctricas, tal como la secuencia de programación de una

computadora, entonces ambos son análogos. Si el corazón humano actúa como una maquina

difusa que interpreta patrones con etiquetas difusas basadas en la química más que en la

administración de señales, entonces ha de existir, al menos un método para interpretarlas. El

cerebro biológico realmente se ha convertido en un obstáculo para el progreso de la ciencia del

siglo XXI. Siendo así, era necesario introducir esta, aunque no nueva, forma de investigación.

Los Capítulos VI y VII aportan otra novedad del texto, el cómo se visualiza un problema

desde la mente del científico y el cómo abordar un proyecto para la obtención de resultados

basados en leyes y teorías científicas explicativas. Puesto que una teoría científica es una cadena

de deducciones o postulados lógicos que se usan para explicar todo lo que opera, interacciona o

pasa en determinada dirección sobre un evento, me permito expresar que nada de ello se ha

dejado en blanco o ha sido escrito por meros caprichos, ya que, nadie entiende algo a menos de

que crea en ello, entonces le será necesario transformar ideas en hechos, y para eso son las

teorías. El proceso teorizador está aquí porque el método tradicional ha estado presentando desde

Page 10: La investigación científica avanzada primera edición 2015

IX

hace algún tiempo, evidentes limitaciones, ha logrado saturar bibliotecas enteras con literatura

gris que en ocasiones sólo el autor ha leído.

Ha creado caos y confusión dentro de sus propias estructuras formales de construcción de

ciencia y los descubrimientos prácticamente han desaparecido. El cientifismo sofista de

escritorio ha dado pie a que muchos de los investigadores de hoy, no logren distinguir entre un

marco teórico y una perspectiva teórica; entre tesis y teoría, entre teoría conceptual y teoría

axiomatizada, entre ecuación y fórmula, entre pensar y pensamiento, entre procedimiento

estadístico y prueba estadística. Entonces, no hay fuerza más poderosa que la unión de una teoría

y una ley en una secuencia de explicación.

En los Capítulos VIII, IX y X, se presentan las formas más avanzadas para hacer

descubrimientos y reproducir conocimientos. Las Teorías Científicas Explicativas y sus

Métodos, además de los procedimientos para la Axiomatización y formulación de ecuaciones a

través de ellas. Se hace introducción a la fenomenología desde el punto de vista intuitivo con los

Métodos de la Física Teórica y sus ecuaciones, incluyendo un breve aparte sobre los Sistemas

Físicos y la Causación Universal.

En el Capítulo X, hago introducción a la Investigación Experimental, considerada como la

investigación científica por excelencia. En la Sección [10.2], ejecuto análisis sobre ciertas

consideraciones que han de estar presentes entre la observación y la experimentación. Por

último, en la Sección [10.10], afronto el abuso en el uso y aplicación de las escalas de Likert,

hago introducción de un decálogo de los porqués no han de usarse, pues no resisten el más

mínimo sometimiento a prueba, han servido más para multiplicar el número de errores que para

descubrir verdades. Más que un instrumento de recolección de datos, se ha convertido en

herramienta de deformación de resultados científicos. Tal aberración metodológica ha de

subsanarse en lo inmediato.

Intencionalmente, he omitido aquellas extensas pruebas de demostraciones, así como los

análisis estadísticos de la experimentación científica. Ello podrán apreciarlo, con la elegancia,

majestuosidad y firmeza que caracterizan a una operación de razonamiento lógico matemático

direccionada sobre la explicación y demostración de hechos, en una segunda edición del texto. El

contenido total del libro presenta un acompañamiento representado por más de 300 citas a pie de

página, muchas de ellas contienen digresiones, otras profundizan y aclaran la temática que se

aborda. Léalas, están allí por algo, es la mejor forma de interacción autor – lector que existe.

Fueron escritas en lenguaje técnico, exhaustivo y no complejizante. Presentan ejemplos y

bibliografías de excelencia, en fin, este libro es para ser meditado, trata más de educación

Page 11: La investigación científica avanzada primera edición 2015

X

científica que de investigación, algunos apartes habrán de ser releídos, pero al final les aseguro,

el investigador que comenzó a leerlo, no será el mismo cuando finalice. Si es así, entonces se

habrá cumplido el objetivo, erosionar el pensamiento científico actual.

En ocasiones me han dicho, y de hecho lo dicen bien, que estos procesos para hacer ciencia

son demasiado complejos como para ser adoptados en ciertas universidades, que exponer estos

criterios a una comunidad científica subdesarrollada, es decir, que presenta muy pocos

descubrimientos y afirma que investigar es escribir artículos científicos, amerita de cierto toque

de locura. Pues bien, he aceptado la crítica. Si alguien no está de acuerdo conmigo es porque no

estamos mirando al mismo lado ni con los mismos ojos, tampoco pretendo convertirme en ojos

de otros, no todos observamos los acontecimientos científicos a través de un vidrio del mismo

color. Dejemos entonces, que el futuro juzgue a cada uno por sus logros y asumo tal toque de

locura adhiriéndome a lo que alguna vez planteó Friedrich Nietzsche: Aquellos que eran visto

bailando, eran considerados locos por quienes no podían escuchar la música.

Page 12: La investigación científica avanzada primera edición 2015

XI

ACERCA DEL AUTOR

Valbuena Castro Roiman Eduardo: Ingeniero en Electrónica Mención Telecomunicaciones,

Universidad Rafael Belloso Chacín. Maracaibo, Estado Zulia, Venezuela. Analista de Seguridad

en Redes de Telecomunicaciones e Investigador sobre Delitos Informáticos. Egresado del Centro

Venezolano Americano del Zulia (CEVAZ) año 2003. Diplomado en Docencia Universitaria,

Universidad del Zulia 2008. Profesor en la Universidad Nacional Experimental Politécnica de la

Fuerza Armada UNEFA. Profesor Asociado en la Universidad José Gregorio Hernández. Ex

Docente en el Instituto Universitario Politécnico Santiago Mariño y Universidad del Zulia.

Especialista en Docencia para la Educación Superior; Tesis Mención Publicación (Universidad

del Zulia). Maestría en Telemática en Universidad Rafael Belloso Chacín (Tesis Pendiente).

Escolaridad Finalizada en la Especialización en Metodología de la Investigación, Universidad

Rafael Urdaneta (URU). Aficionado a los estudios de la Física, Mecánica Clásica y Relativista,

Teoría Electromagnética, Física Teórica y Fenomenología Intuitiva aplicada a los Métodos de la

Física Teórica. Así como a la Filosofía de la Ciencia y la Investigación Científica Productiva.

- Director Académico del Centro de Capacitación Alternativa, CENCAL, C.A.

http://cencalzulia.blogspot.com/ : Adiestramiento en el Tratamiento de la Ciencia.

- Analista de Seguridad y Editor del blog de Seguridad Informática:

http://seguridaddigitalvenezuela.blogspot.com/ : Especializado en Modelos Matemáticos

Criptográficos y de Seguridad en Redes de Telecomunicaciones.

- Conocimientos Avanzados en Ingeniería de Ancho de Banda - Interfaces Aire para Redes

Celulares CDMA/ TDMA/ OFDM / HSDPA/ EVDO / Planificación y Optimización de

Radiofrecuencias / Transmisión de Datos y Proyectos de Investigación y Desarrollo

Tecnológico. Dicta cursos de Seguridad Informática y Telecomunicaciones, es invitado

comúnmente a ponencias sobre el tema. Colaborador activo para las páginas Web Segu-info

de Argentina y Hackhispano de España.

- Asesor Científico en la estructuración de artículos para revistas clase A.

- Investigador en Ciencias de la Inteligencia Artificial; Modelos Estadísticos para

Razonamientos Aproximados y Teoría Estadística de la Decisión Científica.

- Investigador sobre Procesos de Optimización Lineal y Combinatoria para la Transmisión de

Datos.

Actualmente trabaja en los siguientes proyectos:

- Segunda Edición del Libro (Ebook): La Investigación Científica Avanzada;

- Primera Edición del Libro (Ebook): Teoría y Experimentos Científicos (80% de Avance);

- Primera Edición del Libro (Ebook): Metodología de la Investigación Tecnológica.

Page 13: La investigación científica avanzada primera edición 2015

12

LA INVESTIGACIÓN CIENTÍFICA AVANZADA

ÍNDICE DE CONTENIDO

ACERCA DE LA INTUICIÓN EN LA CIENCIA .................................................................. II

ACERCA DE LA INVESTIGACIÓN CIENTIFICA AVANZADA ................................. III

ACERCA DEL PORQUÉ DE ESTE LIBRO ...................................................................... IV

ACERCA DEL AUTOR ........................................................................................................ XI

CAPÍTULO I: La Lógica en la Investigación Científica

1.1.- La Lógica en la Investigación Científica ......................................................................... 18

1.2.- Lógica de Enunciados ...................................................................................................... 23

1.3.- Lógica de Predicados ....................................................................................................... 27

1.4.- Lógica de Clases .............................................................................................................. 30

1.5.- Lógica de Relaciones ....................................................................................................... 32

1.6.- El Principio de Identidad ................................................................................................. 36

1.7.- El Principio de No Contradicción .................................................................................... 40

1.8.- El Principio o Ley del Tercero Excluido ......................................................................... 44

1.9.- El Principio de la Razón Suficiente ................................................................................. 47

1.10.- El Principio de Correspondencia ................................................................................... 50

CAPÍTULO II: Conocimiento, Ideas y Leyes Cientificas

2.1.- El Conocimiento y las Ideas ............................................................................................ 54 2.1.1.- El Conocimiento Inmediato – Directo o Intuitivo .............................................................. 56

2.1.2.- Los Conocimientos A Priori y A Posteriori ....................................................................... 58

2.2.- El Conocimiento Demostrativo ........................................................................................ 58

2.3.- Acerca de las Leyes Científicas ....................................................................................... 61

2.4.- Modelo Kuipers de Reducción de Leyes por Teorías ...................................................... 65

2.5.- Sobre la Im/posibilidad de Leyes Científicas en la Investigación Social ........................ 68

CAPÍTULO III: Una Ciencia Multimetódica

3.1. – El Método Científico Informativo .................................................................................. 75 3.1.1.- Periodismo Científico y Lógica Argumentativa ................................................................. 79

3.2 – El Método Hipotético Deductivo Vs. El Método Hipotético Inductivo .......................... 81 3.2.1.- El Método Hipotético – Deductivo o Método de las Hipótesis ..................................... 85

3.2.2.- El Método Hipotético – Inductivo ................................................................................ 86

3.2.3.- El Problema de Superponer Inducción y Deducción ..................................................... 88

CAPÍTULO IV: Razonamiento e Hipótesis Científicas

4.1.- Sobre la Relación: Razonamiento – Hipótesis ................................................................. 94

Page 14: La investigación científica avanzada primera edición 2015

13

4.1.1.- Las Hipótesis Heurísticas .................................................................................................. 98

4.1.2.- Las Hipótesis Inductivas y Deductivas .............................................................................. 99

4.1.3.- Conexión de Hipótesis ..................................................................................................... 100

4.1.4.- Hipótesis Abductivas; Razonamiento Abductivo e Hipótesis Diagnósticas .................... 102

4.2.- Un Pequeño Abordaje de las Inferencias Científicas ..................................................... 106 4.2.1.- Modelo Stock de Clasificación de Inferencias ................................................................. 108

4.2.1.1.- Inferencias Inmediatas.............................................................................................. 108

4.2.1.2.- Inferencia Inmediata Simple por Oposición ............................................................. 108

4.2.1.3.- Inferencia Inmediata Simple por Conversión ........................................................... 109

4.2.1.4.- Inferencia Inmediata Simple por Permutación ......................................................... 109

4.2.1.5.- Inferencia Inmediata Compuesta: Conversión por Negación ................................... 110

4.2.1.6.- Inferencia Inmediata Compuesta: Conversión por Contraposición .......................... 111

4.2.1.7.- Sobre las Inferencia Mediatas Conjuntivas y Disyuntivas ....................................... 111

CAPÍTULO V: El Razonamiento y la Ciencia más allá del ser Humano

5.1.- El Razonamiento Artificial y el Concepto de Investigación Científica Avanzada ........ 115

5.2.- La Lógica Polivalente: Lógica Trivalente [L3] ............................................................. 118

5.3.- La Lógica Polivalente: Lógica Difusa ........................................................................... 120 5.3.1.- El Análisis Difuso y la Teoría de las Medidas Difusas .................................................... 123

5.4.- La Lógica Polivalente: Lógica Computacional .............................................................. 126

5.5.- Sobre el Razonamiento Artificial ................................................................................... 128 5.5.1.- El Razonamiento Bayesiano ............................................................................................. 128

5.5.2.- Razonamiento Basado en Procesos Markovianos ............................................................ 131

5.5.3.- Procesos de Decisiones Markovianos .............................................................................. 132

5.5.4.- Teoría Estadística de la Decisión: Procesos de Poisson ................................................... 133

CAPÍTULO VI: Definición y Acercamiento al Problema Científico

6.1.- Acerca del Problema en la Ciencia ................................................................................ 136 6.1.1.- Lo Abstracto y las Analogías en el Problema .................................................................. 141

6.1.2.- Sobre la Redacción del Problema ..................................................................................... 142

6.2.- Un Acercamiento a los Dilemas .................................................................................... 145

CAPÍTULO VII: Los Tipos de Programas de Investigaciones Científicas

7.1.- Los Programas de Investigación Científica y la Investigación Internivel ..................... 148

7.2.- Los Programas de Investigación Abstracta .................................................................... 150 7.2.1.- El Conocimiento Abstractivo ........................................................................................... 152

7.2.2.- Clases Abstractas y Elementos Abstractivos .................................................................... 152

7.2.3.- Intuición, Abstracción y Descubrimiento Científico ........................................................ 153

7.2.4.- Ciencias Abstractas y Ciencias Concretas ........................................................................ 154

7.3.- Los Programas de Investigación Explicativos Puros ..................................................... 156 7.3.1.- Las Explicaciones Nomológicas [Deductivas e Inductivas] ............................................ 158

7.3.2.- Las Explicaciones Probabilísticas .................................................................................... 159

7.3.3.- Las Explicaciones Funcionales ........................................................................................ 160

7.3.4.- Las Explicaciones Genéticas ............................................................................................ 161

7.3.5.- Las 3 Condiciones de Inexplicabilidad ............................................................................ 162

Page 15: La investigación científica avanzada primera edición 2015

14

7.4.- Los Programas de Investigación Explicativos – Causales ............................................. 164

7.4.1.- Causación Probabilística .................................................................................................. 166

7.4.2.- Causación Hacia Abajo: Downward Causation ............................................................... 168

7.4.3.- Causación hacia Arriba: Upward Causation..................................................................... 168

7.5.- Los Programas Exploratorios de Investigación ............................................................. 170 7.5.1.- Estadio 1: La Mente Exploratoria del Científico .............................................................. 171

7.5.2.- Estadio 2: La Descomposición del Problema ................................................................... 172

7.5.3.- Estadio 3: El Diseño de Investigación Exploratoria ......................................................... 173

7.5.4.- Estadio 4.- Exploración y Mecanismos Estadísticos ........................................................ 174

7.5.4.1.- Análisis de Componentes Principales ...................................................................... 175

7.5.4.2.- Análisis Factorial de Correspondencia y Confirmatorio .......................................... 176

7.5.4.3.- Análisis de Correspondencia Múltiple ..................................................................... 177

CAPÍTULO VIII: Las Teorías Científicas y las Teorías Tecnológicas

8.1- Las Teorías Científicas Puras .......................................................................................... 180

8.2.- El Método Teórico ......................................................................................................... 186

8.3.- Las Teorías en los Modelos Cuantitativos y Cualitativos .............................................. 192

8.4.- Criterios Lógicos para Estructurar Teorías Científicas .................................................. 194

8.5.- El Método Axiomático o Método Demostrativo ........................................................... 195

8.6.- Introducción a los Métodos Mixtos de Investigación .................................................... 204

8.6.1.- Diseños Mixtos Paralelos ................................................................................................. 206

8.6.2.- Diseño Mixto de Conversión ............................................................................................ 207

8.6.3.- Diseño Mixto Multinivel .................................................................................................. 207

8.6.4.- Diseño Completamente Integrado .................................................................................... 208

8.7.- La Teoría en los Modelos Mixtos .................................................................................. 209

8.8.- Las Teorías Científicas en la Investigación Tecnológica. ............................................. 214 8.8.1.- Las Teorías Tecnológicas Sustantivas .............................................................................. 215

8.8.2.- Las Teorías Tecnológicas Operativas ............................................................................... 216

8.9.- El Conocimiento Tecnológico y sus Tipos .................................................................... 220

8.10.- Las Ingenierías y La Investigación Tecnológica ......................................................... 226

CAPÍTULO IX: El Método de la Física Teórica

9.1.- La Física Teórica ............................................................................................................ 236 9.1.1.- La Energía ........................................................................................................................ 240

9.1.2.- La Materia ........................................................................................................................ 240

9.1.3.- El Tiempo ......................................................................................................................... 241

9.1.4.- El Espacio ......................................................................................................................... 242

9.1.5.- La Física Teórica según el Enfoque Centrado en el Fenómeno ....................................... 243

9.1.6.- El Enfoque Constructivo de la Física Teórica .................................................................. 246

9.1.7.- El Enfoque Abstracto de la Física Teórica ....................................................................... 247

9.1.8.- El Enfoque Unificacionista de la Física Teórica .............................................................. 248

9.2.- Los Sistemas Físicos y la Causación Universal ............................................................. 250 9.2.1.- Los Sistemas Físicos ........................................................................................................ 251

Page 16: La investigación científica avanzada primera edición 2015

15

CAPÍTULO X: Introducción a La Investigación Experimental

10.1.- El Método Científico Experimental ............................................................................. 255

10.2.- Consideraciones sobre la Observación y el Experimento. ........................................... 261

10.3.- Los Experimentos Mentales. ........................................................................................ 264 10.3.1.- Los Experimento Mentales Destructivos........................................................................ 266

10.3.2.- Los Experimentos Mentales Constructivos .................................................................... 267

10.3.3.- El Modelo Conjunto: Destructivo – Constructivo .......................................................... 267

10.3.4.- Experimentos Mentales Mediativos ............................................................................... 267

10.3.5.- Experimentos Mentales Conjeturales ............................................................................. 267

10.3.6.- Experimentos Mentales Directos .................................................................................... 268

10.3.7.- El Gato de Shrodinger .................................................................................................... 269

10.3.8.- Galileo Galilei y la Caída Libre ..................................................................................... 271

10.3.9.- David Hilbert y su Hotel Infinito ................................................................................... 273

10.3.10.- El Cerebro en una Cubeta ............................................................................................. 275

10.4.- El Control Experimental. ............................................................................................. 278

10.5.- Aleatorización Experimental ....................................................................................... 281 10.5.1- El Método de Control Estadístico ................................................................................... 283

10.6.- Los 5 Cánones de Jhon Stuart Mill .............................................................................. 284 10.6.1- Método de la Concordancia ............................................................................................ 284

10.6.2- Método de la Diferencia .................................................................................................. 287

10.6.3.- Método Conjunto Concordancia – Diferencia ................................................................ 288

10.6.4.- Método de los Residuos ................................................................................................. 290

10.6.5.- Método de las Variaciones Concomitantes .................................................................... 291

10.7.- La Validez Experimental. ............................................................................................ 294 10.7.1.- La Validez Interna ..................................................................................................... 295

10.7.1.1.- Amenazas a la Validez Interna ............................................................................... 295

i. La Historia: ........................................................................................................................ 295

ii. La Maduración: ................................................................................................................. 296

iii. El Efecto de las Pruebas: ................................................................................................... 296

iv. Sesgo en la Selección: ....................................................................................................... 296

v. Mortalidad: ........................................................................................................................ 296

vi. Regresión Estadística: ....................................................................................................... 297

vii. Ambigüedad sobre la Dirección de las Inferencias Causales: ..................................... 297

10.7.2.- La Validez Externa ......................................................................................................... 297

10.7.2.1.- Amenazas a la Validez Externa .............................................................................. 298

i. Sesgo en la Selección ........................................................................................................ 298

ii. Selección de Estudiantes ................................................................................................... 298

iii. Sesgo del Voluntario ......................................................................................................... 299

iv. Generalización de Entornos de Laboratorio ...................................................................... 299

v. Las Replicaciones Exactas ................................................................................................ 299

vi. Las Replicaciones Conceptuales ....................................................................................... 299

vii. Las Replicaciones Sistemáticas ................................................................................... 300

viii. Fallas en la Descripción Explícita de la Variable Independiente ................................ 300

ix. El Efecto Hawthorne ......................................................................................................... 300

x. La Inadecuada Operacionalización de las Variables Dependientes .................................. 300

xi. Efectos Interactivos de Factores Extraños Vs. Tratamientos Experimentales .................. 300

10.8.- El Diseño de Experimentos. ......................................................................................... 302 10.8.1.- Tipos de Diseños en Investigación Experimental ..................................................... 302

Page 17: La investigación científica avanzada primera edición 2015

16

10.8.2.- Diseños Experimentales Verdaderos e Investigación Cuasi Experimental ............... 302

10.8.3.- Diseños Ex - Post – Facto ......................................................................................... 303

10.9.- Clasificación de los Diseños Experimentales. ............................................................. 307 10.9.1. Diseños Intrasujetos .................................................................................................... 307

10.9.2.- Diseños Intersujetos .................................................................................................. 308

10.9.3.- Diseños Factoriales ................................................................................................... 310

10.9.4.- Diseño Experimental de Caso Único (N=1) .............................................................. 312

10.10.- Encuesta Vs. Experimento. La Falibilidad de las Escalas de Likert. ......................... 315

BIBLIOGRAFÍA .................................................................................................................... 324

Page 18: La investigación científica avanzada primera edición 2015

17

CONTENIDO DEL CAPÍTULO

1.1.- La Lógica en la Investigación Científica

1.2.- Lógica de Enunciados

1.3.- Lógica de Predicados

1.4.- Lógica de Clases

1.5.- Lógica de Relaciones

1.6.- El Principio de Identidad

1.7.- El Principio de No Contradicción

1.8.- El Principio o Ley del Tercero Excluido

1.9.- El Principio de la Razón Suficiente

1.10.- El Principio de Correspondencia

La Investigación Científica Avanzada

C

A

P

Í

T

U

L

O

I

La Lógica en la Investigación Científica

La lógica supone una separación entre sujeto y objeto, por lo tanto, la lógica no es la

sabiduría definitiva.

Robert Pirsig.

Page 19: La investigación científica avanzada primera edición 2015

18

1.1.- La Lógica en la Investigación Científica

a lógica consiste en el estudio tanto de las formas válidas como inválidas de

argumentación, demostración y prueba. Se divide en lógica formal y lógica dialéctica

<<denominada también lógica informal>> Immanuel Kant (1819) en su obra The

Logic, la dividió en analítica y dialéctica1. Es así como, en el cotidiano devenir de la

investigación científica, la lógica formal plantea esencialmente la puesta en práctica de la

capacidad que posee el investigador de resolver problemas rápidamente y sin ayuda de un

tercero, ocupándose de las demostraciones y del pensamiento ordenado. Bajo estas

consideraciones, es suficiente con emplear el razonamiento y el sentido común2 con ciertos

grados de profundidad para la consecución de resultados sensatos.

Desde la división de la filosofía, la lógica formal ha ocupado un lugar importante.

Encargándose del estudio del pensamiento humano y sus leyes, habiendo orientando sobre ellos,

estructuras, métodos, pasos y argumentaciones, que lo condujesen de forma inequívoca a la

cristalización de conocimientos nuevos y lo alejasen de todo aquel erróneo sendero al albor del

maravilloso camino del descubrimiento y la verdad… es por ello que Dios da al hombre alguna

luz con que discernir lo verdadero de lo falso3…

La lógica se organizó en la antigüedad desde Aristóteles4, considerado como el precursor de

la investigación científica tal y como hoy se le conoce, quien además, esquematizó el lenguaje

1 Véase p. 17 de la obra. La analítica se pone de manifiesto por la descomposición de todas las operaciones intelectuales que tienen lugar en el

pensamiento en general; es, pues, una analítica de la forma del entendimiento y la razón. La lógica analítica es estudiada por la filosofía analítica, trata de la argumentación, el análisis del lenguaje y el rigor lógico con el que éste es expresado. A la lógica dialéctica la denomina lógica de la apariencia, y que es resultante de un simple abuso de la analítica. Este abuso consiste en volver solamente la forma lógica, para con ello simular que se está trabajando con conocimiento verdadero, en el que siempre los elementos han de tomarse de conformidad con los objetos por razón de contenido. A la dialéctica por su lado, se le asocia a los signos y reglas según las cuales es posible saber si una cosa conforma o no, con los criterios formales de verdad. 2 Al respecto, Kant op, cit. Afirmaba: La lógica no puede ser por más tiempo un producto del sentido común; el sentido común es la facultad de

percibir las reglas del conocimiento de un modo concreto (en aplicación), mientras que la lógica debe ser la ciencia de las reglas del conocimiento en abstracto. 3 “Al habernos dado Dios a cada uno alguna luz para discernir lo verdadero de lo falso, no hubiera yo creído tenerme que contentar un solo

momento con las opiniones de otro, si no me hubiese propuesto emplear mi propio juicio para examinarlas cuando fuera oportuno”. René Descartes. Discurso del Método. 4 Refiérase a: Aristóteles: Tratados de Lógica. Traducido por: Prof. F. Larroyo. México. 1969. Otra obra de gran importancia y con algunas

secciones en inglés: Le Blond, J. M. (1973). Logique et Methode Chez Aristotele. Tercera Edición, Vrin. Paris.

L

Vivimos en un mundo Newtoniano de la Física de Einstein regida por la lógica de Frankenstein.

David Russell.

La razón misma es falible, y esta falibilidad debe encontrar un lugar en nuestra lógica.

Nicola Abbagnano.

Page 20: La investigación científica avanzada primera edición 2015

19

natural de los humanos emplazado a la construcción de juicios, conceptos y razonamientos.

Desde sus inicios ha servido como Principio Antrópico5 tanto para la religión como para las

ciencias. Más tarde en la historia, Russell y Whitehead6, proyectarían sobre ella el uso de un

lenguaje simbólico, tal como el empleado en las matemáticas y encaminado a la expresión de

ideas del pensamiento. La lógica se circunscribe entonces, al estudio de las diversas formas y

arquitecturas del pensamiento. Su objetivo; hacerlo correcto, válido y coherente. Para ello

encadena estructuras mentales aisladas haciéndolas fuertes y con gran poder deductivo, se avoca

entonces sobre la derivación de principios verdaderamente racionales y concluyentes.

Consiste en una disciplina científica cuyo corolario se proyecta sobre el estudio de las formas

Multivariadas de los pensamientos científicos, así como, sobre la validez de sus razonamientos.

Suppes (1999, p. 3) afirma, la lógica es la teoría del buen razonamiento, estudiar lógica no solo

ayuda a razonar bien, sino que permite además entender, el cómo opera la razón. Para sus

efectos, las técnicas de la lógica son tanto abstractas como rigurosas. Son abstractas puesto que

se concentran en propiedades particulares del razonamiento.

Así como, su rigurosidad radica en intentar definir todos los términos usados7, lo que

implica para el científico, la adquisición de una terminología que pueda considerarse seria. Su

meta es proporcionar un conocimiento profundo de lo que se está haciendo. Como afirmara

apropiadamente Bunge (1985)… la investigación científica presupone los principios de la

lógica…no los discute... (p. 29).

Las ciencias fácticas necesitan ir más allá de la simple aplicación de los sistemas lógicos para

confirmar sus hipótesis, para ello son necesarios la observación y el experimento. Aunque el

empirismo no está presente en los teoremas lógicos y matemáticos por tratarse de ciencias

ideales, su inferencia deductiva alimenta de significados al conjunto de conceptos que envuelven

a una teoría. Es allí donde la lógica presenta la coherencia necesaria, y que usada junto a la

experiencia, están en condiciones de mostrar vestigios de que la hipótesis planteada sea

medianamente aceptable sobre el hecho fáctico al cual se circunscribe.

No obstante, no será posible separarse del hecho, de que tal hipótesis pueda ser sustituida por

5 La Antropía como principio, siempre ha sido un supuesto teórico mediante el cual, todo el orden del universo pareciese destinado a colaborar

en la aparición y posterior desarrollo del hombre en el universo. <<No confundir con Entropía>>. Todo suceso universal para la Antropía, es explicable y asociable al perfeccionamiento del entorno que propicie la aparición de la raza humana, muy similar a la teoría de la Panspermia. Se ha hecho uso extenso de él, por parte tanto de teólogos como por hombres de ciencia. La lógica, por originarse en la mente humana, pareciese subconscientemente estar asociada a este principio. 6 Russell, Bertrand y Whitehead, Alfred. (1910-1912-1913). Principia Mathematica. Véase.

7 Srinagesh (2006); ofrece algunas recomendaciones basadas en las reglas de definición en lógica, para que el investigador preestablezca y

delimite el significado de los términos que empleará en su trabajo, además del cómo desea que éstos sean interpretados. Explica… cada definición consiste en dos partes. A) el término o grupo de estos que han de ser definidos, denominados definiendum. B) la palabra, o grupo de estas que harán la definición, conocidas como definiens. En la exposición de conclusiones no debe quedar duda alguna del significado y contexto exacto que se hará mención. Condición que permite un entendimiento más profundo de las circunstancias que rodean al fenómeno.

Ro

iman

Val

bu

ena:

La

Lógi

ca e

n la

Inve

stig

ació

n C

ien

tífi

ca

Page 21: La investigación científica avanzada primera edición 2015

20

otra en mejores condiciones de explicar el segmento de la realidad en estudio. Permitiendo así, el

enriquecimiento del acervo hacia la acumulación de conocimientos. Los científicos formales se

centran en el plano de la demostración o prueba de ciertos teoremas, posteriormente, los

científicos de las ciencias fácticas emprenderán acciones tendentes a la acumulación de

elementos probatorios suficientes que les permitan verificar las hipótesis contenidas en tales

teoremas.

La lógica es una ciencia que, en mayor o menor cuantía, está presente en todas las demás.

Asignando grados de corroboración que hacen que toda proposición direccionada sobre

determinada área factual, no solo sea coherente, sino también, científicamente demostrable. Esta

aporta las normas bajo las cuales se rige la investigación científica y su método8. A la lógica

formal se le asume, como el raciocinio suficiente y condicional, que presenta estricta coherencia

cronológica mental, entre una verdad del tipo formal, y otra del tipo material basada en el

principio de la evidencia.

La lógica formal es una ciencia formal, y como tal, estudia los elementos que dan lugar a las

demostraciones e inferencias válidas en la investigación científica. De hecho, un problema

científico es básicamente una confusión lingüística con propiedades subsanables a través del uso

de la lógica. Es ésta la que estudia el significado y qué desea el hombre expresar con el lenguaje.

Opera a través de la interrelación de argumentos en su estructura, obviando el contenido

discursivo y el lenguaje utilizado, así como el objeto a lo que el estudio haga referencia. Se

extiende sobre el estudio de conexiones correctas entre las proposiciones, argumentos, o juicios

de un razonamiento.

Al respecto, Piquer (1781) argumenta… las verdades primitivas en cada ciencia pertenecen a

la razón y no al raciocinio. Puesto que no son lo mismo, son distinguibles entre sí por el hecho

que la razón, aunque incluye raciocinio, se extiende a otras cosas que no lo son, entrando hasta el

plano trascendentalista. El raciocinio no tiene ese alcance, sólo es posible aplicarlo sobre objetos

o cosas. Es así como, y según la filogénesis del razonamiento humano, el proceso de

investigación científica se guía por los principios operativos de la lógica, incluyendo sus

proyecciones inductiva y deductiva. No obstante, hay científicos cuyo trabajo gira en torno al

sentido común y la experiencia, sin haber estudiado nunca la lógica.

Al plantear sus resultados, hacen uso de aserciones, similares a las del lenguaje científico y

producto del proceso de razonamiento, presentando este, similitudes con el lenguaje de la lógica,

8 <<La lógica en uso es más propia para conservar y perpetuar los errores que se dan en las nociones vulgares que para descubrir la verdad; de

modo que es más perjudicial que útil>> Esta frase se corresponde con el aforismo 12 de Francis Bacon. Quien siempre se opuso al uso de la lógica derivada de los silogismos aristotélicos en la ciencia. Aparece en Novum Organum. Véase.

Ro

iman

Val

bu

ena:

La

Lógi

ca e

n la

Inve

stig

ació

n C

ien

tífi

ca

Page 22: La investigación científica avanzada primera edición 2015

21

¿acaso eso no es un tipo de lógica?9 Desde sus inicios, en la lógica se optó por el estudio de los

diversos métodos y principios que le permitiesen diferenciar entre las formas correctas e

incorrectas de razonamiento. Marcando siempre un contraste entre la empleada en la

investigación científica y la usada en la dialéctica cotidiana. A la lógica informal o dialéctica, le

corresponde el uso de un lenguaje coloquial no simbólico, es la lógica que usa el ser humano en

su quehacer diario y forma parte del diálogo argumentativo social. Ayllón (2007, p. 44)

explica… la lógica informal es propia de la argumentación coloquial, allí se aconseja el uso de

premisas admitidas por los demás interlocutores, se usa para aclarar el significado de lo que se

dice.

Para lo que recomienda: no forzar la conclusión; aportar pruebas sólo cuando corresponda; si

no hay pruebas suficientes no mantener opinión; no cambiar de tema, además de explicarse con

claridad, brevedad y orden. La lógica informal nada tiene que ver con la investigación científica

en sí, a pesar de ser imprescindible a la hora de sustentar mediante discurso, los resultados de

cualquier proyecto. Sobre todo sirve de puente entre el lenguaje que emplea el científico y el

lenguaje coloquial del ciudadano común. En las ciencias fácticas, es decir, todas aquellas

ciencias que estudian los hechos que se dan lugar en el mundo. Se trabaja la lógica con objetos

reales que en determinado momento ocupan un lugar y un tiempo, proveen un nivel de verdad

contrastable con hechos. Estas se subdividen en ciencias naturales y ciencias sociales. Las

primeras se avocan al estudio de la naturaleza y sus hechos, mientras que las segundas se

circunscriben al ámbito humano. La voluntad de la naturaleza y la de los hombres es distinta.

Para la lógica formal, carece de relevancia lo que se dice, lo importante es el cómo se dice.

Cualquier enunciado que provenga de una ciencia formal, llámese lógica o matemáticas, intenta

establecer relaciones entre símbolos. Por su lado, todo enunciado fáctico evoca sucesos y

procesos. En las ciencias formales es necesaria la conformación de argumentos razonados para

comprobar sus teoremas. Sin embargo, no sucede lo mismo en las fácticas, allí se opta por la

observación y el experimento. La diferencia entre ambas reside en que las ciencias fácticas

corroboran hipótesis, mientras que las formales las demuestran, para ello cada una hace uso de

un método específico.

A continuación, y como epítome a sus definiciones, dentro de la lógica formal se abordarán

varias sub formas lógicas incluyendo: la lógica de enunciados; la lógica de predicados; la lógica

clases y la de relaciones. Consecutivamente, se dilucidarán aspectos relacionados a los principios

9 El Idealismo Trascendental de la Filosofía Kantiana, hace intentos por comprender el cómo es posible que el espíritu humano, en consonancia

con su mecanismo y asociándolo a los conocimientos a priori presentes en las matemáticas y la física teórica, puedan proveer elementos cognoscitivos tan sólidos y profundos. Quizás su característica más relevante es que están libres de toda experiencia.

Ro

iman

Val

bu

ena:

La

Lógi

ca e

n la

Inve

stig

ació

n C

ien

tífi

ca

Page 23: La investigación científica avanzada primera edición 2015

22

lógicos supremos: el principio de identidad; el de no contradicción; el del tercero excluido; el de

la razón suficiente y el de correspondencia.

Ro

iman

Val

bu

ena:

La

Lógi

ca e

n la

Inve

stig

ació

n C

ien

tífi

ca

Page 24: La investigación científica avanzada primera edición 2015

23

1.2.- Lógica de Enunciados

a lógica de enunciados forma parte de la lógica proposicional, en escritos de Tomás

Miranda Alonso (2000), es el segmento de la lógica formal encargada de la

composición de enunciados mediante el empleo de conectores lógicos. Las partículas

<<No>>; <<Y>>; <<O>>; <<Entonces>>, <<Sí y sólo si>> se llaman juntores o conectores

lógicos (p. 52). En la investigación científica, los conectores lógicos proposicionales en

determinados enunciados permiten al investigador establecer silogismos10

que le lleven a

inferencias válidas. Convirtiéndose en la unidad básica que es sometida a análisis para encontrar

su nivel argumentativo de verdad. La lógica de enunciados presenta una muy importante

propiedad que la habilita para ser usada como una teoría real, y que permitirá demostrar lo

acertado o lo falso de un grupo de argumentos mediante un procedimiento denominado cálculo

de enunciados.

En ese sentido, Leibniz en su libro The Art of Discovery (1685) afirma:

La única manera de rectificar nuestro razonamiento, es hacerlo tan tangible como

aquellos razonamientos de los matemáticos. Por esta vía pondremos nuestros errores

a la vista, y cuando existan disputas entre personas simplemente diremos: <<Déjame

calcularlo, sin bullicio ni alharaca para ver quien está en lo cierto>>

El análisis formal de las estructuras argumentativas conlleva al menos, dos pasos; el primero

denominado modelización o formalización lógica, el cual consiste en representar mediante

simbología, todo lenguaje natural escrito y compuesto de oraciones que conforman la estructura

de una inferencia. Este método permite descubrir y destruir sofismas. Otro paso consiste en

seleccionar sólo las estructuras enunciativas que se desean someter a análisis, para con ello

separar a los enunciados analíticos o tautológicos de los verdaderamente sintéticos. Según la

10

Un silogismo consiste en un argumento que se hace constar de tres proposiciones, donde la última se deduce necesariamente de las otras

dos y se le denomina conclusión. Se le considera una forma de razonamiento meramente deductivo. Consta de una premisa mayor, una premisa menor y una conclusión. La premisa mayor es aquella cuyo sujeto se incorpora como tal en la conclusión. En tanto que el sujeto de la premisa menor es incorporado como predicado. La inducción como método omite el uso de silogismos, sin embargo, la inducción es un silogismo disfrazado o encubierto medianamente por la retórica, que puede reducirse a un silogismo claro y evidente.

L

Por el contrario, si era así, puede ser que sea, y si así fuera, sería, pero como no es así, no lo es. Esa

es la lógica.

Lewis Carroll.

Page 25: La investigación científica avanzada primera edición 2015

24

teoría de enunciados, todas las sentencias unidas por conectores de frases están basadas en algún

tipo de implicación, como en el álgebra y las matemáticas. A continuación se presentan algunos

símbolos usados en lógica:

Símbolo Lógico Uso

Para establecer negaciones

˅ Para la disyunción o inclusiva

˄ Para la conjunción

Para la condición de implicación

Establece Incondicionalidad

p Se lee No p

P ˅ q Se lee ―p o q‖

P ˄ q Se lee ―p y q‖

P q Se lee ―p entonces q‖

P q Se lee ― p si, y solo q‖

El cuadro anterior exhibe sólo algunos Conectores Lógicos de Frases11

de la lógica

simbólica y proposicional, mediante su uso es posible hacerse de una compilación de ideas

entendibles para todos en el lenguaje de la ciencia. En ese orden, Albert Einstein alguna vez

expresó lo siguiente: La mayoría de las ideas fundamentales de la ciencia son esencialmente

sencillas y, por regla general pueden ser expresadas en un lenguaje comprensible para todos.

Así mismo, la lógica establece reglas para el uso de proposiciones12

compuestas: la disyunción;

la conjunción; la negación; la condicional y la incondicional.

Además, permite y estudia el uso como instrumento, del razonamiento matemático en el

lenguaje escrito. Si se usa correctamente en la investigación científica, asiente a construir teorías

tan sólidas como la del Electromagnetismo de James Clerk Maxwell con sus 4 ecuaciones

vectoriales, sustentada formal y legaliformemente en la Ley de la Acción Mecánica entre

Corrientes Eléctricas de André Marie Ampere, la cual a casi doscientos años, todavía sigue

vigente y no ha podido ser refutada, ni lógica ni experimentalmente. A continuación se presentan

dos ejemplos extraídos de Hurley (2011, p. 453):

1. Todos los siquiatras son doctores.

2. Todos los doctores son colegas graduados.

3. Entonces, todos los siquiatras son colegas graduados.

El argumento válido se simboliza así:

1. (x) [Pc כ Dx]

11

Consiste en una frase o simple término que hace que una sentencia larga, como las usadas en las inferencias, puedan ser divididas en dos

más pequeñas. Para con ello aplicar las reglas de los silogismos. 12

La lógica proposicional entendida como lógica de orden cero, en sentido estricto, consiste en una proposición comúnmente usada como

sinónimo de frase, declaración o enunciación, la cual es posible someterla a prueba para conocer si es verdadera o falsa. Para ello se siguen los lineamientos de un modelo matemático de argumentación denominado cálculo proposicional.

Ro

iman

Val

bu

ena:

gica

de

En

un

ciad

os.

Page 26: La investigación científica avanzada primera edición 2015

25

2. (x) [Dx כ Cx]

3. (x) [Px כ Cx]

La frase se compone de dos premisas, una mayor y una menor, que unidas dan origen a una

conclusión, juntas forman un silogismo hipotético cuyo fin es conseguir un enunciado universal

y verdadero. La letra ―P” representa al sujeto ―Siquiatras‖ y se añade como sujeto en la

conclusión; la letra ―D” al predicado ―Doctores‖ y simboliza al predicado en la conclusión. ―C‖

significa ―Colegas Graduados‖. Obsérvese que todos excepto ―D‖ aparecen en la conclusión,

pues se asume ya implícito por la lógica de enunciados. El operador lógico ―כ― tiene la misma

función que la condición de implicación ―‖ ―Si…Entonces‖ sólo que en este caso se le

denomina Condicional Material, una función lógica de verdad que toma dos valores. El

condicional material presenta ciertas propiedades formales tal como en las matemáticas: la

distributividad; la transitividad; la conmutatividad y la Idempotencia. Ninguna de ellas se trata

en este texto, al menos no en esta edición.

Con respecto a los enunciados, Ayllón Op, Cit (p. 42), presenta algunas consideraciones: En

la lógica formal todo razonamiento consta de varias premisas y una conclusión que se deriva

lógicamente de ellas:

Premisa: Todo Hombre es Mortal.

Premisa: Sócrates es Hombre.

Conclusión: Por tanto, Sócrates es Mortal.

Tanto las premisas como las conclusiones son proposiciones enunciativas que pueden ser

verdaderas o falsas. La lógica formal se ocupa únicamente del correcto encadenamiento entre la

conclusión y las premisas, por ende, un razonamiento puede ser lógico y falso al mismo tiempo:

Premisa: Todo Hombre es Francés.

Premisa: Sócrates es Hombre.

Conclusión: Por tanto, Sócrates es Francés.

Por el mismo motivo, un razonamiento puede ser incorrecto <<carente de lógica>>, aunque la

conclusión y las premisas sean verdaderas:

Premisa: Algunos Hombres son Europeos.

Premisa: Algunos Hombres son Franceses.

Conclusión: Por tanto, los franceses son

Europeos.

Ro

iman

Val

bu

ena:

gica

de

En

un

ciad

os.

Page 27: La investigación científica avanzada primera edición 2015

26

Para Ayllón, los tres juicios anteriores son verdaderos, pero la conclusión no se deriva de las

premisas, allí no hay razonamiento, los juicios son inválidos, ilógicos. Para producir

conocimiento mediante este modelo, no solo se requiere lógica, sino de niveles de verdad. En las

ciencias factuales es absolutamente necesaria la racionalidad que aporta la lógica formal en la

construcción de sus enunciados, no obstante, ello no certifica que se obtenga verdad, por lo que

se exige su verificación experimental.

Ro

iman

Val

bu

ena:

gica

de

En

un

ciad

os.

Page 28: La investigación científica avanzada primera edición 2015

27

1.3.- Lógica de Predicados

a lógica de predicados, denominada también cálculo de predicados o Lógica de

Primer Orden13

, gravita esencialmente en una ramificación de la lógica proposicional.

Esta última descansa sobre tres principios básicos abordados posteriormente en este

mismo capítulo: el principio de identidad; el de no contradicción y el del tercero excluido. En la

lógica de predicados las sentencias carecen de variables libres, lo que trae como consecuencia

que sus valores de verdad sean independientes de sus asignaciones formales. Para Goldrei

(2005), el cálculo de predicados es una importante parte de la lógica, la ciencia del

razonamiento y de las leyes del pensamiento (p. 1). Según Elí de Gortari (1988) Véase concepto

de Lógica de Predicados:

Es en la lógica de predicados donde se cuantifican de manera universal o existencial

todos los argumentos de las formulas, estos se constituyen en argumentos ligados, es

decir, se ligan a variables individuales, el resto son argumentos o variables libres.

Las formulas en que todos los argumentos están cuantificados se denominan

esquemas cerrados, en tanto, aquellos que tienen por lo menos un argumento no

cuantificado se les llaman esquemas abiertos.

Los cuantificadores, tanto en matemáticas, teoría de conjuntos o en lógica, vienen

representados por un conjunto de símbolos que sirven para señalar cuando ciertos tipos de

elementos cumplen o les son propias ciertas características. En la investigación científica, la

lógica de predicados se usa para establecer en valor de verdad contenido en las conclusiones y

razonamientos derivados de una observación o proceso de indagación, para ello basta con

esquematizar lógicamente la semántica con la que se construyeron las sentencias declarativas. En

este caso, el cálculo de predicados permitirá dejar ver ciertos errores al plantear las inferencias,

13

En la lógica de orden cero (lógica proposicional) no hay cuantificación alguna. En las de primer orden es posible cuantificar sobre individuos,

pero no sobre conjuntos de individuos (o relaciones entre individuos). Es sólo en la lógica de segundo orden donde es posible cuantificar tanto sobre los individuos del universo del discurso como sobre los conjuntos de ese universo, es decir, sobre los conjuntos de individuos y las relaciones entre individuos. La semántica de la lógica de segundo orden es semejante a la del primer orden, excepto en lo que respecta a las variables predicativas, que se interpretan como variando sobre subconjuntos cualesquiera del universo de la interpretación. Tomado de: Filosofía de la Lógica (2004). Lógica y Teoría de Conjuntos por: Jesús Mosterin, (pps. 229 y ss.).

L

Probamos por medio de la lógica, pero descubrimos por medio de la intuición.

Henry Poincaré.

Page 29: La investigación científica avanzada primera edición 2015

28

interfiriendo en la sintaxis interna de los enunciados simples, pues para ella, la sintaxis aporta

criterios que asignan validez a determinados tipos de inferencias.

La lógica de predicados estudia frases del tipo declarativas basándose en la estructura interna

de las proposiciones que contiene y omitiendo cuestiones de la realidad de los hechos a los

cuales se circunscribe. Simplemente se orienta a estudiar en detalle los objetos y sus relaciones,

de allí surgen elementos de importancia, lo que se afirma con respecto al objeto se considera la

relación con este o su predicado. Así como, se orienta a actuar sobre el objeto, es decir, el sujeto

de quien se afirma o niega en las proposiciones.

En ese sentido, Piquer (1781)14

alega… para que una proposición sea negativa, la partícula

negante ha de juntarse con el verbo; pues si se antepone al nombre, le hace infinito e

indeterminado. Contrariamente, afirmar significa asegurar una cosa consintiendo en ella. Cuando

se presenta la afirmación: <<Pedro es Piedra>>, la cual es afirmativa en el primer orden, no

afirma con ello el Pedro ser Piedra en el segundo. La diferencia básica estriba en el hecho de que

la afirmación por medio de la cual se juntan los extremos, cualesquiera estos sean, es obra del

ingenio; más la afirmación con la que se asiente una proposición es obra del juicio. Como todos

los conectivos proposicionales están aglutinados en la lógica de predicados, Andrade et, al

(2008) establecen ciertas diferencias respecto de la lógica proposicional:

La principal diferencia entre la lógica predicados y la lógica proposicional radica en

que la primera permite analizar la forma interna de las oraciones, mientras que la

segunda analiza únicamente el modo en que las oraciones están relacionadas. Si se

ejemplifica con la oración: <<Pedro es Calvo>>, donde hay un sujeto ―Pedro‖ y un

predicado, la lógica de predicados permite asignar símbolos y formalizar la oración

para estudiar diversos vínculos con otras oraciones, algo que no puede hacerse desde

la proposicional. (p. 126).

A continuación un ejemplo de Gauch (2003, p. 173), considérese uno de los más populares

argumentos de la lógica: Todos los Hombre son Mortales; Sócrates es Hombre; entonces,

Sócrates es Mortal. Desde la perspectiva simple de la lógica proposicional, este silogismo

contiene 3 diferentes sentencias organizadas en la forma de un argumento, según la simbología

de la lógica se organizaría así: p; q; r. Se lee, Todos los A´s son B; C es A; por tanto C es B.

Es así como, y según el análisis, la conclusión del argumento no se sobreviene de las premisas,

más sin embargo, este argumento claramente es válido.

Pero su validez no depende de la verdad funcional entre las oraciones del silogismo como lo

plantea la lógica proposicional. Contrariamente, su validez se sostiene sobre las bases de las

14

Refiérase a Lógica: Andrés Piquer (1781). Capítulo VIII: De la Afirmación y Negación de las Proposiciones. (P. 31 y ss.)

Ro

iman

Val

bu

ena:

gica

de

Pre

dic

ado

s.

Page 30: La investigación científica avanzada primera edición 2015

29

partes que componen a las oraciones, y esto requiere de la lógica de predicados. En fin, todos los

argumentos que adquieren validez en su forma proposicional también lo serán en la lógica de

predicados. No obstante, y como lo afirman Andrade et, al op. Cit, el recíproco es falso, pues

existen argumentos que son válidos desde la óptica de la lógica de predicados, pero inválidos si

se les formalizan exclusivamente en virtud de su forma proposicional.

Ro

iman

Val

bu

ena:

gica

de

Pre

dic

ado

s.

Page 31: La investigación científica avanzada primera edición 2015

30

a lógica de clases es la mejor herramienta de que dispone el científico para agrupar

elementos dentro de una misma categoría, para ello se requiere de un gran sentido

común, pues la hace converger con su connaturalidad15

. Según argumenta Ferrater

Mora (2004), clase, como concepto lógico hace referencia a una serie, grupo, colección,

agregado o conjunto de entidades (llamados miembros) que poseen por lo menos una

característica común. La noción de clase no debe confundirse con las nociones de agregado o del

todo, pues no pueden equipararse en clases a entidades concretas con abstractas. Las clases son

entidades meramente abstractas, aun cuando los elementos que las constituyen sean concretos.

En escritos de Lombraña (1989), las clases se introducen como símbolos incompletos.

Entendiéndose por clase al conjunto de objetos que de algún modo satisfacen a una función

proposicional. De manera que cada función determina una clase, es así como, dos funciones

equivalentes harán mención a la misma clase, es decir, tienen la misma extensión16

, (p. 388). La

Lógica de Clases se constituye como un caso muy particular de la lógica de predicados, opera

extendiéndose a conceptos en cuyo contenido se expresa una propiedad de algún objeto lógico

concreto que le hace pertenecer a un grupo o clase abstracta. Este tipo de lógica hace uso tanto

del Álgebra de Conjuntos como de la Teoría de Conjuntos.

La investigación científica permite al investigador estratificar coherentemente a todos los

elementos involucrados en el proceso de indagación, aportando una deslumbrante coordinación

de medios para identificar y subdividir acertadamente su área cognoscitiva en variables,

dimensiones e indicadores. Donde cada indicador se corresponde con un subgrupo de las

15

El conocimiento por Connaturalidad, según Joseph Ellis (2003, p. 8), es el resultado de los hábitos propios del hombre especulativo. Hábito

significa la existencia de una permanente disposición relacionada a la naturalidad del objeto y su calificación como operativo. En el caso de la connaturalidad intelectual, tal hábito del hombre especulativo produce una porción de la realidad que se presta a ser conceptualizada como conocimiento. El conocimiento por connaturalidad, a diferencia del pensamiento lógico, no es clasificable. Se le asume como axioma que da origen a todo conocimiento. El conocimiento por connaturalidad no es científico ni racional por entero, es una forma de proceso mental mediante la cual el intelecto hace aflorar la verdad, para ello percibe, diferencia, contradice, agrupa y construye relaciones sujeto objeto. Es este tipo de conocimiento el primero en actuar sobre el descubrimiento, proyecta sobre éste una intuición creadora a priori, y es la lógica de clases la que le dará razón científica y argumentos de verdad a posteriori. 16

Las extensiones son Indicadores y las Clases, en este caso, pueden ser llamadas Dimensiones.

L

La ciencia es un magnífico mobiliario para el piso superior de un hombre, siempre y cuando su sentido común esté en la planta baja.

Oliver Wendell Holmes.

1.4.- Lógica de Clases

Page 32: La investigación científica avanzada primera edición 2015

31

dimensiones y estas a su vez conforman un subconjunto de las variables. Aunque en

investigación social no se usa comúnmente, en la experimental se estratifican gráficamente las

clases haciéndose uso de los diagramas de Venn, los diagramas de Euler y los diagramas

dicotómicos de Carroll.

En cualquier investigación científica donde se utilicen varias variables, debe asegurarse

primero el que distintas variables conformen distintos subgrupos, caso contrario se entraría en el

absurdo17

, Ídem a las dimensiones y los indicadores. En las investigaciones exploratorias y

experimentales se presenta comúnmente el problema de agrupar en clases a un pool de datos

colectados, cada dato se corresponde con observaciones sobre un gran número de variables, es

decir, se produce la llamada sobre - dimensionalidad de los datos. Para resolverlo, se utilizan 3

técnicas muy conocidas: el Análisis de Componentes Principales (ACP); el Análisis Factorial de

Correspondencia (AFC) y el Análisis de Correspondencia Múltiple (ACM), todas son técnicas

del análisis multivariado en estadística18

. Estos procedimientos se constituyen en aplicaciones

más modernas de la lógica de clases.

Otra aplicación de la lógica de clases y la teoría de conjuntos en la investigación científica

consiste en el denominado análisis estadístico de datos textuales, muy comunes en

investigaciones cualitativas y sociales. Se usa cuando no se es posible dimensionar las variables

a simple vista, entonces se hacen estudios de ocurrencia y co-ocurrencias de unidades verbales

sobre un corpus discursivo extraído de entrevistas sobre las unidades de análisis. Actualmente se

utilizan dos software bastante potentes para ejecutar este tipo de estudios y encontrar evidencias

sobre el discurso, el T-Lab y el Spad-T.

El uso de la lógica de predicados está limitado, puesto que los predicados no conectan

términos directamente. El único uso importante de los predicados en una estructura lógica es su

clasificación, los predicados contienen adjetivos que complementan al sujeto o sustantivo en la

sentencia, siendo esto lo que lo inserta en una determinada clase. Para Langer (1967, p. 160), es

aquí donde subyace la íntima relación entre un predicado y la clase a la cual pertenece. El

predicado es el instrumento por excelencia para distinguir clases, pues es donde el sujeto

adquiere las propiedades necesarias para ser diferenciado, sin embargo, previamente este

predicado ha de ser sometido a pruebas de relaciones verdaderas, es decir, a la lógica de

predicados.

17

Reductio ad Absurdum. Consiste en un medio de demostración lógico, se explica más adelante en el Principio de No Contradicción y el

Principio del Tercero Excluido. 18

Refiérase al Capítulo VII, Sección 7.5. Los Programas Exploratorios de Investigación Científica. Allí se detallan y explican, los usos de cada

procedimiento estadístico sobre los datos hallados, y su procesamiento en niveles exploratorios.

Ro

iman

Val

bu

ena:

gica

de

Cla

ses.

Page 33: La investigación científica avanzada primera edición 2015

32

1.5.- Lógica de Relaciones

na relación es una conexión de una idea o cosa con otra, bien sea por presentar

similitudes, diferencias o dependencia jerárquica. Según Ferrater Mora (2004, Véase

concepto de Relación), la relación es examinada en la lógica como un predicamento

y, en calidad de tal, es definida como el orden de una cosa respecto de otra. En la lógica no

simbólica, la relación se refiere al carácter condicionado o incondicionado de los enunciados

(juicios o proposiciones). Cuando un enunciado es incondicionado se presentan las proposiciones

categóricas; cuando es condicionado, las hipotéticas y disyuntivas.

La Investigación Científica se basa en el estudio de las conexiones de los fenómenos con el

mundo. Son estas propiedades de relaciones pluri - diversas en los fenómenos lo que lleva al

investigador a indagar sobre los porqués de los cambios en el conjunto de las relaciones. Lo cual

puede hacer que, dependiendo de la variación relacional, este fenómeno se transforme en otro. El

desiderátum de todo investigador cuando se avoca sobre un problema, consiste en intentar

establecer un conjunto lógico de relaciones entre variables, para ello habrá de argüirse de

criterios veritativos que le permitan plasmar toda modificación paulatina y jerárquica entre los

eventos, explicando coherentemente su árbol relacional, de manera que puedan separarse las

variables antecedentes y las sucedientes. Esto sólo es posible si se hace un uso correcto de la

lógica de relaciones.

La lógica de Relaciones tiene su origen en la lógica matemática, donde existen relaciones de

identidad entre individuos o funciones, por ejemplo: <<x = y>> a esto se denomina relación de

equivalencia, o caso contrario <<x y>> relación de diferencia; también existe el <<x y>>

relación de aproximación igualitaria. En el terreno de la investigación científica no todas las

relaciones son equivalentes, también existen relaciones de orden temporal, es decir; ―A‖ precede

a ―B‖ si y sólo si, ―B‖ depende de ―A‖, en este caso habrá una relación causa-efecto, en otras

palabras, si ―A‖ no sucede ―B‖ tampoco. Sin embargo, si ―A‖ tiene sobre ―B‖ los mismos efectos

que ―B‖ sobre ―A‖, entonces existe relación o relación recíproca. La lógica de relaciones es muy

U

Todas las cosas aparecen y desaparecen debido a la concurrencia de causas y condiciones. Nada existe

completamente solo; todo está en relación con todo lo demás.

Gautama Buddha.

In Dwight Goddard, Buddha, Truth, and Brotherhood (1934), 44.

Page 34: La investigación científica avanzada primera edición 2015

33

utilizada en el estudio de las teorías de grupos, de hecho es la base para establecer una teoría de

conjuntos.

Según informan Cofré y Tapia (2003), la lógica y la geometría están íntimamente

correspondidas, pues se basan en la clasificación y descubrimiento de relaciones. La geometría

consiste en el estudio de las propiedades de los sólidos, de las superficies, así como de las líneas

y los puntos. Cuando se estudia geometría el cerebro se mueve secuencialmente desde la simple

visualización hasta pasar por los niveles de análisis, deducción informal, deducción formal, hasta

el más alto nivel de rigor que implica a los aspectos abstractos o formales de la deducción. Estos

son los pasos básicos para establecer relaciones.

Desde el punto de vista de la lógica, existen tres tipos principales de relaciones que pueden

expresarse mediante símbolos: las Simétricas; las Transitivas y las Reflexivas. Estas a su vez

contienen dos sub-relaciones más cada una. En el primer caso, una relación es simétrica, como

en el caso anterior de las matemáticas, cuando es siempre verdadero que, si “X” comparte una

relación con “Y”, entonces “Y” presenta la misma relación con “X”. La evaluación de

inferencias con predicados relacionales plantea problemas que no se habían encontrado hasta

ahora. Tómese el ejemplo de Clarke y Behling (1998, p. 185):

John está casado con Alicia

Alicia está casada con John

Los predicados en las oraciones asignan relaciones a los sujetos, a esto se denomina

predicado de dos lugares o predicados diádicos,… está casado/a con… afirma una relación entre

dos individuos. Dentro de las relaciones simétricas se encuentra otros dos subtipos, las

asimétricas y las no simétricas. Por ejemplo, una Relación es Asimétrica cuando NUNCA es

cierto que si “X” comparte una relación con “Y”, “Y” entonces no comparte la misma relación

con “X”. Preste atención al siguiente modelo relacional: Clara es madre de Alicia… en este

caso nunca se sucederá que Alicia sea también madre de Clara. Por otro lado, una relación se

torna No- Simétrica cuando A VECES es cierto que si “X” comparte una relación con “Y”, este

“Y” no siempre compartirá la misma relación con “X”. Por ejemplo, en la oración John ama a

Alicia, para nada implica el que sea verdadero su reciproco.

Con respecto a las Relaciones Transitivas. Una relación es transitiva si, “X” se relaciona con

“Y”, y este “Y” se relaciona SIEMPRE también con “Z”, de manera que SIEMPRE existirá la

relación entre “X” y “Z”. Por ejemplo: Clara es Hermana mayor de Mónica, y Mónica es

hermana mayor que Lucy. Entonces, Lucy y Clara también son hermanas, y sólo están separadas

por el predicado direccional…Mayor o Menor que…

Ro

iman

Val

bu

ena:

gica

de

Rel

acio

nes

.

Page 35: La investigación científica avanzada primera edición 2015

34

Existen también dos subclases de este tipo de relaciones. Una Relación es Intransitiva sí,

hay una relación evidente entre “X” y “Y”, además “Y” comparte la misma relación con “Z”,

entonces “X” NUNCA compartirá la misma relación con “Z”. Por ejemplo: Carlos es Padre de

Vinicio, y Vinicio es padre de José. Si bien es cierto, entre Carlos y Vinicio existe la misma

relación padre e hijo que entre Vinicio y José, esta correspondencia NUNCA se presentará entre

Carlos y José, pues existe lo que se denomina causal intermediaria. Por su lado, una Relación es

No Transitiva si, cuando “X” comparte con “Y”, y “Y” comparte la misma relación con “Z”,

entonces, “X” A VECES comparte relación con “Z”. Déjese guiar por la siguiente oración: Tus

Amigos no siempre son los Míos.

Los predicados diádicos presentan una tercera propiedad, la reflexividad. Una Relación es

Reflexiva cuando se lleva a cabo siempre entre una cosa y la misma. Puede analizarse mediante

la oración: es de la misma talla de… presenta las mismas propiedades de… se presenta bajo

la forma de <<sujeto relación sujeto>>. Una relación reflexiva es aquella que relaciona a

dos cosas y éstas a su vez hacen mención a sí mismas, es una relación donde cada individuo

comparte consigo mismo. Para Clarke y Behling op. Cit, existen relaciones totalmente reflexivas

y reflexivas, aunque para la mayoría de los propósitos lógicos esta diferenciación es irrelevante.

La expresión… es idéntica a… es totalmente reflexiva. Todas las relaciones totalmente

reflexivas son reflexivas, más recíprocamente no siempre se presenta lo mismo.

Ahora bien, una Relación es Irreflexiva cuando NUNCA se da entre una cosa y

sí misma. Por su parte, una Relación no es Reflexiva cuando A VECES se da entre una cosa

y sí misma. Obsérvese que una relación entre hermanos es una relación simétrica, si hay más

hermanos puede transformarse en una relación transitiva, no obstante, esta última no

necesariamente pueda convertirse en una relación reflexiva dado que nadie puede ser hermano de

sí mismo. Como afirma Miaja de la Peña (2001, p. 27 y ss.), todas las ciencias se proponen

establecer relaciones entre los objetos que cada una de ellas estudia. Sin embargo, la lógica

estudia las relaciones mismas, no puede haber ciencia sin lógica, pues esta es la ciencia de las

ciencias.

La lógica descubre leyes que rigen toda realidad objetiva que el científico aborda,

explicándolas y esclareciendo su funcionamiento, cristalizando las relaciones que las unen. La

lógica de relaciones es absolutamente necesaria cuando se desea sustentar una teoría científica,

es ésta la que otorga características de coherencia a toda proposición que pueda convertirse en un

teorema digno de una clara demostración. Es la que permite concatenar relacionando, supuestos

deducibles de los axiomas.

Ro

iman

Val

bu

ena:

gica

de

Rel

acio

nes

.

Page 36: La investigación científica avanzada primera edición 2015

35

La lógica es aplicada por el hombre en la realización de sus actividades fructuosas. Es la

expresión abstracta, pensada, de los procesos naturales y sociales, convirtiéndose en el

instrumento que usa el hombre en su práctica racional, la lógica de relaciones provoca un ajuste

de las relaciones previamente establecidas como conocimientos, convirtiéndose nuevamente en

punto de partida para el científico.

Ro

iman

Val

bu

ena:

gica

de

Rel

acio

nes

.

Page 37: La investigación científica avanzada primera edición 2015

36

1.6.- El Principio de Identidad

n Principio consiste en una idea primigenia originada en la mente humana, designa un

punto de partida, alude a una idea rectora o regla ética fundamental de conducta. El

de Identidad proviene de la luz natural del intelecto, cuando éste, al intentar explicar

algún fenómeno, hace descubrimiento de una realidad un tanto abstracta que lo rige. Su

explicación aborda el cómo el evento se sucede o trabaja. De acuerdo al Principio de la lógica

llamado Identidad, las ideas han de ser idénticas a sí mismas. El Principio de Identidad usado

para la comparación de enunciados, no debe ser una tautología19

. Pudiendo las ideas ser

representadas simbólicamente bajo el siguiente formato: A=A; B=B o X=X. Este contexto se

justifica y toma sensatez si y solo si, el término o afirmación que precede a la igualdad se usa en

idéntico contexto al término o afirmación que la sucede, adquiriendo el mismo significado. Por

ejemplo:

Todos los perros son animales = Son animales todos los perros

Según plantea David Hume20

, <<Y si uno no acepta que algunos de los términos medios son

distintos entre sí, no puede, sin caer en el absurdo, negar que los extremos sean idénticos>> El

axioma real de identidad plantea lo siguiente: Lo que es verdad en un contexto ha de serlo en el

otro. Así mismo, si determinado juicio se afirma de modo que un cambio en sus eventos lo

19

Consiste en un error lógico cuando se presenta la definición de un concepto y se le considera insostenible, pues en ella lo determinante

estriba en repetir con otras palabras, lo concebido en lo determinado. Una tautología, según la retórica, consiste en la manifestación repetida de un mismo pensamiento, solo que expresado bajo diversas formas, y que resulta equivalente para todas. Según Kant (1819), en su libro: The Logic, explica…la identidad de los conceptos en juicios analíticos puede ser explícita <<Que expresa con claridad una cosa, algo que está libre de abstraccionismo. Aunque no deben usarse este tipo de juicios para la corroboración de enunciados según el principio de identidad, una hipótesis explícita es la base que orienta a un buen proyecto de investigación, esta la delimita sin tener que abordar las fronteras de las dimensiones, encausa el problema y permite el encadenamiento de ideas que darán lógica a sus resultados>>, o no explícita <<implícita>>. En el primer caso, las proposiciones analíticas son tautológicas. Una tautología es una forma válida de la lógica básica, sobre todo para la lógica proposicional. Los enunciados del tipo tautológicos han de evitarse porque son declaraciones carentes de contenido, no aportan conocimiento científico e implican una verdad del tipo analítica <<es aquella que adquiere certeza únicamente por los términos que involucra>>. Bunge (2001), define a una tautología como una proposición verdadera en virtud de su forma lógica y con dependencia de su contenido. Al referirse a las teorías afirma… dos teorías lógicas son la misma si y solo si, comparten las mismas tautologías, es decir, hacen presentaciones diferentes de una misma teoría. 20

Filósofo, Economista e Historiador Escocés (1711 – 1776). Puede leerse en: Srinagesh (2006, p. 1). Según Lakatos (1989), tal comentario de

Hume va dedicado a cualquier volumen de Teología o Metafísica Escolástica. Véase Introducción: Ciencia y Pseudociencia.

U

La Lógica puede llevar a un científico desde “A” hasta “B”; la imaginación, sin embargo, podrá llevarlo

a donde desee.

Albert Einstein.

Page 38: La investigación científica avanzada primera edición 2015

37

conviertan en falso, entonces este juicio nunca representó una verdad autentica21

. La forma

lógica de una oración es sin lugar a dudas, su estructura. Esta puede ser compartida con otras

oraciones argumentativas o enunciados. Bajo el principio de identidad, la compartición implica

una relación estricta de paralelismo o equivalencia.

A los efectos de la disposición lógica, esta determina la manera en que puede ser fácilmente

deducida de otras sentencias, así como la vía por la cual en otras frases se da la posibilidad de

deducir cualquier conjunto de premisas que éstas incluyan. La deducción en sí tiene un poder

racional, que ha de hacerse corresponder con los objetivos planteados en la investigación. Ahora

bien, esta relación de paralelismo o simetría significativa tiende a variar tan pronto cambia el

contexto, por ejemplo:

Todos los perros son animales…

Todos los animales son perros…

La primera afirmación es lógica y verdadera, no así la segunda. El contexto de esta segunda

afirmación cambió con respecto a la primera, tornándose infundada y ambigua. Bajo estos

parámetros no cumple con el Principio de Identidad. La identidad es una ley del pensamiento

humano. El Principio de Identidad establece la necesidad de clarificar y precisar el significado

del término sobre el contexto de estudio. Nietzsche en Stack (2005, p. 105), afirma… nuestra

postulación de “cosas idénticas” en el mundo, es resultado de un tipo de proceso lógico

inconsciente, que mucho tiempo después fue reformulado y denominado Principio de Identidad.

Para Stack op, cit, Nietzsche pudo haber acertado acerca del origen del Principio de

Identidad, sin embargo, oscurece el hecho de que éste nunca se intentó aplicar directamente

sobre fenómenos empíricos, sino, sobre la identificación de conceptos y proposiciones. Este

principio es mejor utilizado cuando, un mismo objeto puede ser representado de diferentes

formas, manteniendo impecable todos sus aspectos cualitativos.

Como complemento al Principio de Identidad, Leibniz planteó el Principio de Identidad de

los Indiscernibles22

<<The Identity of Indiscernibles>>. Derivado de la ontológica analítica y

aplicable a objetos concretos. Esta ley se basa en que no hay dos objetos que tengan las mismas

propiedades o cualidades. No suelen haber objetos absolutamente idénticos a sí mismos, ni

siquiera en sus propiedades esenciales. Este principio trata de identificar factores de objetos

cualitativamente idénticos, pero que por otro lado los individualizan.

El Principio de Identidad lógica <<no Leibniz>>, se refiere a que un objeto, concepto, juicio

21

Bradley, Francis. (2004). The Principles of Logic. Capítulo V. Véase. 22

Leibniz, Wilhelm. (1998, pp. 39 y ss.). Discourse of Methaphysics and Related Writings. Véase.

Ro

iman

Val

bu

ena:

El P

rin

cip

io d

e Id

enti

dad

.

Page 39: La investigación científica avanzada primera edición 2015

38

o proposición es idéntico a sí mismo. Contrariamente, lo que Leibniz bosqueja es que no sea el

mismo objeto, sino dos idénticos porque compartan propiedades cualitativas y cualitativas no

relacionales. Se enuncia de la siguiente manera:

Para cada propiedad F, un objeto “x” tendrá F si y solo si, un objeto “y” tiene F

Entonces podrá decirse que “x” es idéntico a “y”

El Principio lógico llamado Identidad hace referencia ontológica a objetos o cosas, sólo

orientándolo a juicios o enunciados es posible decir que es lógico. Un juicio evoca en sí formas

lógicas, contrariamente, cuando se proyecta sobre objetos o cosas se entra en el plano ontológico.

No obstante, nada impide el utilizar la ley de Leibniz sobre indagaciones en ciencia <<no

aplicable a la mecánica cuántica>> Para Beuchot (2004), la identidad es la propiedad que tienen

dos o más proposiciones de expresar el mismo contenido objetivo, presenta la dualidad explícita

e implícita. Será explícita cuando expresan el mismo contenido objetivo con los mismos

conceptos, aunque se usen diversos términos. Se asume implícita cuando expresan la misma

verdad con diversos conceptos y diversos términos, (p. 62).

En la investigación científica, dos indagaciones habrán obtenido los mismos resultados, si los

juicios conclusivos de la primera, concuerdan idénticamente en su forma semántica lógica y no

en su semántica lingüística, con los enunciados conclusivos de la segunda. De concordar ambas,

denomínese plagio. A la identidad se le asume como aquella categoría que formula la igualdad

de un objeto, de un fenómeno consigo mismo, o designa la igualdad para varios objetos. Dos

cosas serán idénticas si y solo si, ambas comparten todas las propiedades que las hacen parecer

iguales. No obstante, el lector debe estar preguntándose… ¿Cómo se utiliza el Principio de

Identidad en la Investigación Científica?... o… ¿Por qué si soy Investigador nunca he tenido

necesidad de usarlo?

En cuanto a la primera respuesta; si usted es investigador experimental e hizo colisionar dos

átomos diferentes de la tabla periódica <<como ejemplo hipotético>>: un átomo de Cadmio

―Cd‖ del bloque 12 y con peso atómico 48, caracterizado por su alta toxicidad en el cuerpo

humano, pero excelente conductor de electricidad. Contra un átomo de Magnesio ―Mg‖ con

número atómico 12, del bloque 2, siendo el Ion de magnesio esencial para las células vivas. Y

en sus relaciones causa – efecto observó que de la unión de ambos átomos se formó un tercero,

asígnese una denominación hipotética ―Cx‖, derivando la combinación de dualidades en una sola

estructura, cuyos análisis le llevan a inferir que ―Cx‖ puede usarse sobre seres humanos y está

libre de contaminación por metales, entonces usted ha hecho un nuevo descubrimiento.

Éste, hasta el momento era desconocido. Conviene ahora aplicar raciocinio a esa realidad que

Ro

iman

Val

bu

ena:

El P

rin

cip

io d

e Id

enti

dad

.

Page 40: La investigación científica avanzada primera edición 2015

39

lo rige. Es menester asignarle un nombre e insertarlo dentro de la tabla periódica y situarlo en

una categoría cognoscitiva, tal cual a un niño recién nacido en la sociedad. Deberá detallar a cuál

otro elemento de la tabla se parece, y a cuales es diametralmente opuesto. Como se argumentó

previamente, debe usarse el Principio de Identidad para establecer la necesidad de clarificar y

precisar el significado del término, o nombre de lo encontrado, sobre el contexto del estudio que

le dio origen, evitando en todo momento las contradicciones.

Aquí la respuesta a la segunda pregunta; si ninguna vez ha tenido la necesidad de usar el

Principio de Identidad en la investigación científica es porque Nunca ha hecho un

descubrimiento. En las ciencias descriptivas por lo general no se producen descubrimientos, allí

se cercena el proceso de intuición cuya génesis es la mente del científico, no puede haber

descubrimiento sin intuición. Así mismo, describir es sólo una etapa de la investigación y no

aporta conocimiento nuevo, la descripción antecede a la investigación teórica que pueda

ejecutarse sobre un objeto. La descripción sin explicación es imposible que se convierta en

ciencia. Además, la explicación y la descripción están separadas sólo por la dialéctica.

Ro

iman

Val

bu

ena:

El P

rin

cip

io d

e Id

enti

dad

.

Page 41: La investigación científica avanzada primera edición 2015

40

1.7.- El Principio de No Contradicción

na contradicción consiste en conjugar una proposición y su negación. Surge, cuando

al contrastarse dos hechos, cosas o elementos, el primero resulta totalmente opuesto

al segundo, a tal nivel, que uno debe estar equivocado. En la investigación científica

se origina cuando, al plantear los resultados en una indagación, sus juicios conclusivos se

construyen a través de una combinación de palabras que entre sí, sugieren los opuestos de las

otras, dejando a la oración carente de sentido en su totalidad. Donde, la verdad de una de las

proposiciones excluye de verdad a la otra. También surge cuando, la consecuencia o efecto de un

acto, se asume contraria con la acción o causa que le dio origen <<Teoría de la Acción>>.

Es por ello que el investigador ha de prestar atención en la escogencia de palabras y

organización de ideas que le llevarán a la emisión de sus subsiguientes juicios conclusivos. No

obstante, no se considera igual a una contradicción que a una diferencia en el planteamiento de

los juicios conclusivos. Al respecto Aristóteles23

explica…

La palabra diferencia tiene tres sentidos, un sentido común; un sentido propio y un

sentido que es aún más común que los demás. Según el sentido común, se dice que

una cosa difiere de otra, cuando presenta una alteración cualquiera, ya con relación a

ella misma, ya con relación a una cosa diferente. En el sentido propio, una cosa

difiere de otra cuando difiere por un accidente que no puede separarse de ella. Y, en

el sentido más propio, se dice que una cosa difiere de otra, cuando es distinta por una

diferencia específica. En general, toda diferencia al unirse a un ser cualquiera, le

altera de algún modo; las diferencias comunes y propias le hacen diferente; las

diferencia más propias le hacen otro…

Según lo anteriormente descrito, las palabras <<Contrario>> y <<Diferente>> no son lo

mismo. Esto lleva al investigador a profundizar en la estructura semántica tanto de sus

conclusiones, como de sus ámbitos de aplicación. Por lo que un juicio conclusivo podrá diferir

de otro y no considerársele contrario o contradictorio a este. Para ello, necesario es el avocarse al

estudio profundo de las conclusiones a partir de premisas contrarias y contradictorias haciendo

uso de silogismos. Hay maneras de formar silogismos con proposiciones opuestas <<todo –

23

Aristóteles, El Órganon. Tratados de Lógica. Cap. III. (P. 11).

U

Ni la Contradicción es indicio de falsedad, ni la falta de contradicción es indicio de verdad.

Blaise Pascal.

Page 42: La investigación científica avanzada primera edición 2015

41

ninguno; todo – no todo; alguno – ninguno; alguno – no alguno>> de ellas, sólo son contrarias

las más universales, todo - ninguno.

La ley de la no contradicción en lógica, establece que determinado fenómeno no puede

suceder y no suceder al mismo tiempo <<Llueve al mismo tiempo que no llueve>>, << Estoy

seco pero mojado>> En ese sentido, esta ley imposibilita la creencia en una formulación en

determinada dirección y a su vez creer también en su negación en sentido opuesto. La negación y

afirmación simultánea de una sentencia representa inequívocamente un hecho inadmisible. Toda

aquella formulación que contenga los más mínimos vestigios de contradicción se estudia bajo

este principio, por demás muy usado en el intento de refutar teorías científicas. Al respecto, Kant

(1997, p. 135) explica…

La proposición: «A ninguna cosa le es adecuado un predicado que la contradiga»

recibe el nombre de principio de contradicción y constituye un criterio universal,

aunque meramente negativo, de toda verdad. Pero sólo pertenece, por ello mismo, a

la lógica, ya que vale para los conocimientos considerados simplemente como

conocimientos en general, con independencia de su contenido. El principio afirma

que la contradicción anula y suprime tales conocimientos. No obstante, se puede

también emplear el principio de forma positiva, es decir, no sólo para rechazar la

falsedad y el error (en cuanto basados en la contradicción), sino también para

conocer la verdad.

Según Kant, ha de asumirse el Principio de Contradicción como principio universal que

otorga suficiencia plena a todo conocimiento analítico <<detállense los efectos de dependencia

que se suceden entre las hipótesis nulas y alternativas>>. Mientras Nietzsche presentaba

argumentos negando que la ley de la contradicción sea el principio más sofisticado, Aristóteles

afirmaba que este último, era el más efectivo de los principios lógicos24

. En la investigación

científica, y según precepto Kantiano;

Siempre es correcto negar lo contrario de aquello que se halla incluido como

concepto en el conocimiento del objeto y que es pensado en él. Tenemos que afirmar

necesariamente, en cambio, el concepto mismo del objeto, ya que lo contrario de tal

concepto sería contrario al objeto… (p. 135).

Se es o no se es, esta frase simplifica el principio de no contradicción. De dos premisas entre

sí contradictorias, no podrá extraerse más que un juicio incompatible. Según Bunge (2001), en

24

En Moreno Villa (2003), Aristóteles siempre alegó que no era posible afirmar cosas contradictorias de lo mismo. Immanuel Kant en su obra:

Crítica a la Razón Pura (1997), tiende a usar ambos principios, identidad y contradicción, indistintamente. Aunque él junto a Hume sugirieron que el principio de identidad debía ser separado del principio de contradicción. Sostiene Kant, que la ley de identidad no es suficiente para establecer un nivel analítico, por lo que la asocia al principio de contradicción. Su diferencia estriba tanto en su forma lógica al sustentar enunciados como en su forma ontológica al referirse a objetos o cosas. Véase: Cap. II: Deducción de los Conceptos Puros del Entendimiento (pp. 83 y ss.). Aristóteles en el Órganon explica la relación entre Afirmación – Negación y Contradicción: la afirmación es una enunciación que atribuye una cosa a otra. La negación es la enunciación que separa a una cosa de otra… luego es evidente que para toda afirmación hay una negación opuesta, y para toda negación hay una afirmación opuesta… llamamos entonces contradicción a la afirmación y negación que son opuestas. Los silogismos o sentencias que se emitan en los juicios conclusivos de una investigación van orientados en dos sentidos: un pensamiento del objeto y una enunciación del objeto, los del pensamiento pertenecen a las categorías. Sin embargo, las contrariedades surgidas en las enunciaciones son expresiones que son sin duda contrarias, y lo son únicamente porque están expresadas contrariamente.

Ro

iman

Val

bu

ena:

El P

rin

cip

io d

e N

o C

on

trad

icci

ón

.

Page 43: La investigación científica avanzada primera edición 2015

42

lógica, una contradicción implica cualquier número de proposiciones, relevantes o irrelevantes,

verdaderas o falsas. Las contradicciones son fecundas, pues representan una verdad de la vida,

por consiguiente, lo mejor será enfrentarse a ellas y combatirlas cuando aparezcan, además, la

autenticidad de un enunciado orienta al científico hacia el camino del descubrimiento de la

verdad.

Según los planteamientos anteriores, ¿en qué se basa la necesidad de contradicción?, la

contradicción, o mejor dicho, la necesidad de no contradicción en ciencia, implica que ésta puede

tanto alejar como acercar al científico a la verdad. Sin embargo, no hay certeza ni aplicabilidad

tal en sus criterios que otorguen poder veritativo a determinado resultado científico. Sólo es

posible usarlo, como método formal en busca de inconsistencias analíticas en sentencias que

relacionen a los sujetos con sus predicados, puesto que este principio carece de contenido, razón

por la cual no es posible esperar de él, una explicación de los porqués, ni de la relación causa –

efecto sobre determinado fenómeno. Es así entonces, como puede ser usado para encausar la

razón, sobre la base de enunciados, que al hacer emerger la duda, tiende a disiparla.

Desde el punto de vista epistemológico, Bunge op, cit. afirma que deben evitarse, porque en

cierto grado son falsas, y el fin de la investigación científica es la búsqueda de la verdad objetiva.

También se le considera de suma importancia a la hora de someter el enunciado a todas las

pruebas de reducción al absurdo25

. Semánticamente, una proposición contradictoria es

completamente falsa si p, su constituyente elemental, solo puede tomar los valores de verdad V y

F. Pero si p, es una verdad a medias26

, entonces <<p y no-p>> también serán medio verdaderas.

Así, a medida que la verdad tiende a debilitarse, crece la contradicción.

En teoría de la acción como bien certifica Bunge, es posible afirmar que dos acciones son

contradictorias u opuestas entre sí, al momento que se hace imposible su ejecución simultánea

25

Primeramente, según Bunge (2001), la reducción como concepto consiste en una operación epistémica, o un tipo de análisis por el cual el

objeto reducido se conjetura o demuestra que depende de algún otro, lógica u ontológicamente, anterior al primero. Reducir es afirmar que, aunque A y B parezcan ser diferentes entre sí, en realidad son lo mismo. Nota del autor: el principio de reducción lógica, fácilmente puede ser aplicado sobre la evaluación de determinada investigación científica, sobre todo si esta se transforma a un modelo matemático, puesto que los juicios conclusivos se derivan de las premisas. En mi experiencia he podido apreciar, con gran preocupación, el cómo al operacionalizar variables se tiende a disgregar dimensiones, que aunque en apariencia son diferentes, en el fondo son la misma, considero esto un gran error. Su prueba se consigue tras someter a escrutinio, no las dimensiones en sí, sino a sus indicadores. Si siendo éstos de dimensiones en apariencia distintas, llegan a converger tanto en su estructura semántica lógica como en su semántica lingüística, podrá decirse entonces que no existe diferencia entre tales dimensiones. Tal acción errónea es consecuencia de un mal abordaje del proyecto derivado de una incorrecta revisión de la literatura, representando además, un gasto innecesario de tiempo. Uno de los métodos más poderosos de contraste para estos casos, consiste en aplicar, si se dispone de datos empíricos suficientes, las técnicas relativas al análisis factorial exploratorio y luego un análisis factorial confirmatorio, de la estadística Multivariada. Por su lado, la Reducción al Absurdo consiste en un proceso de razonamiento que deriva en una contradicción para determinado conjunto de premisas, en este caso no es que son o no lo mismo, es que son contradictorias. Por lo que ha de concluirse, que el sistema o fenómeno que se intenta explicar como un todo, es insostenible, a menos que algunas de las premisas sean rechazadas. La lógica establece procedimientos <<Modus>> para la corroboración, no importa cuál sea su caso. 26

En la lógica difusa es común el uso de verdades a medias o criterios no cerrados, por ejemplo, para la lógica tradicional es de día o de noche,

pero no ambos estados al mismo tiempo. No obstante, es bien sabido que la intensidad de la luz tiende a atenuarse conforme se acerca la noche. La lógica difusa establece que entre la luz y la oscuridad, entre el blanco y el negro, existe una escala infinita de grises que deben tomarse en cuenta, allí se miden distancias entre escalas de grises usando etiquetas lingüísticas. Refiérase al Capítulo V: El Razonamiento más allá del ser Humano. Sección 5.3. Lógica Polivalente: Lógica Difusa.

Ro

iman

Val

bu

ena:

El P

rin

cip

io d

e N

o C

on

trad

icci

ón

.

Page 44: La investigación científica avanzada primera edición 2015

43

<<nado bajo el agua a la vez que respiro tranquilamente>>, o si sus consecuencias separadas son

mutuamente excluyentes. Por ejemplo: caminar y tumbarse, construir y destruir la misma cosa, o

competir y cooperar en el mismo aspecto. Como acción, el Principio de Contradicción afirma

hechos, se limita a presentar discrepancias entre dos argumentaciones, discrepancias que a pesar

de substanciarse más, seguirán siendo incompatibles.

En ocasiones, es posible encontrar investigaciones científicas tan mal sustentadas, que basta

sólo con someterlas a las pruebas silogísticas de reducción al absurdo para corroborar su carencia

de verdad lógica-científica. Tales silogismos aparecen cuando se toma la porción contradictoria

emitida en el juicio conclusivo, y se le añade a esta, otra proposición. Según Aristóteles27

, se

forma en todas las figuras y se asemeja a una conversión. Diferenciándose en que sólo es posible

hacer tal conversión cuando ya el silogismo ha sido formado y formulado, y además, se han

admitido las dos proposiciones, para ello es necesario que la investigación haya sido finalizada.

Mientras que se reduce al absurdo cuando la contradictoria, si bien al principio no ha sido

concedida, se le asume verdadera bajo toda evidencia. En la investigación científica existe

contradicción si la verdad carece de fuerza, si no se ha sustentado una razón suficiente. Es de

recalcar que esta prueba obedece a las leyes del silogismo enunciadas sintéticamente.

Como regla general, el Principio de no Contradicción intenta persuadir al investigador de

tratar de combinar estructuras o ideas que sean estrictamente contradictorias. La mente humana

es capaz de discriminar opiniones que no se acoplan a su estructura racional, de allí surge la

duda, y es ésta la razón de ser de la lógica, que mediante prueba disipa. Las verdades no pueden

ser contradictorias, de serlo, para nada serviría este principio, todo sería verdadero a la luz de

cualquier cosa.

Hasta aquí el lector podrá haberse percatado, que el Principio de no Contradicción pareciese

buscar, sólo el otro lado de la igualdad planteado por el Principio de Identidad. Es por ello que

muchos autores tienden a usarlos simultáneamente. No es menester de este aparte en el presente

texto, pretender explicación más sofisticada y profunda de ambos principios, ni mucho menos

generar discusión alguna sobre los orígenes y concepciones filosóficas, ontológicas,

epistemológicas o metafísicas, que los hacen parecer similares o diferentes. Sólo se aspira que el

lector, movido por el principio de la duda razonable, los aplique en su quehacer científico. Ante

el olvido, prácticamente absoluto y por parte de algunas comunidades científicas, de la

corroboración a través del uso, no sólo de estos principios, sino de los que a continuación se

describen.

27

Primera figura de Reducción al Absurdo. El Órganon, (p. 149 y ss.).

Ro

iman

Val

bu

ena:

El P

rin

cip

io d

e N

o C

on

trad

icci

ón

.

Page 45: La investigación científica avanzada primera edición 2015

44

1.8.- El Principio o Ley del Tercero Excluido

ste principio, también denominado Ley del Tercero Excluido, propuesto y

formalizado por Aristóteles, se erige como una ley del pensamiento, donde se establece

que existiendo dos proposiciones, las cuales recíprocamente se nieguen, al menos una

de ellas ha de considerarse necesariamente verdadera, es decir, una tercera no se da. O bien se

admite a “P” como verdadera, o su negación “-P” lo es… (Tautología). Planteado de otra

manera, al hallarse dos proposiciones contradictorias no hay cabida a una tercera posibilidad, por

ende, cualquier término medio queda excluido.

Sin embargo, no ha de confundirse con lo propuesto por la lógica bivalente, aunque muchos

lógicos establecen que son exactamente lo mismo e incluso niegan su eficacia28

, en ésta, la

verdad sólo adquiere dos valores, verdadero o falso. Su principal diferencia estriba en que la ley

del tercero excluso se construye a través de expresiones sintácticas pertenecientes a la lógica de

la forma, mientras que con el principio de bivalencia por lógica simbólica, es posible validar y

comprobar la ley, más no así el principio de bivalencia. Según Ferrater Mora (2004), hay autores

que asumen a este principio como una forma especial de contradicción, otros en cambio,

sostienen su mutua autonomía, pues declaran que este principio es distinto al de contradicción y

al de identidad. Por otro lado, desde la segunda mitad del siglo XIX, los estudiosos de la lógica

se dividieron en dos áreas, una de ellas denominada matemática lógica que aceptaba al principio

del tercero excluido y llamados comúnmente lógicos clásicos. Y otro segmento que no aceptaba

su uso tal y como lo había planteado Aristóteles, a estos se les denominó Intuicionistas Lógicos.

Esta ley, desde el punto de vista intuicionista, es usada muy comúnmente como parte de un

proceso de demostración propuesto en sus inicios por Andréi Kolmogorov, conocido por sus

28

Consúltese los escritos de: Emil Post <<The Two-Valued Iterative Systems of Mathematical Logic>>; Por su lado, los polacos Jan Lukasiewicz

y Alfred Tarski se dedicaron a trabajar en una lógica de tres estados que facilitó el origen del Soft computing y la Lógica Difusa entre otros. Estos se aparataron de los sistemas lógicos formales o bivalentes, y construyeron sistemas lógicos trivalentes o polivalentes bastantes robustos y muy usados hoy en día en el diseño de software computacional. Esto ha funcionado como primer eslabón en la cadena de desarrollos tecnológicos verdaderamente impresionantes. En capítulos posteriores, capítulo V específicamente, se da una amplia disertación sobre estos modelos lógicos.

E

La Lógica misma no puede dar a nadie la respuesta a las cuestiones de fondo, pero sin lógica,

frecuentemente no se sabría la importancia de lo que conocemos, es por ello que a menudo se cae en la

falacia y la inconsistencia.

Peter Geach.

Page 46: La investigación científica avanzada primera edición 2015

45

estudios estadísticos y matemáticos, además de su prueba no paramétrica Kolmogorov –

Smirnov29

. Kolmogorov hizo intentos por trasladar la matemática clásica hacia la matemática

intuicionista, este autor en 1925 propuso un increíble sistema intuicionista que logró juntar dos

modelos de sistemas matemáticos formales, el de Brown y Hilbert del cálculo proposicional,

para ello esquematizó un sistema de axiomas pero no hizo pruebas para cuantificar una teoría

completa.

Kolmogorov diseñó un sistema de lógica denominado lógica ―Beta‖ <>, cuya axiomática se

deshace de aquellas fórmulas que permitían codificar el Tercero Excluido de Hilbert, y de esta

axiomática Hilberiana es de donde extrae todo el conjunto de axiomas positivos. Con su obra de

1925 demuestra que aplicando una correcta interpretación, era posible transformar cualquier

conjunto de declaraciones desde la lógica formal hacia la intuicionista. Kolmogorov en sus

intentos por contribuir a la formalización de una lógica intuicionista y sus propiedades, aseveró

lo siguiente con respecto al Principio del Tercero Excluso:

Demostraremos que todas las conclusiones obtenidas con el principio del tercero

excluido son correctas, siempre que cada juicio que entre en su formulación se

sustituya por una sentencia afirmando en doble negación. Llamaremos a una doble

negación de un juicio a una Pseudo-Verdad. Entonces, en la metamatemática de esta

Pseudo-Verdad es legítimo aplicar el Principio del Tercero Excluido. Kolmogorov

(1925, p.416)30

.

En la investigación científica, el principio del tercero excluido se utiliza para dilucidar

ambigüedades y para eliminar tergiversaciones de ciertas inferencias que puedan contenerlas.

Allí el Principio de no Contradicción facilita la exclusión de cualquier tercer valor de verdad no

tomado en cuenta. Se emplea también para descubrir y eliminar antinomias y falacias lógicas

formales, que si bien parten de la buena voluntad del científico al crear la proposición, esta no

debe ser tomada como verdadera ni falsa, sino indeterminada, pues este principio se erige como

la forma de razonamiento natural para reconocer cosas, y se reconocen por asociación contra

algo parecido que ya se conoce.

Según describe Eli de Gortari (1988), para que este principio sea válido, es necesario suponer

la existencia lógica de aquello en lo que se aplica, en el universo del discurso sobre el cual se

entiende razonar. En el sentido estricto de Mario Bunge (2001), el principio, al igual que las

dicotomías: blanco o negro; bueno o malo; y capitalista y socialista, ha sido incomprendido. Este

error se sobreviene puesto que al principio del tercero excluido se le hace imposible operar

29

Dócima de una muestra y dos muestras independientes. Para poder usar una prueba paramétrica debe demostrarse normalidad, evento

contrario, la prueba de Kolmogorov – Smirnov, no paramétrica, se usa para los casos donde al menos, una de las variables presente un nivel de medición ordinal, es decir, si carece de normalidad. 30

Puede leerse en el Libro: From Freege to Godel: A Source Book in Mathematical Logic, (1967).

Ro

iman

Val

bu

ena:

El P

rin

cip

io o

Ley

del

Ter

cero

Exc

luid

o.

Page 47: La investigación científica avanzada primera edición 2015

46

ontológicamente, es decir sobre objetos reales o sobre cosas concretas. Entonces, sólo es posible

aplicarlo sobre proposiciones, actúa dividiendo cada conjunto de proposiciones en afirmaciones

y sus negaciones.

El Principio del Tercero Excluido se encuentra atado a distintas concepciones de la realidad y

no puede aplicarse cuando las clases a las que pertenezcan los objetos sean subjetivas. En ese

mismo orden, Belfiore (2004), aconseja que si se hace uso de una lógica basada en 3, 4 o más

valores de verdad31

<<tal como en las investigaciones tecnológicas>> el principio del tercero

excluido debe ser llamado: Principio de los Infinitos Valores Intermedios.

31

Lógica Difusa, Lógica de Godel, Intuicionista o Dialéctica de Hegel. También Denominadas Lógicas Aproximadas.

Ro

iman

Val

bu

ena:

El P

rin

cip

io o

Ley

del

Ter

cero

Exc

luid

o.

Page 48: La investigación científica avanzada primera edición 2015

47

1.9.- El Principio de la Razón Suficiente

ara el ser humano, el Principio de Razón Suficiente subyace en la necesidad de

dilucidación para cada acontecimiento o fenómeno natural, rechazando cualquier

posibilidad e intento de someter por fuerza, la explicación de un hecho. Si bien es

cierto, para el hombre común algunas explicaciones son suficientes, para el científico existe una

verdad necesaria con extensión ilimitada. De la nada, nada viene. Este es otro principio

íntimamente relacionado al de la razón suficiente, y en ciencia, todos los hechos, o son

explicables o habrá que hacerlos hablar. Ningún fenómeno por sí solo es auto-explicable o es

auto-causado, siempre ha de obtenerse al menos una explicación mínima y suficiente para que el

evento se considere entendido. Más, el científico necesitará conocer todas las variables que se

presumen su génesis.

Para Spinoza (1663)32

, el onceavo axioma que hace referencia a una exposición geométrica de

los Principios de Filosofía de Descartes, establece: No existe nada a lo que no se le pueda pedir

¿Cuál es la razón? Por la que existe. Su explicación se presenta así: dado que existe es algo

positivo, entonces, no se puede decir que no tiene nada como su causa (axioma 7). Entonces,

habrá que asignársele una causa positiva. De esta manera, el Principio de la Razón Suficiente se

convierte en el primer motivo para el accionar científico.

Ninguna causa puede producir todo su efecto en un mismo instante de tiempo, aunque existen

causas y efectos simétricos <<Concomitantes33

o Epifenoménicos>>, el espacio temporal entre

la causa y su efecto han de ser determinados. Si el espacio de tiempo entre “A” y “B”, donde

“A” precede y “B” sucede, es tan corto que puede ser visualizado, entonces toda razón

explicativa ha de conducir a algún concepto de acción, es decir, incluye alguna interacción entre

objetos físicos. Lo que lleva a inferir, que existe una interacción física como, que la mejor

32

De esta manera Aparece referenciado por The Stanford Encyclopedia of Philosophy. Tema: Principle of Sufficient Reason. 33

Se dice que, cuando una variable oscila en su nivel de intensidad sujeta a que otra también lo haga entonces existen variaciones

concomitantes o concomitancia. Para un mejor entendimiento del término, Véase: Los Cánones de Mill, Método de las Variaciones

Concomitantes. Capítulo X: La Investigación Experimental.

P

Nada sucede sin razón. Lo que significa que cada cosa es lo que de alguna manera es. Todo lo que

pasa a ser real tiene alguna razón para serlo. Cualquier cosa que pase a ser posible tiene alguna

razón para tal posibilidad. Cualquier cosa que pase a ser necesaria tiene una razón para esta

necesidad… entonces… Nada sucede sin razón.

Martin Heidegger.

Page 49: La investigación científica avanzada primera edición 2015

48

explicación posible puede ser representada por medio de ecuaciones que describan el estado de

tal sistema.

El mencionado sistema debe presentar tanto consistencia lógica como reciprocidad de

acciones, allí la razón suficiente adquiere patrones de similaridad y reconocimiento, además de

equivalencia, diferenciando toda simetría y proporción, haciéndolas concatenar con ideas

lógicamente consistentes, abarcando entre otras, cualquier idea que posibilite la contradicción.

Para alcanzar con exhaustividad y completitud cualquier explicación soportada en el Principio de

Razón Suficiente, el investigador necesitará descomponer tal razón suficiente en unidades de

razón34

.

Donde cada una de estas unidades aportará un sentido de proporción a través del cual se hará

posible observar el universo que rodea al fenómeno, y donde cada individuo ocupa su lugar,

construyendo relaciones de los unos con los otros. Tratando siempre de establecer dependencias

lógicas sin digresiones para adaptarlas a la estructura cerebral de quien o quienes recibirán y

aceptarán tal razón suficiente. En ese sentido, una estructura cerebral se construye a través de

procedimientos lógicos que condicionan a la mente para aceptar ideas, en donde cualquier

argumento contradictorio se torne realmente inconcebible. Es allí donde se concatena cada

unidad de razón con otra, haciéndose tan sólidas que logren constituirse en ideas de verdad o

realidad, arrojando como resultado, una explicación tan amplia y precisa que pueda

transformarse para muchos en una razón suficiente. Ésta simplemente se emite a través del

denominado juicio auto-consistente basado en el pensamiento reflexivo.

En otro contexto, para Heidegger Op, Cit, cada causa tiene un tipo de razón, pero no cada

razón brinda algo sobre el sentido de causación (p. 117). Por ejemplo, explica el autor: la

sentencia universalmente aceptada y válida: ―Todos los Hombres son Mortales‖, de hecho

contiene la razón por la cual se observa que Sócrates es mortal, pero no explica las causas de la

muerte de Sócrates. Según Heidegger, Leibniz fue una de las principales figuras en el desarrollo

de una teoría sobre el Principio de la Razón Suficiente, para este último, consiste en uno de los

Supremos y Fundamentales Principios, pero no el más importante. Leibniz lo denominó; ―The

Principium Reddenda e Rationis‖ o ―To Render the Reason‖, es decir, El Principio de la Razón

Prestada. Y sobre el cual existen 3 preguntas, todas aparecen en Heidegger op, cit (p. 117 y ss.):

1. ¿Cómo es que una razón es siempre una razón prestada?

2. ¿Cómo es que una razón debe ser prestada o rendida, es decir, adelantada explícitamente?

34

Los conceptos de Unidades de Razón y de estructura cerebral fueron tomados del libro de FitzGerald (1887). A Treatise on the Principle of

Sufficient Reason. P. (54-55).

Ro

iman

Val

bu

ena:

El P

rin

cip

io d

e la

Raz

ón

Su

fici

ente

.

Page 50: La investigación científica avanzada primera edición 2015

49

3. ¿A quién o a qué se le pide prestada una razón?

Leibniz respondió a la primera pregunta con una muy interesante observación. Una razón es

una razón prestada, porque la verdad sólo puede ser verdad si una razón puede ser prestada

para ella. Y una razón es prestada simplemente porque rinde cuentas a una sentencia de verdad.

De lo escrito por Leibniz se interpreta que, a medida que se sumen o resten unidades de razón al

juicio que afirma, concatenando para más o para menos una razón con otra, la idea de la razón

prestada se hace más verdadera.

A la segunda pregunta responde de la siguiente manera: La verdad de un juicio se representa

como una proporción, es decir, una cuenta. Si nos son dados los juicios restantes sin

justificación, entonces se carece de evidencias concretas y correctas. Los juicios por sí mismos

no son verdad, un juicio solo es verdadero cuando se especifica una razón para concatenarlo

cuando existe relación, es decir, cuando se da una cuenta. Es como una donación, cuando la hay,

surge la necesidad de entregarla y rendirla. En ocasión de la tercera pregunta respondió: a los

humanos, pues son quienes determinan los objetos como objetos y los juzgan a través de su

representación.

Se ha otorgado pues razón suficiente sólo cuando, tanto el receptor de la explicación como

quien la describe, se sosiegan y satisfacen con la verdad mental, es decir, la explicación se torna

conforme a los actos del entendimiento. Y, al contrastar con la verdad real, cada cosa es

indubitablemente lo que es. La verdad mental es simplemente lógica, la real es la

correspondencia entre las cosas. Satisfacer el Principio de la Razón Suficiente es un verdadero

acto de ciencia, donde cada investigador ha de usar las destrezas de las que dispone y lo

cualifican. En ese orden, no se abordará más en profundidad o más de lo requerido el tema ni su

proceso. Sin embargo, se recomienda al principiante, desarrollar a motu-proprio las nociones de:

raciocinio; entimema; dilema; paradoja; la ciencia de la argumentación; unidad de razón;

entrelazado de nociones e ideas y destrucción de sofismas. Los capítulos posteriores de este texto

le ampliará más formalmente el panorama en cuestión.

Ro

iman

Val

bu

ena:

El P

rin

cip

io d

e la

Raz

ón

Su

fici

ente

.

Page 51: La investigación científica avanzada primera edición 2015

50

1.10.- El Principio de Correspondencia

l Principio de Correspondencia establece que, toda nueva teoría, la cual se entiende

viene a suplantar a otra, ha de poder explicar por qué su antecesora ha operado tan bien

como ha sido posible observar, su explicación debe basarse en la junción o

complementación de conceptos. Según Abbagnano (2004, Véase concepto de:

Complementariedad), se llaman complementarios a dos conceptos opuestos, pero que se

corrigen recíprocamente y se integran en la descripción de un fenómeno. Según Bunge (2001),

la correspondencia como regla metateórica, consiste en un enlace entre lo teórico y lo empírico.

Este principio, más que a la lógica, pertenece a la arquitectura de la razón.

Un ejemplo de ello se hizo evidente cuando Einstein, introduciendo su Teoría de la

Relatividad Especial, suplantó a la Mecánica Clásica Newtoniana, por demás útil y que describe

muy bien a los sistemas macroscópicos. Einstein se vio en la necesidad de establecer conceptos

de correspondencia y de explicar por qué muchas de sus observaciones coincidían, incluso casi

por completo su misma ecuación, siendo ésta una teoría en apariencia diferente. En su discurso,

debió aclarar por qué la tradicional Teoría de Newton había sido tan eficaz. No se trataba en sí de

refutar una teoría, sino de complementarla con otra, es decir, presentaba la combinación

Constructiva – Mediativa de los experimentos mentales35

.

En matemáticas se dice que existe correspondencia cuando algunos elementos del conjunto

“X” se relacionan con otros pocos del conjunto “Y”. La correspondencia establece una noción

de orden y jerarquía, evidenciando la existencia de una relación o vínculo. En la investigación

científica, sobre todo en la comparativa, existirá correspondencia unívoca si las poblaciones o

conjuntos a comparar presentan cada una la misma cantidad de sujetos. Si la correspondencia es

uno a uno, es decir, sujeto a sujeto, entonces se denomina cardinal.

Donde para cada “a” del conjunto “X” coexistirá también un “a” en el conjunto “Y”, esto

35

Refiérase a la sección de los Experimentos Mentales en el Capítulo X: La Investigación Experimental.

E

Toda teoría bien fundamentada cumple al menos 4 requisitos: es consistente con todas las

observaciones previas; sus predicciones pueden ser probadas experimentalmente; debe poder

aplicársele al menos un falsador potencial y; debe ajustarse al principio de correspondencia. En caso

contrario, no es digna de llamarse una teoría científica.

Roiman Valbuena.

Page 52: La investigación científica avanzada primera edición 2015

51

asegura de alguna manera la igualdad en cuanto al número entre dos poblaciones equivalentes.

Ahora bien, si en el proceso comparativo existen más de dos poblaciones, se establece una

correspondencia múltiple. Para el científico, cualquier idea de correspondencia ha de ir precedida

por evidencia soportada por la lógica de relaciones y la lógica de clases, pues es ésa la manera de

construir conocimiento, la de relaciones permite visualizar la posibilidad de correspondencia, la

de clases establece la cantidad de conjuntos a corresponderse.

Para la filosofía Hermética planteada en El Kybalion36

, siempre hay cierta correspondencia

entre las leyes y los fenómenos, este es un principio de aplicación universal: Como es arriba, es

abajo; como es abajo, es arriba. Según su plano de vibración: nada esta inmóvil; todo se mueve,

todo vibra. De acuerdo a su plano de polaridad:

Todo es doble, todo tiene dos polos; todo, su par de opuestos: los semejantes y los

antagónicos son lo mismo; los opuestos son idénticos en naturaleza, pero diferentes

en grado; los extremos se tocan; todas las verdades son medias verdades, todas las

paradojas pueden reconciliarse. Rinaldi op, cit (p. 53).

De hecho, cuando se habla de temperatura, el frio y el calor no son opuestos, simplemente

están separados por grados y con un mismo instrumento se miden ambos. De la misma manera, y

aunque la teoría general de sistemas no es considerada una teoría científica por la amplitud de su

contenido e imposibilidad de refutación, se soporta sobre importantes nociones de

correspondencia, se expresa así: ―No hay fenómeno digno de entenderse por sí solo; pues todo

forma parte de un sistema <<jerarquía que relaciona>>. En todo sistema existen conjuntos

macros, mesos y micros, que además de estar relacionados, interactúan los unos con los otros‖.

Y, si el científico pudo dar una razón suficiente al fenómeno abordado, es menester ahora

describir y explicar su correspondencia con otros elementos de su entorno.

En física, el principio fue introducido por el físico Danés Niels Bohr en 1923 en el contexto

de la vieja teoría cuántica, según Bohr, este principio de complementariedad o correspondencia

se expresa así: Una descripción espacio – temporal y una secuencia causal rigurosas de

procesos individuales no pueden ser realizadas simultáneamente, pues debe sacrificarse la una o

la otra37

. Bohr planteó simplemente, si bien es cierto, la física clásica y la física cuántica difieren

grandemente, cualquier modificación que hubiere de practicársele a las ecuaciones de la

mecánica clásica cuando aborda temas sub-microscópicos, al ampliar sus resultados al mundo

macroscópico estos deben corresponderse.

36

Véase: El Kybalion y la Ciencia por Silvia Rinaldi (2003). 37

Véase: Nicola Abbagnano, diccionario de filosofía, Principio de Correspondencia.

Ro

iman

Val

bu

ena:

El P

rin

cip

io d

e C

orr

esp

on

den

cia.

Page 53: La investigación científica avanzada primera edición 2015

52

Para Bohr, su principio establece que al observar las leyes que gobiernan las acciones y

reacciones de los objetos grandes, estos no pueden más que originarse de las mismas leyes que se

observan en el mundo microscópico. En el caso de la física, cualquier observación de la física

clásica se origina en la mecánica cuántica. Ahora, preste atención al siguiente ejemplo de

Russell38

(1984) en cuanto a los niveles de organización de la materia: las partículas elementales

se juntan para formar átomos estos átomos se combinan y forman moléculas de estas se

forman las micro-moléculas al combinárseles se da origen a las células simples de su

combinación nacen las células complejas de éstas últimas se originan los tejidos y los órganos

y esto es lo que da origen a los seres humanos, es decir, a organismos autoconscientes. Esto es

un sistema.

Sin embargo, a Bohr se le cuestionó, puesto que en la mecánica cuántica se presenta el

denominado Principio de Incertidumbre de Heissenberg, este dificulta predicciones tan exactas

como en la física clásica. Bohr respondió de la siguiente manera39

: cuando se usa el principio de

correspondencia y se estudian objetos cada vez mayores, las leyes inciertas que gobiernan a las

partículas subatómicas, deben ir manifestando menor incertidumbre conforme se acercan así a

las leyes clásicas (p. 45). Asegura también… existe una especie de transición desde lo pequeño

a lo grande según lo cual en ambas teorías debe darse el mismo resultado. Y en el límite,

algunos fenómenos podrán explicarse con ambas teorías, a esto se denomina correspondencia. Es

decir, este principio permite la correspondencia entre dos teorías que hasta 1923 carecían de

relación alguna.

38

Aparece en El Kybalion. 39

Aparece en: El Ocaso de la Certeza por Salvador Jara Guerrero.

Ro

iman

Val

bu

ena:

El P

rin

cip

io d

e C

orr

esp

on

den

cia.

Page 54: La investigación científica avanzada primera edición 2015

53

CONTENIDO DEL CAPÍTULO

2.1.- El Conocimiento y las Ideas

2.1.1.- El Conocimiento Inmediato – Directo o Intuitivo

2.1.2.- Los Conocimientos A Priori y A Posteriori

2.2.- El Conocimiento Demostrativo

2.3.- Acerca de las Leyes Científicas

2.4.- Modelo Kuipers de Reducción de Leyes por Teorías

2.5.- Sobre la Im/posibilidad de Leyes Científicas en la Investigación Social

La Investigación Científica Avanzada

C

A

P

Í

T

U

L

O

II

Conocimiento, Ideas y Leyes Científicas

El conocimiento que se adquiere por obligación no tiene ningún poder sobre la mente.

Platón.

Page 55: La investigación científica avanzada primera edición 2015

54

2.1.- El Conocimiento y las Ideas

e entiende por conocimiento, a una operación de la mente y el entendimiento que se da

lugar en la conciencia, mediante la cual, un sujeto cognoscente aprehende un objeto

cognoscible del mundo exterior circundante, siendo el objeto, trascendente al sujeto

cognoscente, condición necesaria para que se reproduzca tal acto. Es cuando el sujeto epistémico

asimila para sí sus cualidades y propiedades. Su razón de ser es la de alcanzar escalando, ciertas

nociones de verdad, de manera que le asienta a comprender los fenómenos que le rodean. Se dice

que un hombre ha adquirido conocimiento cuando demuestra que es capaz de entender el

concepto que representa al objeto y adquiere competencias para juzgarlo. El conocimiento es el

resultado de ejecutar operaciones con las ideas, de su combinación y análisis, luego de

interpretar aquello percibido del exterior. El conocimiento es poder, la ignorancia oprime…

Nada en el mundo es más peligroso que la ignorancia sincera y la estupidez concienzuda.

Martin Luther King Jr.

El conocer se produce a través del trabajo conjunto entre los sentidos y la inteligencia.

Significa que la mente analítica utilice la noción de orden para relacionar, separando así, lo igual

de lo distinto, el efecto de su causa, y ordenar las cosas según ciertas prerrogativas de

operaciones voluntaria. El conocimiento permite al hombre comprender la esencia de las cosas,

lo que son, para qué están allí y porqué. Su adquisición se asocia a la práctica común de cierta

actividad cotidiana.

A una idea por su lado, se le concibe como una unidad mental, en un primer momento aislada

y que puede ser representada como un concepto. Cuando la conciencia establece relaciones

lógicas entre diferentes ideas, se crean nociones mentales que dan forma a una proposición, de

hecho, toda proposición es una relación entre al menos dos ideas. Las ideas en la mente existen

como potencias mentales que luego de procesadas por la inteligencia dan orden a las operaciones

del entendimiento.

S

El verdadero signo de inteligencia no es el conocimiento sino la imaginación. La sabiduría no es un

producto de la educación, sino del intento de por vida para adquirirla.

Albert Einstein.

Las ideas son más poderosas que las armas; si no permitimos que nuestros enemigos tengan armas…

¿por qué hemos de asentirles el tener ideas?

Joseph Stalin.

Page 56: La investigación científica avanzada primera edición 2015

55

Las ideas se generan en la conciencia, y son la evidencia que patentiza una operación

intelectual. Para Locke40

, las ideas son aprehensiones del sujeto cognoscente y no propiamente

conocimientos, sin embargo, son estas las que permiten construir el conocimiento humano. Sin

ideas las sensaciones carecen de forma, toda sensación es por tanto objetiva. Más, las ideas

conforman la parte subjetiva que cristaliza conocimientos. La ciencia depende de las ideas, sin

embargo, allí la dificultad estriba no realmente en concebirlas, sino, en deshacerse de las viejas.

Locke41

argumenta que las ideas sólo tienen un origen:

Todas las ideas vienen de la sensación o de la reflexión42

. Supongamos, entonces,

que la mente sea, como se dice, un papel en blanco, limpio de toda inscripción, sin

ninguna idea. ¿Cómo llega a tenerlas? ¿De dónde se hace la mente con ese

prodigioso cúmulo, que la activa e ilimitada imaginación del hombre ha pintado en

ella, en una variedad casi infinita? ¿De dónde saca todo ese material de la razón y del

conocimiento? A esto contesto con una sola palabra: de la experiencia; he allí el

fundamento de todo nuestro conocimiento, y de allí es de donde en última instancia

se deriva.

A lo planteado por Locke, William Whewell43

(1840) agrega: los únicos procesos mediante

los cuales es posible construir la ciencia son la Explicación de Conceptos y la Concatenación de

Hechos. Los hechos se corresponden con los materiales de la ciencia, pero todos los hechos

envuelven ideas. En ese sentido, al observar hechos no es posible excluir ideas, se debe entonces,

para propósitos de la ciencia, asegurarse de que cada idea sea clara y rigurosamente aplicada, P.

21.

Basada en ideas innatas, la razón produce un orden que le consiente a establecer la posibilidad

de formular hipótesis plausibles atribuibles a la psicología de procesos cognitivos. En todas las

ciencias, ciertas ideas en un primer momento parecen extrañas44

, no obstante, son esas

nociones mentales las que permiten establecer secuencias sobre operaciones hipotéticas

conformadas como imágenes en el cerebro humano, alzándose sobre el fenómeno y

explicándolo. Según la psicología, toda buena idea se mejora con la concentración, en este estado

se producen los denominados flashes perceptivos o razonamientos de alta velocidad.

40

LIBRO II. CAPÍTULO 1. De las ideas en general y de su origen. En: Ensayo sobre el Entendimiento Humano. (1999) Véase. 41

Puede leerse en el mismo aparte. 42

Según la óptica de David Hume, percepción es toda representación alojada en la mente, en consecuencia, las hay de dos tipos: las

impresiones y las ideas. Las primeras son fuertes y bastantes claras a la conciencia, es de allí donde surgen las ideas como copias de tales impresiones alojadas en la mente pero no tan fuertes como las impresiones. Pues toda impresión deja como marca una idea, a su vez, no hay ideas que no tengan como origen alguna impresión. 43

Véase: Aphorism Concerning Science: Aphorism I and IV. 44

Einstein presentó varios trabajos que para muchos eran derivados de ideas extrañas: 1- Medir la velocidad de la luz usando como

instrumento a un interferómetro. 2- Concibió la idea para determinar el efecto del calor en la conductividad eléctrica de un material. Ambos fueron rechazados por Weber su director de tesis. Incluso al cambiar de director, un tercer proyecto le fue rechazado por simple. A raíz de ello no podía encontrar empleo y no lo aceptaban como profesor en las universidades. En cierta época debió sobrevivir dando clases particulares con clientes que captaba de publicaciones en los periódicos. Presenta entonces en 1907 su primer artículo sobre la teoría de la relatividad en la Universidad de Berna, el cual fue rechazado porque no pudo ser comprendido. Quizás la idea más extraña de Einstein fue el afirmar que nunca habló hasta los tres años puesto que no deseaba hacerlo como otros niños con palabras cortadas, y hasta que no se sintiera formado para dialogar con frases completas no lo iba a hacer.

Ro

iman

Val

bu

ena:

El C

on

oci

mie

nto

y la

s Id

eas.

Page 57: La investigación científica avanzada primera edición 2015

56

Es en el estado de concentración donde un efecto encuentra su causa. Según Locke Op, Cit.

El científico necesita haber desarrollado las facultades naturales de percepción, comprensión y

memoria. Además de facultades innatas como: la abstracción, la comparación y el

discernimiento. La combinación de ellas da origen a la facultad de teorización. Es allí donde

cada juicio se afina a manera de distinguir y separar las ideas similares de las contrapuestas. Al

comparar ideas en las cuales sus acuerdos y desacuerdos no puedan ser establecidos a primera

vista, especialmente si su naturaleza no admite una relación precisa de la una con la otra,

entonces es necesario establecer coincidencias mutuas entre las partes mediante una tercera idea,

denomínese a este proceso relaciones remotas.

Las relaciones remotas permiten descubrir significados entre ideas usando símbolos

intermedios, en el descubrimiento de relaciones entre ideas se comparan instancias coincidentes

con instancias no coincidentes, si en un primer momento no existen o no están presentes, se

precisa entonces de la intervención de una tercera idea, a esto se llama razonamiento, siendo esto

último lo que a la final permite cristalizar conocimientos. Se dice que se ha completado un acto

de razonamiento, sólo cuando se emite un juicio basado en la comparación de una idea

intermedia con las de sus extremos.

A la primera se le denomina premisa mayor y contiene al objeto cognoscible, a la intermedia

o conectora se le llama premisa menor y es la que presenta las características atribuidas al objeto,

por último se da la conclusión, juicio mediante el cual se asienta un conocimiento mediante

arbitraje de una idea intermedia. En virtud de que la mente las ordena jerárquicamente,

colocando una después de la otra, se obtiene como resultado un conocimiento que no pudo ser

formado sin las premisas. Se concibe a esto como un acto razonamiento, y se explica como

resultado de describir exactamente lo que pasa en el cerebro cuando le sigue la pista a las ideas y

las concatena.

A continuación se describen algunas formas de adquirir conocimientos de manera natural,

existen varios tipos de conocimiento fuera del ordinario: el denominado conocimiento Inmediato

o directo e intuitivo; los a priori y a posteriori; además del conocimiento demostrativo.

2.1.1.- El Conocimiento Inmediato – Directo o Intuitivo

Se entiende como conocimiento inmediato al proceso mental encargado de que el hombre

reconozca los objetos que observa, es una facultad de la memoria que le asiente a identificar

Ro

iman

Val

bu

ena:

El C

on

oci

mie

nto

y la

s Id

eas.

Page 58: La investigación científica avanzada primera edición 2015

57

inmediatamente a una cosa previamente grabada en ella y donde no media la demostración.

Según la fenomenología del conocimiento, este se corresponde con la etapa sensorial. Desde ese

punto de vista, todo conocimiento inmediato se basa en la experiencia. La vista capta y la mente

interpreta lo que al hombre se le presenta, es el resultado del dato sensorial de la visión que no

involucra ninguna inferencia ni ha sido objeto de raciocinio o reflexión. Se le conoce como

inmediato puesto que a la esencia del objeto conocido no se le interpone la esencia de ningún

otro objeto, no existe proceso intermedio alguno entre el dato observado y la conclusión

expresada. Es diferente al conocimiento mediato, el cual se obtiene como producto del

razonamiento por la inferencia.

A la intuición por su lado, se le conoce como el acto inmediato generado en el inconsciente45

que permite interpretar la verdad de una proposición o se aprehende a un objeto como concepto.

También a la forma de conocer inmediatamente la verdad sin la intervención de algún

razonamiento lógico y donde no ha intercedido ningún análisis. Para Kant, en ciencias, los

conceptos sin intuición son vacíos y la intuición sin conceptos esta ciega. Según

Soyarslan46

(2011), el conocimiento intuitivo y la razón, bajo las consideraciones de Spinoza,

difieren sólo en términos de su método. Ambos son formas adecuadas de conocimiento pero no

iguales, afirma Spinoza que la más grande perfección humana consiste en entender cosas

mediante el conocimiento intuitivo, simplemente porque es superior a la razón.

Una conceptualización más reciente de conocimiento intuitivo en ciencias aparece reseñada

en Lindstron; Marton; Ottoson y Laurillard (1993):

El conocimiento intuitivo en ciencias consiste en formular o resolver un problema a

través de una repentina iluminación basada en una percepción global del fenómeno.

Admitiendo que su origen proviene de una amplia variedad de experiencias de tal

fenómeno a lo largo del tiempo. Una de las características más resaltantes del

conocimiento intuitivo es que es difícil de verbalizar. (264 – 265).

El conocimiento intuitivo es momentáneo, desaparece muy rápido, al mismo tiempo que la

sensación que lo genera también lo hace. No se restringe a lo que el hombre pueda percibir a

través de los sentidos, sino que entra hasta el plano intelectual. Este conocimiento es la génesis

de todo saber. La exposición a acciones sensibles no se constituye en sí en un verdadero acto de

saber, sólo admite observar determinado fenómeno particular, y por no presentar conexión con la

razón y el entendimiento, es imposible extraer de él el porqué de cada cosa. Para ello son

necesarios otros tipos de conocimiento.

45

El conocimiento generado en la conciencia es producto de la mente analítica. 46

Véase: Reason and Intuitive Knowledge in Spinoza’s Ethics: Two Ways of Knowing, Two Ways of Living.

Ro

iman

Val

bu

ena:

El C

on

oci

mie

nto

y la

s Id

eas.

Page 59: La investigación científica avanzada primera edición 2015

58

2.1.2.- Los Conocimientos A Priori y A Posteriori

A Priori, según Rosental – Iudin (2004), término de la filosofía idealista que designa un saber

obtenido antes e independiente de la experiencia. A Posteriori, a diferencia de A Priori, designa

todo aquel saber obtenido de la experiencia. Para Kant47

, es aquel conocimiento que se concibe

lógicamente, y no temporalmente, a la experiencia. Lo admite como un tipo de conocimiento

válido, necesario y universal.

Entre los conocimientos a priori descritos por el autor, reciben el nombre de puros aquellos a

los cuales no se les ha añadido nada empírico, es decir, es independiente de esta o aquella

experiencia. Como ejemplo: la proposición «Todo cambio tiene su causa» es a priori, pero no

pura, ya que el cambio es un concepto que sólo puede extraerse de la experiencia. A aquellos

que conciben que el mundo se pueda llegar a conocer mediante sólo la intuición y la razón pura,

deslindándose de cualquier observación o experimento, se les conoce como Aprioristas. Es de

los conocimientos a priori de donde Kant extrae el Problema General de la Razón Pura.

El conocimiento A Posteriori o Empírico, se constituye en un estado mental mediante el cual

se establecen relaciones entre sucesos o fenómenos en el devenir del tiempo. Se convierte

entonces en el centro de análisis del pensamiento, activándose un proceso que permite al

intelecto observar variaciones en el objeto, es allí donde se lía tal objeto con su concepto y el

pensamiento incrementa su significado. El conocimiento a posteriori es resultado de la

experiencia humana, donde las teorías y las ideas pueden ser corroboradas por la realidad, se

torna entonces en una creencia que genera confianza.

2.2.- El Conocimiento Demostrativo

El conocimiento adquirido por demostración implica que la mente, a través de la prueba, ha

sido persuadida, y es cuando al menos dos ideas se tornan conformes a los actos del

entendimiento, pues le ha sido presentada una certificación de esa verdad obtenida mediante

ilación de ideas intermedias. Este tipo de conocimiento le permite a la mente asentir que es así y

no de ninguna otra manera, la relación observada entre el fenómeno y la realidad sobre la cual

este actúa. En ese sentido, puede agregarse que el conocimiento demostrativo es el resultado de

una inferencia de la mente analítica que a través de la evidencia ha disipado cualquier duda, lo

47

Crítica a la Razón Pura. I. IDEA DE LA FILOSOFÍA TRASCENDENTAL. Véase.

Ro

iman

Val

bu

ena:

El C

on

oci

mie

nto

y la

s Id

eas.

Page 60: La investigación científica avanzada primera edición 2015

59

que se constituye de hecho, en la esencia de toda ciencia.

En vista de que todo conocimiento se deriva de nociones previamente adquiridas, es decir, de

experiencia. Sólo se conocerá una cosa después de haber conocido su causa. Entonces, la

demostración en sí es netamente explicativa, y se aceptará como demostrado posterior a que este

acto se halla ejecutado. En ese sentido, la acción de demostrar se perfeccionará a través de las

enumeraciones de evidencias o ideas particulares. La Apodeixis o demostración según Platón,

consiste en una forma de la retórica aplicada por los filósofos donde se justifica lo que se

pretende saber, y se hace por oposición a la simple persuasión. Según Aristóteles (Segundos

Analíticos), se conoce como demostración al silogismo que produce ciencia, entonces, el

principio lógico de estas, Apodeixis, consistirá en la derivación.

Ya que la persuasión se vale de analogías, metáforas y ejemplos para lograr su cometido, y en

vista de que un ejemplo no es más que una inducción. Además, la persuasión amerita de

evidencias que por sí sola no contiene una inducción, ya que las inducciones no garantizan la

transferencia de verdad desde las premisas hacia las conclusiones, pues es esencialmente

probabilística. Lo obtenido a través de la demostración, es decir, lo opuesto a la persuasión,

habrá de denominársele ciencia demostrada. Aquello de lo que se pueda persuadir puede o no ser

verdadero, la persuasión es para el sofista lo que la demostración para el científico. El

aprendizaje por demostración es absoluto y no sofista, ya que, no es lo mismo creer algo que

saberlo, para lo segundo es necesaria la demostración, para lo primero la religión. La

demostración se transforma entonces, en el único medio para obtener un saber cierto sobre algo.

Para la fenomenología del conocimiento, la demostración se corresponde con la etapa

racional, agregando certidumbre a todo aquello que ha sido descubierto. Sin embargo, el

conocimiento demostrativo solo existe en las conclusiones de los silogismos, siendo imposible

que se encuentre presente en las premisas básicas de estos. En escritos de Locke48

: el

conocimiento demostrativo es mucho más imperfecto que el intuitivo (p. 528), simplemente

porque requiere que el hombre sea capaz de retener semejante serie de ideas particulares. Algo

que excede las capacidades humanas. A ello Platón agrega que solo la intuición intelectual puede

ser más verdadera que el conocimiento demostrativo. Cualquier verdad científica siempre estará

expuesta ante tres tipos de analistas; los dogmáticos, los escépticos y los moderados. La

demostración a través de la evidencia aleja a los dogmáticos e impide el paso a los escépticos, es

donde entonces los moderados hacen uso de aquello concebido a la luz de la verdad.

Según Aristóteles, en Popper (2006), el conocimiento, Epísteme o ciencia, puede ser de dos

48

Cap. I: Del Conocimiento en General. En: Ensayo sobre el Entendimiento Humano. (1999) Véase.

Ro

iman

Val

bu

ena:

El C

on

oci

mie

nto

y la

s Id

eas.

R

oim

an V

alb

uen

a: E

l Co

no

cim

ien

to y

las

Idea

s.

Page 61: La investigación científica avanzada primera edición 2015

60

tipos: demostrativo o intuitivo. Se entiende por conocimiento demostrativo a aquel que se

adquiere cuando se dan a conocer las causas, basado en afirmaciones que pueden demostrarse

(p. 94 y ss.). El conocimiento demostrativo es el conocimiento de la esencia de las cosas, es

aquel que requiere de entendimiento amplio, cierto y verificable, además de una aplicación

contextual sobre determinado evento presuponiendo relaciones entre ideas claras. En ese sentido,

Santo Tomás también aseguraba que el conocimiento de la causa era conocimiento demostrativo.

Contrariamente, para David Hume en Godfrey (2005), el conocimiento está reservado a la

matemática pura, y la demostración es sólo una cuestión de comparación de ideas, (p. 61).

Godfrey (p. 171) argumenta que en la antigüedad había al menos dos tipos de evidencias

asociadas a dos tipos de teorías. En primer término, las causales, estas permitían inferir causas a

partir de signos. Donde la evidencia observacional jugaba un papel importante en el

descubrimiento de tales causas. El otro tipo de teorías fueron las matemáticas. Hoy día se usa la

idea de prueba experimental, que además de aceptar/rechazar teorías, permite la evidencia

probatoria. Locke Op. Cit, aduce que el segundo grado de conocimiento en ciencias es el

demostrativo, sin embargo, existen casos donde la mente permanece en ignorancia al no poder

comparar ideas, no al menos inmediatamente, lo cual explica49

así:

La razón por la que la mente no siempre puede percibir inmediatamente el acuerdo o

desacuerdo de dos ideas es porque esas ideas, respecto a las cuales se inquiera su

acuerdo o desacuerdo, no pueden ser reunidas por ella para hacerlo patente.

Entonces, en este caso, cuando la mente no puede reunir sus ideas por una

comparación inmediata, para percibir su acuerdo o desacuerdo, o por una

yuxtaposición o aplicación la una de la otra, se ve obligada mediante la intervención

de otras ideas (de una o de más, según los casos) a descubrir el acuerdo o desacuerdo

que busca; y a esto es a lo que llamamos raciocinar.

49

Libro IV del Ensayo sobre el Entendimiento Humano. Capítulo ii. Sobre los Grados de Nuestro Conocimiento. 2. Conocimiento Demostrativo.

Ro

iman

Val

bu

ena:

El C

on

oci

mie

nto

y la

s Id

eas.

Page 62: La investigación científica avanzada primera edición 2015

61

2.3.- Acerca de las Leyes Científicas

na Ley Científica es una construcción intelectual del hombre de ciencia como resultado

de al menos dos procesos; una actividad mental abstracta y la agrupación de un

conjunto de datos. Consiste en una sentencia legaliforme que describe un orden

relacional sobre un fenómeno, y el cual permanece invariante bajo determinadas condiciones.

Allí, sus prerrogativas o supuestos disipan toda sombra de duda del mecanismo invisible que une

a las diferentes etapas de un evento natural, relacionándose entre ellas por medio de

interacciones, niveles jerárquicos e intervalos temporales con propiedades matemáticamente

explicables, pues, toda ley involucra magnitudes y ecuaciones que permanecen

fenomenológicamente invariantes. Las Leyes Científicas presentan un patrón que se modela

matemáticamente basado en supuestos audaces que admiten demostración. Y son los procesos de

la Investigación Científica Avanzada los que permiten al científico descubrir lo oculto en aquello

que ha estado siempre tangible.

Toda ley es objetiva, con rasgos de practicidad e interactividad entre lo que permanece

invariante en el fenómeno y las imágenes que éste imprime en la mente del hombre de ciencia.

Su carácter objetivo descansa sobre el hecho de que todo objeto carece de voluntad propia, por

tanto, sus acciones estarán determinadas por cierta cantidad de reglas, magnitudes y cantidades

que lo describen y les son inherentes, no pudiendo este desprenderse o separarse de ellas. La

practicidad se presenta cuando ya el científico, conociendo la ley que rige y gobierna tal

fenómeno, hace intentos por transformarlo y ajustarlo a su entorno práctico. Henry Poincaré

sostenía que una ley es un vínculo constante entre un antecedente y un consecuente, entre el

estado actual del mundo y su estado inmediatamente posterior. Allí se hace presente una

relación constante que explica el mecanismo que regula el accionar del objeto de estudio.

Para Bunge (2004); una proposición es un enunciado o ley, si y solo si, a posteriori generaliza

sobre algunos aspectos sin hacer referencia a uno único del fenómeno, además, puede ser

satisfactoriamente corroborada por el tiempo en su dominio y pertenece a una teoría. Afirma en

U

Los Principios y Leyes Científicas no se encuentran ni subyacen en la superficie de la naturaleza. Están escondidos, y deben ser arrancados de ella por una técnica activa y elaborada de investigación.

Jhon Dewey.

Page 63: La investigación científica avanzada primera edición 2015

62

consecuencia; una ley en ciencia es una clase especial de hipótesis y consiste en el objetivo

central de la investigación científica; por medio de teorías se unifican leyes, y a través de ellas se

pueden entender y prevenir acontecimientos (p. 265).

En ese mismo orden, a una laboriosa clasificación de hechos, su comparación, relación y

secuencia. Donde finalmente se llegue a un descubrimiento, añadiendo con imaginación

disciplinada una breve sentencia o formula, para resumir en último término y en pocas palabras

un amplio rango de hechos, es un proceso donde a éste y a su fórmula terminada se le denomina

Ley Científica, Karl Pearson (1900, p. 77). Alega también el autor, el conocimiento que provee

una ley científica permite al hombre de ciencia reemplazar o suplir asociaciones mecánicas por

asociaciones mentales y del razonamiento. Una ley científica se relaciona directamente con los

procesos y concepciones formadas desde las perspectivas que solo se producen como facultades

humanas.

Las leyes ameritan de condiciones iniciales de características sencillas, pero que uniforme y

pacientemente acompañan al fenómeno en todas sus instancias. Pues, una ley es lo único que

permite explicar el porqué, aquello que varía, lo hace de determinada manera. Convirtiéndose

indubitablemente, en un requisito para exponer eventos desde su mínima representación hasta

llevarlo al nivel predictivo. Allí, gran parte de tales condiciones iniciales han de ser abducidas

por el científico. Para crear una ley, es recomendable primero construir un modelo concreto e

ideal que aglutine al conjunto de datos y supuestos iniciales, permitiendo así el visualizar a

través de lo segundo, el cómo interactúa y opera lo primero.

Al ejecutar tal observación desde lo más abstracto hasta lo menos abstracto. En lo menos

abstracto, se introducirán entonces teorías de nivel alto que darán soporte al contexto explicativo

sin concentrase en elementos superfluos y excluibles de él. Cuando el hombre de ciencia dice

haber descubierto una ley, ha abstraído, comparado, discernido y eliminado, todo material

científicamente estéril. El pináculo de la ciencia es precisamente ese, descubrir leyes que rigen

fenómenos, es la evidencia que patentiza la afinación de juicios y la separación de ideas, pues, no

existe nada más allá de tal descubrimiento, es así como la concreción de una ley consiste en el

máximo trofeo del deporte científico.

No obstante, no es posible explicación científica que no se soporte sobre alguna teoría, ya

que, las teorías a través de las descripciones amplían las explicaciones abriendo paso de esta

manera a la comprensión. Es en el estadio comprensivo donde el espíritu satisface sus ansias

cognitivas, es allí donde todo adquiere sentido. Para generalizar como resultado de una ley se

requiere abstracción, pero puede existir abstracción sin llegar a la generalización. Desde el punto

Ro

iman

Val

bu

ena:

Ace

rca

de

las

Leye

s C

ien

tífi

cas.

Page 64: La investigación científica avanzada primera edición 2015

63

de vista semántico, toda ley requiere de la concatenación de conceptos, es decir, de contenidos

con gran significado, y una de las formas de liar conceptos de alto nivel científico con los de bajo

nivel entre ciencias de disciplinas científicas diferentes es creando o eliminando puentes de leyes

entre estas. Esto es posible a través del Reduccionismo o su teoría contrapuesta el

Emergentismo50

.

Según Rosental – Iudin (2004, Véase concepto de Reducción):

La reducción es una de las formas en la que se expresa la conexión necesaria entre

los elementos de una teoría lógica o científica en general. En la lógica matemática,

expresada en forma de teoría deductiva, la reducción aparece como procedimiento

para obtener axiomas partiendo de las correspondientes proposiciones de la teoría. La

reducción establece un nexo racional entre las proposiciones de teorías que poseen

un distinto grado de generalidad.

El concepto Reducción desde la literatura de Ferrater Mora (2000):

La reducción es un método que se contrapone a la deducción. En la deducción se

derivan unas proposiciones de otras por medio de reglas de inferencia. En la

reducción, se deriva el antecedente de un condicional, de la afirmación de un

consecuente. En un sentido más general… la reducción puede referirse, por supuesto,

tanto a un objeto real como a un objeto ideal. En el primer caso es una forma de la

recurrencia o aún la recurrencia misma por la cual un estado más desarrollado se

convierte en un estado menos desarrollado. Por eso la reducción es llamada entonces

también, según los casos, regresión o involución. En el segundo caso, la reducción

equivale al paso de lo fundamentado a su fundamento.

Cualquier evento que acontezca en el mundo físico, está atado indubitablemente a los

fundamentos de las leyes de la física, y es por consiguiente, explicable a través de ellas. De esta

manera, si tal evento existe, entonces contiene piezas evidenciales que lo hacen

matemáticamente formulable y sigue un orden causal. Cuando el científico centra su esfuerzo en

tratar de explicar aquel conjunto de hechos observados sobre el objeto, está simplemente

haciendo uso de la razón. Y la única forma en que la razón puede descubrir causas verdaderas y

valederas, es reducir los pensamientos a conceptos y luego estructurar leyes. Antes de hacerlo,

claro ha de estar de la notable diferencia entre las leyes del pensamiento y las leyes naturales.

50

Reduccionismo: consiste en un efecto específico de un dominio particular de una ciencia que es posible reducir a otra. Desde el punto de

vista filosófico, el término se refiere a la tesis universal de que un efecto en una ciencia como la química, es posible reducirlo a los fundamentos de la física. Pues, las mismas moléculas que aparecen en la química, en ciertos casos son estudiadas también por la física. Este punto de vista es conocido como la doctrina de la unidad de la ciencia, “Unity of Science”. Encyclopedia of Philosophy of Science, Routledge (1998). Concepto de: Reduction, Problem of <<Véase>>. La teoría reduccionista considera que una explicación es entendida como aquella que permite conocer una propiedad de una entidad en términos de propiedades no relacionales entre sus partes. Donde una ley de nivel bajo puede alimentarse de una de nivel alto simplemente porque coincidan en sus propiedades. Contrariamente, el Emergentismo, rechaza el uso de cualquier tipo de substancia como dualismo cuando se usa con el propósito de explicar la aparición de una propiedad de alto nivel. La teoría emergentista aduce que entre substancias existen propiedades de alto y bajo nivel que no pueden ser asociadas, una molécula que aparece en química no siempre presenta el mismo comportamiento cuando se le introduce en la física, no se trata de la molécula en sí, sino de su comportamiento. La más fuerte de las premisas Emergentista es la número 4. Se describe así: “Las propiedades emergentes de un sistema entero pueden afectar el comportamiento de tal sistema”. A esto se le denomina “Downward Causation” o Causación hacia abajo. También recibe los nombres de: Hierarchical Downward Control” o Control de Causación Descendente; o como Macro determinación. Sarkar y Pfeifer (2006), The Philosophy of Science. Concepto de Emergence, Véase.

Ro

iman

Val

bu

ena:

Ace

rca

de

las

Leye

s C

ien

tífi

cas.

Page 65: La investigación científica avanzada primera edición 2015

64

Las primeras se corresponden con el arte del pensar, de discernir, de escribir e incluso hablar.

Son las que admiten al hombre separar lo verdadero de lo falso. Para Stock (1888), las leyes del

pensamiento involucran a tres procesos de la misma índole: la concepción, el juicio y la

inferencia de razonamiento. La concepción parte desde una simple aprehensión, es el acto de

formar en la mente la idea de algo; por ejemplo: cuando se forma en la mente la idea de una

copa, se está ejecutando el proceso de concepción. El juicio se corresponde con un estadio más

elaborado, allí se necesitan al menos dos ideas para comparar y discernir en el sentido en que el

objeto es utilizado, y sirve para declarar sus acuerdos y desacuerdos. Por ejemplo: una primera

idea de la copa en la mente y una segunda idea de que está hecha de porcelana, al combinarlas

se crea el juicio: ―Esta copa está hecha de porcelana‖. La Inferencia de razonamiento, es el paso

en la mente de una o más sentencias a otras, por ejemplo: desde dos sentencias como: Cualquier

cosa que se hace de la porcelana es frágil, y Esta copa es de porcelana, evoca entonces un

tercer juicio: Esta copa es frágil.

Sostiene también Stock… posterior a la afinación de los tres pasos previos se llega a lo

siguiente: Los conceptos surgirán como resultado de la comparación de atributos; los juicios

serán el resultado de la comparación de conceptos, y la inferencia se sobrevendrá como

resultado de la comparación de juicios, (p. 10). De esta manera se crea la estructura paramétrica

y procedimental para la estructuración de leyes científicas soportadas sobre las leyes del

pensamiento en el hombre de ciencia. Contrariamente, las leyes naturales surgen necesariamente

de la abstracción y la observación, describen comportamientos de la naturaleza y son valederas

universalmente.

Un enunciado para leyes lógicas <<lo anteriormente descrito se corresponde con sus primeros

pasos>>, se construye sobre las bases de estructuras formalmente válidas de inferencia.

Esquematizando e hilvanando un modelo de razonamiento concreto y correcto. Es así como toda

ley científica posee la capacidad de explicar y predecir, a través de cierto cuerpo de

conocimientos y con rigurosidad profunda, la esencia del fenómeno aludido, develando todo

conjunto de relaciones importantes pero no observables. En ese sentido, John Stuart Mill en

Echeverría (1998, p. 165) argumenta:

Se dice que un hecho individual ha sido explicado cuando se ha proporcionado la

causa del mismo, esto es, cuando se han formulado la ley o leyes que lo causan y de

las cuales el hecho no es más que una instancia… se dice que una ley o regularidad

de la naturaleza ha sido explicada cuando se han formulado otra ley o leyes, de las

cuales la ley inicial no es más que un caso, que puede ser deducido de ellas.

En atención a lo descrito por Mill, préstese atención a los enunciados que dieron origen a las

Ro

iman

Val

bu

ena:

Ace

rca

de

las

Leye

s C

ien

tífi

cas.

Page 66: La investigación científica avanzada primera edición 2015

65

Leyes de Kepler51

:

Primera Ley: Los planetas describen órbitas elípticas estando el Sol en uno de sus focos.

Segunda Ley: El vector posición de cualquier planeta respecto del Sol, barre áreas iguales de

la elipse en tiempos iguales.

Tercera Ley: Los cuadrados de los periodos P de revolución son proporcionales a los cubos

de los semiejes mayores a de la elipse.

Obsérvese que la segunda y tercera ley han sido deducidas de la primera, la cual no es más

que un caso. Kepler llega a tales leyes luego de una apreciación entre la observación cuantitativa

y la construcción teorética, la primera se genera luego de analizar las propiedades de las elipses,

para la segunda y tercera, reducidas desde la primera, utiliza las leyes de la lógica formal y la

construcción de enunciados basados en axiomas. Las dos propiedades más importantes de las

elipses son:

1. En toda elipse existen dos puntos llamados focos, tal que, la suma de las distancias desde

los focos hacia cualquier punto de la elipse es constante: a + b = Constante.

2. La forma aplanada de una elipse, y que la diferencia de una circunferencia, recibe el

nombre de excentricidad (grado de aplanamiento). Donde la excentricidad de la

circunferencia es un caso especial de la misma.

Kepler llega como conclusión a sus leyes luego de estudiar estas propiedades de las elipses, y

la construcción teorética la sustentó en el Modelo Heliocéntrico de Nicolás Copérnico. Este es

uno de los ejemplos clásicos de reducción de leyes por teorías.

2.4.- Modelo Kuipers52

de Reducción de Leyes por Teorías

El modelo Kuipers de explicación de leyes por teorías consiste en una estructura de

razonamiento basada en modelos, está sustentado en 10 ejemplos extraídos de la física y

aplicados a la sociología. Para el autor, las explicaciones de leyes por teorías presentan diferentes

51

Johannes Kepler (1571 – 1630), Científico Alemán. Muy conocido por el descubrimiento de las 3 leyes que rigen los movimientos planetarios

y la dinámica celeste, las cuales publicó en dos tiempos: 1609 y 1619. Hizo importantes aportes a la ciencia con sus trabajos sobre física óptica (1604 y 1611). Se le atribuye también el descubrimiento de dos nuevos poliedros regulares (1619). En 1624, hizo importantes declaraciones acerca del cómo operan los logaritmos. A pesar de ser un hombre de ciencia, todos sus escritos contienen numerosas referencias hacia dios. Kepler vio sus trabajos como cumplimiento de un deber cristiano de entender la obra de dios. Siempre estuvo convencido de que dios había creado el universo en consonancia con cierto plan matemático (Platón y Pitágoras creyeron lo mismo). Posteriormente Einstein, adoptaría tal idea con la frase “Dios no juega a los dados con el universo”. Hoy día, sus obras sirven como referencia en investigaciones científicas donde se persiga la creación de leyes. Pues, sus tres leyes, subjetivamente explican los mecanismos necesarios y suficientes para tal fin. 52

Theo A. Kuipers. Matemático y Filósofo. Profesor Emérito de la cátedra: Filosofía de la Ciencia en la Universidad de Groningen. Países Bajos.

Structures in Science: Heuristic Patterns Based on Cognitive Structures an Advanced Textbook in Neo – Classical Philosophy of Science. Véase.

Ro

iman

Val

bu

ena:

Ace

rca

de

las

Leye

s C

ien

tífi

cas.

Page 67: La investigación científica avanzada primera edición 2015

66

formas, más sin embargo, contiene sólo 5 tipos de pasos: aplicación (1); agregación (2);

identificación (3); correlación (4) y aproximación (5). Como regla, cada paso requiere de un tipo

específico de hipótesis auxiliares, y han de sucederse en orden, pero con ciertas excepciones.

Donde no todas las explicaciones han de contener todos los tipos de pasos, y algunos podrán

presentarse más de una vez. En el paso de aplicación, la teoría es adaptada al tipo de objeto que

con la ley se pretende explicar, implícita o explícitamente. En el paso de agregación, el efecto

legaliforme total, y que representa a los objetos individuales es calculado. Sin embargo, requiere

de hipótesis estadísticas auxiliares. En el paso de identificación, se procede a transformar el

resultado de la ley agregada, usando para ello, algunas identificaciones hipotéticas y supliéndolas

como hipótesis auxiliares, allí se conectan los términos de la teoría con los de la ley. En el paso

de correlación, toma forma una similar transformación, pero sobre las bases de hipótesis

causales auxiliares. Y por último, en el paso de aproximación, la ley hasta ahora obtenida es

transformada hacia el modelo buscado, sobre las bases de una hipótesis auxiliar idealizada.

Contrario a los pasos anteriores, el último consiste en un paso no deductivo. P. 31.

Kuipers argumenta que las reducciones representan a una sub-clase de explicación de leyes,

conteniendo al mismo tiempo, al menos un paso de agregación, identificación o aproximación.

Cuando se presenta el caso de que la explicación a una ley hace referencia únicamente a los

pasos de aplicación y correlación, no se constituirá de ninguna manera en reducción. La Micro-

Reducción, consiste en una reducción con un paso de agregación, o simplemente, reducción por

agregación. Por otro lado, una reducción sin agregación, pero con identificación o aproximación

es llamada Isoreducción.

Una reducción con un paso de identificación o simplemente reducción por identificación se

denomina Reducción Heterogénea. A una reducción con los pasos de agregación o

aproximación pero sin correlación, se denomina Reducción Homogénea. Finalmente, toda

reducción basada únicamente en el paso de aproximación, o reducción por aproximación, será

llamada Reducción Aproximativa. Si carece de este paso, pero conteniendo agregación o

correlación, se denominará Reducción Deductiva. Bajo este modelo, un formato de explicación

de leyes por teorías sería el siguiente:

Una teoría ―X‖ reduce a una ley ―L‖, o ―L‖ puede ser reducida, para/por ―X‖, si y

solo si: se presentan una condición sistemática y una condición temporal. Para la

Condición Sistemática: ―X‖ explica ―L‖ de acuerdo con el modelo de los 5 pasos,

con al menos uno de los 5 pasos, la agregación, o paso 2 provista, no es una trivial

identificación de (3) o aproximación de (5). Con respecto a la Condición Temporal:

―L‖ ha sido establecida antes que ―X‖, es decir, la ley ha sido establecida anterior a

la teoría. Donde la ley ya fundamentada, da paso a la teoría de su fundamento. Es de

Ro

iman

Val

bu

ena:

Ace

rca

de

las

Leye

s C

ien

tífi

cas.

Page 68: La investigación científica avanzada primera edición 2015

67

acotar que una explicación cruzada de leyes no es un ejemplo de obtención de leyes

por reducción. P. 90.

Ro

iman

Val

bu

ena:

Ace

rca

de

las

Leye

s C

ien

tífi

cas.

Page 69: La investigación científica avanzada primera edición 2015

68

2.5.- Sobre la Im/posibilidad de Leyes Científicas en la Investigación Social

las Ciencias Sociales se les considera un fenómeno complejo, donde se distingue

claramente que la voluntad del hombre y la naturaleza es totalmente distinta. Aunque

el hombre no es más que un ser bio-social, los científicos sociales no han mostrado

avances en cuanto a liar al ser humano con los modelos bio-matemáticos usados en las ciencias

naturales, ni mucho menos como partículas o grupos de estas usados en la física teórica. En la

Investigación Social las relaciones necesarias entre sujeto y objeto no se profundizan, mucho

menos son formalmente demostrables. Eso la convierte en una ciencia opinática o simplemente

en construcción, pero con gran potencial de desarrollo.

Cuando el hombre no puede discernir de aquellas verdades que le han sido presentadas, y

tampoco puede observar la relación entre el concepto y su hecho, engendra entonces

desconfianza, tendiendo a alejarse de aquello que como cierto le ha sido mostrado. Denominará

entonces opinión, a toda idea invisible que aloje en su mente, y que no pueda fortalecer con

argumentos <<cuestión sobre la cual se disputa una verdad>>, ni mucho menos demostrar a

través de sus propiedades simples y básicas. Pues el hombre con la verdad se sosiega y satisface,

mas no así con la opinión.

En la Investigación Social se dificulta estructurar explicaciones universales del fenómeno

social a pesar de contar con un gran cúmulo de hechos. No obstante, presenta todas las

características que la hacen atractiva para convertirla en una ciencia nueva. En su método, al

investigador se le impide usar la intuición, elemento que forma parte irreductible del marco

científico de la mente. Pero se le exige una honestidad científica <<cada frase que pronuncie ha

de ser corroborable por los hechos>> que el proceso mismo reprime. Su formalismo lo ata a una

metodología estéril, improductiva y vacía, donde cobra más importancia el método que el

resultado. Los predicados de sus conceptos, común y ciertamente, presentan nexos de unidad y

coherencia, mas no de profundidad de pensamiento y abstracción.

A

Jamás he sido partidario del Método de las Ciencias Sociales. No es que he perdido mi humildad y nobleza. Sino que, hay al menos dos cosas que de él me preocupan: nunca consigue lo que se propone; y cuando lo hace, es incapaz de demostrarlo. Entonces, tal método, está condenado a agotarse.

Roiman Valbuena.

Page 70: La investigación científica avanzada primera edición 2015

69

La naturaleza de los argumentos sociales, en su gran mayoría, provienen de la retórica53

, allí

se generan argumentos meramente y no absolutamente probables <<argumentos persuasivos>> o

simplemente dialecticos derivados de opiniones aceptadas54

. Confundiéndose comúnmente en el

discurso, la argumentación con el argumento, la primera se corresponde únicamente con los

mecanismos necesarios y suficientes para soportar al segundo. El/los argumento/s se constituye/n

entonces como una cadena, en la cual las premisas extraídas de los datos se transforman en

eslabones.

Allí, la argumentación ha de ser tan larga como para soportar la cadena de argumentos, y a

medida que avance, la fuerza lógica de cada eslabón ha de solidificar el desarrollo de la

estructura cognitiva. Hilvanando y esquematizando, el árbol jerárquico y relacional que une a los

agentes efectores con los agentes causales, dejando ver en el proceso, a la extraña fuerza que une

a los efectos con sus causas, como condición necesaria entre dos cosas. Sin embargo, la

argumentación persuasiva empleada en la retórica hará que cualquier eslabón pueda ser roto a

través del simple uso de una refutación puntual, dejando sin basamentos científicos a lo que se

pretendía explicar. Cualquier argumento estrictamente orientado a la persuasión se constituye de

facto, en un Pseudo razonamiento.

La persuasión científica deja vacíos cognitivos e inquietud de espíritu, más, es el

convencimiento de la causa el que sacia, pues éste se asegura de que es así, y no de ninguna otra

forma, la condición de verdad que ha sido presentada. En las ciencias puras, los procesos de la

mente llevan una dirección. Hume arguye que la mente usa cierto método que le permite

conectar diferentes ideas: la semejanza, la contigüidad y la causa y el efecto <<contigüidad;

semejanza y contraste>> originando así las leyes del asociacionismo sicológico.

Esta asociación consecuente no se produce en Investigación Social debido al abuso de la

descripción sin explicación, la descripción por sí sola no concatena ni contrasta, mucho menos

establece contigüidad, deriva el equilibrio causal o establece causal adecuada. Allí el científico

comúnmente hace gala de ingenio, más, también ocasionalmente priva de razón. La mayoría de

los resultados en Investigaciones Sociales no pueden probarse empíricamente, y al no guiarse por

leyes y teorías sino por variables, es muy común que se presenten coherencias anómalas

asociadas a la percepción individual. En ese sentido, sólo se puede conocer lo que no cambia

<<ley>>, lo que cambia <<variable>>, habrá de estudiarse. Siempre que, obtenido lo primero, se

53

La Retórica estudia el razonamiento persuasivo o probable. Es el método de algunas ciencias sociales, que se fundamentan en la

observación, mas no describen hechos ciertos sino voluntarios. Santiago Fernández Burillo. Curso de Filosofía Elemental. Sección 3.6: Las

Ramas de la Filosofía. Definiciones. Véase. 54

Hay gente con tan pocas agallas para afirmar algo que creen, que ni siquiera se atreven a decir: "Hace frío", por mucho frío que sientan, si

antes no lo escuchan decir a otras personas. Aforismo atribuido a Georg Christoph Lichtenberg.

Ro

iman

Val

bu

ena:

Sobre

la

Im/p

osi

bil

idad

de

Ley

es C

ientí

fica

s en

la

Inv

esti

gac

ión S

oci

al.

Page 71: La investigación científica avanzada primera edición 2015

70

operacionalice en función de explicar lo segundo. Pues si el fenómeno existe y evidencia sus

efectos, habrá que interrogársele y pedírsele explicación.

Denzin (1970) citado por Norman Blaikie en su libro: Designing Social Research (2010, pp.

131 - 140). Afirma, las teorías en la investigación social presentan subdivisiones: Grandes

teorías, teorías de medio rango, teorías sustantivas y teorías formales. Según este autor, las

grandes teorías representan un sistema de teorías, con una exposición conceptual de esquemas

que intentan constituir las más importantes características de una sociedad en su totalidad; las

teorías de medio rango se encuentran ubicadas entre las grandes teorías y las generalizaciones

empíricas; en el tercer nivel se consiguen las teorías sustantivas, las cuales se aplican a

problemas específicos. No obstante acota, que tanto las de medio rango como las sustantivas, se

expresan a un nivel que pueden ser usadas por los investigadores; finalmente, el desarrollo de

una teoría formal se basa en la ahora impugnada55

idea de explicaciones universales, que de la

vida social se puedan desarrollar.

En el mismo sentido, y como ejemplo, bien vale la pena citar a Popper56

, quien explica: un

sistema axiomático, y un sistema de ecuaciones son análogos, ambos sirven para representar

teorías por niveles. Tal como lo descrito previamente. Es decir, cualquier modelo de postulados

teóricos podrá ser traducido a ecuaciones matemáticas. Comparativamente, el referido sistema

axiomático deberá ser interpretado de manera que pueda considerarse como un sistema de

hipótesis empíricas o científicas. Y si los eventos sociales desean ser correctamente interpretados

y científicamente predichos, entonces han de poder axiomatizarse sus cadenas causales, o sus

acausalismos <<Eventos sin explicaciones causales>> a través de modelos de teorías formales. Y

de hecho, por ser una idea impugnada, sus científicos no se han atrevido a desafiar

cuestionando, tal aseveración.

Falsa a todas luces, pues, hoy día el fenómeno educativo se está estudiando a través de los

enfoques de la física teórica. Los procesos de migración han sido abordados recientemente como

fenómenos basados en teorías de campos, y tantos las enfermedades epidémicas como los

estudios de redes sociales han girado hacia una perspectiva bio-matemática formalizada y

demostrable. Los economistas están haciendo uso del operador Lagrangiano, función matemática

ampliamente usada en la física, con el fin de encontrar restricciones máximas y mínimas a

ciertos problemas económicos. No obstante, no se trata de adaptar eventos forzadamente a

55

Con el término IMPUGNADA, se hace referencia a que no hay necesidad, o al menos eso expresan gran cantidad de sus científicos, de leyes

universales y sus explicaciones en tales ciencias, ya que sus problemas se abordan y resuelven desde contextos locales e históricos. Eso es totalmente falso. No obstante, la realidad social está actualmente demandando, un cambio en sus estructuras científicas, pues los problemas sociales están siendo resueltos por la tecnología y no por las investigaciones puras de sus científicos. 56

La Lógica de la Investigación Científica. Véase: Los Sistemas Teóricos, (p. 68-72).

Ro

iman

Val

bu

ena:

Sobre

la

Im/p

osi

bil

idad

de

Ley

es C

ientí

fica

s en

la

Inv

esti

gac

ión S

oci

al.

Page 72: La investigación científica avanzada primera edición 2015

71

determinada distribución matemática, trata más bien del desarrollo de modelos matemáticos

específicos que den respuesta al cómo se comporta una variable, siempre regido por un patrón

invariante y constante, de las unidades fenoménicas que componen al evento. Entonces, hay mas

falta de disposición que de capacidad de acción.

En sus investigaciones, son comunes los hechos analíticos con poco o ningún contenido

científico, y la contradicción interna entre las partes de sus sistemas es la que la torna endeble. Se

basa en conceptos imprecisos y no sometidos a la lógica de enunciados, de predicados, de clases

o de relaciones. En la Investigación Social tales conceptos imprecisos al operacionalizarlos,

derivarán en la imposibilidad de reproducir empíricamente, o a través de la medición, un

resultado concreto y objetivo. Se busca la certeza sicológica antes de la evidencia lógica. Más sin

embargo, presentan cierto matiz semántico que los hacen medianamente aceptables. Tal ciencia,

se centra en explicar acciones y no comportamientos, pero son estos últimos los que ameritan

entendimiento. No obstante, sus investigaciones arrojan excelentes resultados cuando

inmediatamente se aprovechan sobre ciertos hechos sociales, es decir, investigaciones aplicadas.

O cuando se circunscriben a describir el funcionamiento de determinado aparato social,

descripciones netamente funcionalistas donde sus conceptos son aceptados como opiniones sin

criterio de demarcación alguno.

Las Ciencias Sociales hacen uso de teorías puramente conceptuales y no formales de

demostración matemática, es decir, teorías sustantivas para problemas específicos. Usan

variables pero no contrastan contra leyes invariantes puesto que carecen de ellas, y su esfuerzo

por edificar leyes propias, a pesar de sus circunstancias, ha sido realmente escaso. Todo aquello

que sobre la tierra se mueva e interactúe, es posible explicarlo mediante ecuaciones de la física,

incluyendo el accionar del hombre. Si la Inteligencia Artificial ya posee un modelo matemático

aproximado del libre albedrío humano, ¿por qué no se han generado teorías formales que

expliquen y se anticipen al comportamiento del ser social?

Cuando en una ciencia como esta, sus basamentos teóricos sólidos se convierten en una

entidad abstracta, indeterminada e imprecisa, da pié a que sobre los hechos observados se

acontezcan respuesta e inferencias erróneas. Sus argumentos carecerán por consiguiente, de

unidad y fuerza lógica. Dando luz a inferencias Pseudo científicas cuyas conjeturas aisladas

disgregan en vez de concentrar e identificar el patrón que lía a sus unidades fenoménicas.

El lenguaje ordinario en ciencias es correlacionable con los términos ley y teoría, donde el

vector separación entre unidades fenoménicas ha de ser transparente y explicable. Un concepto,

o explicación de un hecho, que no pueda someterse a verificación empírica simplemente carece

Ro

iman

Val

bu

ena:

Sobre

la

Im/p

osi

bil

idad

de

Ley

es C

ientí

fica

s en

la

Inv

esti

gac

ión S

oci

al.

Page 73: La investigación científica avanzada primera edición 2015

72

de significado, y por consiguiente, de verdad. Históricamente, la Investigación Social ha hecho

abuso de la descripción, describe sin realizar inferencias, esto lleva a ejecutar una representación

simplista del fenómeno, y así no se llegará nunca a ningún descubrimiento. Si el hombre es un

ser social, y además es creación de la naturaleza, entonces a esta última habrá de interrogársele y

modificársele, pues, el sólo admirarla es perder el tiempo. Hasta que la Investigación Social a

través de sus agentes científicos, no llegue a desarrollar teorías amplias e integrales de

explicación y predicción de hechos, liándolos a su vez con sus respectivas invariantes

fenomenológicas, no podría decirse que es realmente una ciencia, aunque haga uso del método.

En la obra de Sarkar y Pfeifer57

(2006), se introduce una importante discusión filosófica

sobre si las Ciencias Sociales son diferentes a las ciencias naturales. Además, se cuestiona el

papel que juegan las leyes en el modelo social. La pregunta que inicia el debate es: ¿Existen

leyes en las ciencias sociales?... para los empiristas, las leyes son de suma importancia y se

constituyen en la base de las explicaciones, las teorías, la confirmación y la predicción. Sin

embargo, no está claro de que por las características de tal ciencia, realmente existan leyes allí.

En un principio se argumenta que en estas ciencias no se debería siquiera intentar crear

generalizaciones o grandes teorías, puesto que los fenómenos sociales son esencialmente

históricos y locales. Cualquier pensador con cierto grado de sobriedad, interpretaría que donde

no se pueda generalizar, confirmar o desconfirmar, estructurar leyes o al menos descubrir

fenómenos… no hay ciencia. Aunque en cierto grado se consigan verdades que ayuden a

resolver problemas.

La segunda pregunta del debate es: ¿Pueden las teorías de las ciencias sociales rendir

predicciones comprobables?... se aduce entonces que, debido a la complejidad del fenómeno

social, sus teorías requerirían idealización. En función de las características matemáticas y

lógicas formales de tales idealizaciones, a las teorías se les haría difícil la predicción. Y como

resultado se argumenta que una teoría de este tipo no sería comprobable. Más aún, si la acción

humana es explicada a través de agentes, deseos y creencias, la Investigación Social estaría

encerrada en un círculo intencional58

, dificultando grandemente la consecución de afirmaciones

comprobables. Rosemberg (1988) en Sarkar y Pfeifer (2006, p. xxiii).

Una tercera pregunta que viene a la palestra es: ¿Es distinta la metodología usada en las

ciencias sociales?... puesto que esta envuelve a humanos y su comportamiento a gran escala,

entonces la experimentación deja de ser importante. Se argumenta entonces que el entendimiento

de la acción social es netamente hermenéutico. Siendo así, difiere entonces de la metodología de

57

The Philosophy of Science: An Encyclopedia. Véase Concepto de Social Science. 58

A este efecto se le denomina Razonamiento Circular. Véase el apartado: Las Hipótesis Inductivas y Deductivas. Allí se amplía su significado.

Ro

iman

Val

bu

ena:

Sobre

la

Im/p

osi

bil

idad

de

Ley

es C

ientí

fica

s en

la

Inv

esti

gac

ión S

oci

al.

Page 74: La investigación científica avanzada primera edición 2015

73

la que se vale la ciencia natural. Luego de tal afirmación se sobreviene una cuarta pregunta:

¿Cuál es la naturaleza de las explicaciones en las Ciencias Sociales?... citando a Hempel

(1962) en Sarkar y Pfeifer Op. Cit, se introduce el argumento de que la explicación en la

Investigación Social no difiere a la función que cumple en la física. No obstante, otros lo

cuestionan. Si no existen leyes en esta ciencia, se deduce entonces que cualquier explicación

científica en las ciencias sociales no podrá ser capturada, ni ser cubierta por un modelo

legaliforme. Dando lugar a explicaciones científicas meramente funcionales.

Finalizada la disertación filosófica de los autores, y luego de estudiar las argumentaciones

previas, se concluye con el hecho de que para nada implica que un cambio en los

acontecimientos convierta la negación de que es imposible la estructuración de leyes en las

Ciencias Sociales, en una afirmación. Un juicio, o enunciado pre-teorético es diferente a una

teoría, y ya que las ciencias sociales se sustentan, en mayor o menor cuantía en estos, se dice

entonces que a tales juicios es imposible falsarlos, porque consisten sólo en enunciados no

estructurados. La diferencia radical entre Investigación Social y la investigación en ciencias

naturales estriba en que: el hombre como ser social y natural al mismo tiempo, está expuesto a

una dualidad, la interacción con su entorno y la interacción con su racionalidad de ser pensante.

Por ende, cualquier ley que pueda obtenerse de este binomio, ha de contener hipótesis de ambas,

para así estructurar un modelo legaliforme amplio y explicativo de los 2 mundos. Algo para nada

fácil… más no así imposible.

Según Leonardo Da Vinci, un pájaro es un instrumento que trabaja bajo una ley matemática.

Y, si tal premisa aplica para un ave… ¿por qué no ha de aplicarse al ser social?... ¿qué modelo

matemático guía el accionar del hombre en la tierra?... queda en manos de los Investigadores

Sociales descubrirlo.

Ro

iman

Val

bu

ena:

Sobre

la

Im/p

osi

bil

idad

de

Ley

es C

ientí

fica

s en

la

Inv

esti

gac

ión S

oci

al.

Page 75: La investigación científica avanzada primera edición 2015

74

CONTENIDO DEL CAPÍTULO

3.1. – El Método Científico Informativo

3.1.1.- Periodismo Científico y Lógica Argumentativa

3.2 – El Método Hipotético Deductivo Vs. El Método Hipotético Inductivo

3.2.1.- El Método Hipotético – Deductivo o Método de las Hipótesis

3.2.2.- El Método Hipotético – Inductivo

3.2.3.- El problema de Superponer Inducción y Deducción

La Investigación Científica Avanzada

C

A

P

Í

T

U

L

O

III

Una Ciencia Multimetódica

La educación científica de los jóvenes es al menos tan importante, quizás incluso más,

que la propia investigación.

Glenn T. Seaborg.

Page 76: La investigación científica avanzada primera edición 2015

75

3.1. – El Método Científico Informativo

l método permite a la ciencia moverse en cierta dirección persiguiendo algún

objetivo de entendimiento y comprensión que le consienta dilucidar ciertos aspectos

del fenómeno. El papel del método en las ciencias es precisamente ese, escudriñar y

remover errores, funciona como aquellas máquinas que separan el huevo de la

cáscara. El científico, sabiendo que lo encontrado no será la respuesta final y única, puesto que

cualquier teoría concebida podrá ser reemplazada por otra en mejores condiciones, orientará sus

últimos esfuerzos a informar, lo más precisamente posible, lo hallado. Esperando que otros le

hagan conocer errores que él no vio. En ocasiones, la perspectiva no deja ver a los ciegos59

.

El Método Científico por excelencia es el experimental, aunque sobre muchas ciencias es

difícil ejecutar la experimentación pura, uno de sus axiomas fundamentales es la

reproducibilidad, quiere decir, un experimento será válido si y solo si, cualquier otro científico,

no importa el lugar, puede repetirlo, arrojando los mismos resultados bajo las mismas

condiciones. Para ello necesita informar y publicitar los efectos obtenidos bajo ciertas

circunstancias. Allí es donde entra en juego el Método Informativo, se circunscribe a la

recolección de información científica necesaria y suficiente, para conseguir redactar un artículo

dirigido a revistas especializadas esperando un merecido reconocimiento.

Entonces, el Método Científico Informativo consiste en un procedimiento en el que se

recopila la información a difundir; se confronta y almacena; se enlazan las ideas más importantes

del resultado teórico o experimental, para luego redactar con orden coherente lo que se pretende

dejar saber. La publicación es el resultado de toda actividad científica, y no se constituye en sí,

como la acción de creación de ciencia realmente dada. Aunque sigue las pautas del método, sólo

sirve para informar y representar con claridad, tanto los hallazgos como las desideratas del

científico, bajo ningún concepto se considerarán ciencia en sí a otros elementos descritos

59

Aforismo atribuido a Georg Christoph Lichtenberg.

E

He tenido la oportunidad, en diversas ocasiones, de compartir con quienes dicen llamarse científicos… en

un primer momento les pregunto: ¿Cuál ha sido tu descubrimiento más importante?... y luego de un largo e

incómodo momento de silencio… continuamos hablando…

Roiman Valbuena.

Page 77: La investigación científica avanzada primera edición 2015

76

diferentes al descubrimiento o la idea teorizada.

Este procedimiento funciona como un tipo de Homeostasis Científica y como mediato entre el

conocimiento empírico derivado del proceso experimental y la capacidad imaginativa que provee

un discurso descriptivo. Los resultados de una investigación deben comunicarse de manera

expedita y oportuna, es por ello que al artículo científico se le estima como el mejor medio para

informarse de nuevos descubrimientos. Siendo la presentación de los datos la que lo transforma

en la pieza central del ajedrez del método informativo, es lo que hace hablar a un artículo

científico.

Las ciencias fácticas tienden a usar diversos métodos de trabajo, entre ellos el Experimental y

el Informativo u Observacional. Se dice que es observacional puesto que en sus niveles

preoperatorios, la data recabada, confrontada y almacenada, no es resultado de una observación

directa, participante y bajo situaciones de control en el campo o laboratorio experimental. Si no,

compilación de un sin número de revisiones bibliográficas usando en algunos casos fuentes

primarias. Este método no permite el descubrimiento… y aunque puede añadir nuevos

conceptos, simplemente disemina lo ya descubierto, bien sea por el mismo científico a través de

la experimentación, o por otros.

Si bien es cierto presenta comúnmente hallazgos, el objetivo de toda ciencia es la

reproducibilidad y objetividad a través de la evidencia científica. Cualquier persona puede hacer

un hallazgo, pero sólo el científico descubre, el hallazgo es producto de lo fortuito, de la

casualidad, contrariamente, el descubrimiento es fruto de un proceso arduo y sistemático de

indagación planificada, aunque en ciertos casos se presente la Serendipia60

. Es absolutamente

imposible tropezar con un descubrimiento científico… para descubrir es necesario discrepar

haciendo uso del juicio. En ocasiones, introducir un poco de anarquía en el proceso podrá ayudar

a encontrar ciertas cosas maravillosas.

La redacción científica se basa en la descripción, esta última se constituye en un proceso

inherente al Método Científico y no podrá separarse de él. Este Método Informativo no hace uso

de teorías axiomatizadas en la mayoría de los casos donde se evita de alguna manera

60

Se conoce como Serendipia a un descubrimiento o hallazgo importante y accidental mientras se esperaba encontrar otra cosa. Aunque en

muchas obras es asociado a la casualidad, a lo fortuito, realmente presenta ciertas propiedades y nexos con los conocimientos por

connaturalidad y la intuición. El descubrimiento de la penicilina por Alexander Fleming y del Caucho Vulcanizado por Charles Goodyear son dos

obras serendépicas de suma importancia para la sociedad. El Viagra, también entra dentro de los descubrimientos serendépicos e inesperados, pues la erección prolongada resultó ser un efecto secundario de este fármaco que en un primer momento pretendía dar solución a problemas de hipertensión y angina de pecho. En el aparte de la física teórica en este texto, específicamente en el denominado: Los Sistemas Físicos y la Causación, se presenta a la Casualidad como una ley asociada a un segundo plano de causación, cuya característica es la combinación de una serie de hechos y circunstancias que no son posible evitar ni predecir matemáticamente. Las casualidades se presentan en la naturaleza sin la intervención humana. Es imposible encontrarse con casos de Serendipia originados en un artículo científico, más la Serendipia también es ciencia. Cuando el coeficiente intelectual del científico supera los 130 puntos, por deducción lógica, es difícil atribuirle un descubrimiento a la casualidad, y es donde la intuición y la connaturalidad se transforman en los primeros sospechosos.

Ro

iman

Val

bu

ena:

El M

éto

do

Cie

ntí

fico

Info

rmat

ivo

.

Page 78: La investigación científica avanzada primera edición 2015

77

experimentar o teorizar, es decir, se describe en ausencia de teorías, y donde no hay

descubrimiento o teorías no hay ciencia. Usa comúnmente variables, pero no contrasta contra

leyes invariantes <<caso de la investigación social>> No se puede descubrir la cura al cáncer

escribiendo un artículo científico; un pugilista no ganará un campeonato mundial repasando un

libro de boxeo; así como nunca será posible tampoco desarrollo tecnológico alguno sólo

informando; necesarias son la teorización y la experimentación.

Sin embargo, gran parte del progreso científico desde el nacimiento de la ciencia se ha dado

gracias a este método. Es el eslabón principal que une a las largas cadenas de comunidades

científicas61

. En la antigüedad un investigador se sentía más libre de actuar por sí solo, con el

surgimiento de estas comunidades debe adaptarse a ciertas reglas. Con todo, de estas

asociaciones siempre ha sido muy criticado su lado oscuro, de hecho, uno de los autores que

ataca ferozmente a ciertas prácticas de estos grupos es Tomas Kuhn cuando escribe la Estructura

de las Revoluciones Científicas.

Se han hecho impopulares debido a sus prácticas tendentes a perpetuarse en busca de

intereses académicos y económicos, habiendo llegado a convertirse en claustros de ilustrados

privilegiados con control absoluto en las revistas que tienen a su cargo, ellos deciden quién

publica, cómo lo publica, qué se publica y que no. Como afirmase en su momento Bernard de

Voto: Las Grandes Revistas Nacen de las Manos de los Directores, y Mueren a Manos de

Hombres de Negocio.

Existen tres tipologías de científicos: los experimentalistas; los teoristas y los

comunicacionistas. En muchos casos los dos primeros no han sido adiestrados correctamente en

la difusión de información o en las técnicas de ensayos literarios, es por ello que recurren a los

comunicacionistas. Son estos los encargados de propagar la información obtenida a través de la

redacción científica cuando los primeros no pueden hacerlo por sí mismos. No obstante, no son

fáciles de ocultar las críticas a este método, no por el procedimiento en sí, sino que de su abuso

se ha producido la denominada Prostitución Científica, donde gran cantidad de investigadores

tienden a escudarse bajo este modelo y nunca llegan a ejecutar ni la experimentación y mucho

menos la teorización <<amén del trabajo de campo>>, tocando al punto de saturación de

artículos científicos con casi el mismo índice y univocidad discursiva. Al respecto, Santiago

Ramón y Cajal (1999, p. 127) escribe lo siguiente:

61

Una comunidad científica es, en la sociedad moderna, un grupo social relativamente bien definido. Es una cofradía en la cual los individuos

se reconocen como miembros de un solo cuerpo… y que en consecuencia, tiene su propia coherencia. Fourez (2006).

Ro

iman

Val

bu

ena:

El M

éto

do

Cie

ntí

fico

Info

rmat

ivo

.

Page 79: La investigación científica avanzada primera edición 2015

78

Mr. Billing, sabio bibliotecario de Washington, agobiado por la tarea de clasificar

miles de folletos, en donde, con diverso estilo, dábanse a conocer casi los mismos

hechos, o se exponían verdades ya de antiguo sabidas, aconsejaba a los publicistas

científicos la sumisión a las siguientes reglas: 1) Tener algo nuevo que decir; 2)

Decirlo; 3) Callarse en cuanto que dicho; 4) Dar a la publicación título y orden

adecuados…Nada más ridículo que describir sin poder aportar a la cuestión ningún

positivo esclarecimiento, sin ningún otro estímulo que lucir imaginación

calenturienta, o hacer gala de erudición pedantesca con datos tomados de segunda o

tercera mano…

El abuso en la escritura de artículos científicos como opción a evitar la experimentación y la

teorización buscando reconocimiento científico y académico, además de haber dado origen a

<<Científicos de Escritorio>>, ha generado caos y confusión dentro de los sistemas formales de

educación en ciencias, puesto que el conocimiento no llega a ser sustantivo y mucho menos

profundo, se torna científicamente endeble, refutable y laxo de nuevos aportes. No obstante, se

exige Honestidad Científica, es decir, no se afirme nada carente de prueba. Hay investigadores

que no hacen intentos por adentrarse en las investigaciones aplicadas o en física… ciencia es

ciencia… no hay ciencias para unos o para otros.

El uso apropiado del método informativo provee observaciones tan precisas y ricas en datos

que llevan al científico a sugerir hipótesis que puedan ser demostradas experimentalmente. Y, se

dice que se ha hecho Ciencia, cuando una actividad científica tiene un resultado tan impactante y

asombroso que genera un nuevo modo de pensar, conducirse y observar el fenómeno, marcando

de esta manera, un antes y un después.

Sólo es posible innovar en ciencia perturbando, sacando de contexto y modificando al objeto

de estudio. Son estos cambios, junto a las explicaciones, los análisis y las inferencias, lo que

alimenta a una ciencia. Pero, toda explicación se soporta sobre hipótesis, además, perturbar y

modificar es netamente experimentación. En ciencia se dice que se han descubierto nuevos

hechos, cuando las consecuencias observadas contradicen a lo predicho por las teorías, es allí

donde el investigador a través de la noesis percibe desconfianza, genera conocimientos por

abstracción y guiado por su instinto, arremete contra la teoría buscando vulnerarla en su

insaciable sed de conocimiento. En lo tocante a la forma, el escritor de un artículo ha de redactar

de manera tal, que pueda ser entendido por cualquiera que se considere formado y habilitado

para ello. No es menester del autor bajar hasta un nivel simplista, más es trabajo del lector, el

intentar subir hasta el horizonte que le permita entender lo que se describe, explica, analiza,

contrasta e infiere. Su función es escalar estructuras del pensamiento.

Ro

iman

Val

bu

ena:

El M

éto

do

Cie

ntí

fico

Info

rmat

ivo

.

Page 80: La investigación científica avanzada primera edición 2015

79

3.1.1.- Periodismo Científico y Lógica Argumentativa

El periodismo científico es considerado como una ciencia de segunda mano, su fuente

primaria son observaciones y su proceso se circunscribe al análisis de tales observaciones,

alimentadas por trabajos de otros científicos. Un buen artículo informativo se soporta en

argumentaciones científicas basadas en el dialogo razonado y la evidencia de primera mano.

Muchos son los textos que indican las pautas a seguir para redactar, pero pocos son los que

realmente muestran cómo convencer con la lógica argumentativa, a continuación algunas

sugerencias:

Evite ambigüedades léxicas porque en ciencia son inaceptables; Evada cualquier tipo de

razonamiento sibilino; No planteé hipótesis antinómicas o contradictorias; Introduzca

razonamientos lógicos basados en argumentos, si describe un proceso, explique su mecanismo;

Cuando ejecute explicaciones científicas evite las falacias Ad Populum, en otras palabras, no

intente convencer con discursos políticos a un auditorio netamente científico; De ser posible

emplee aforismos en sus conclusiones, pero concaténelos coherentemente; Cribe sus ideas y

oriéntelas a convencer; ejecute comparaciones corteses.

Cree nuevos conceptos62

y relaciónelos inteligentemente con aquello que ha descubierto,

ponga de manifiesto la esencia misma del objeto estudiado. Verifique que no existe

contradicción en las afirmaciones. Cerciórese que las relaciones presenten una correcta

dependencia jerárquica. Si describe un evento relacional presente las magnitudes numéricas

correspondientes, garantice que no exista correlación espuria. Si el fenómeno estudiado es del

tipo causa – efecto, indique qué ley une al efecto con su causa, o qué teoría lo explica.

Especifique si las hay, cualquier causal intermediaria que pueda actuar sobre el fenómeno.

Combine descripción con explicación, recuerde que es la explicación la que transforma ideas en

conceptos científicos.

Si el artículo va dirigido a refutar una teoría, es donde el publicista ha de hacer uso de las

destrezas que posee partiendo de las premisas y conclusiones que su contrario pudo aportar,

presente entonces contrastabilidad y sugiera alguna manera de someterla a prueba. No convierta

su ensayo en una batalla de egos ni pretenda sofismas. Si intenta vulnerar una teoría

complemente conceptos. Recuerde que de la nada, nada viene. Disgregue unidades de razón y

62

Un concepto científico se da cuando se crean una serie de palabras o símbolos que juntos referencian a determinado objeto, bien sea mental

u ontológico, ambos con la idea dan significado a los símbolos haciéndolos entendibles. Para Clarke, R, J. (2005). Research Methodology. El investigador social reconoce que los conceptos en su modelo son basados en opiniones, valores, tradiciones, culturas y reglas que no pueden ser definidas con precisión.

Ro

iman

Val

bu

ena:

El M

éto

do

Cie

ntí

fico

Info

rmat

ivo

.

Page 81: La investigación científica avanzada primera edición 2015

80

haga entendible las ideas. De ser posible practique con un interlocutor, busque a alguien difícil

de convencer pero que pueda refutar sus análisis, sabrá que ha ganado al momento que las tesis

de su interlocutor pierdan fuerza evidenciando un discurso digresivo <<no se centra en el tema,

se va por las ramas>>, allí habrá impuesto su razón. Sature con verdades, pues nadie se satisface

con falsas razones. No disuada… convenza probando y demostrando. Marque siempre un

discurso apodíctico.

Al finalizar, y antes de enviarla a la revista, haga una síntesis auto reflexionando << sobre la

razón misma>> siendo a la vez autoconsciente <<piense sobre su propio pensamiento>> Si

decide alguna vez asistir a determinada conferencia, tenga presente lo que expresa Fred Allen:

Conferencia: reunión de personas importantes que no pueden hacer nada solas y deciden juntas

que no hay nada que hacer. No olvide nunca que la lógica sirve para algo… úsela… pero

recuerde que la lógica es un proceso de la ciencia…más es independiente de ella. Puede haber

lógica sin ciencia… pero lo contrario no sucede.

Ro

iman

Val

bu

ena:

El M

éto

do

Cie

ntí

fico

Info

rmat

ivo

.

Page 82: La investigación científica avanzada primera edición 2015

81

3.2 – El Método Hipotético Deductivo Vs. El Método Hipotético Inductivo

a deducción <<Conducir a partir de>> consiste en una operación de la inteligencia, un

procedimiento mediante el cual, iniciando desde proposiciones, se intenta demostrar la

veracidad o falsedad de una inferencia como consecuencia lógica de una cadena de

enunciados, llámense premisas y conclusiones, aplicando para ello las leyes de la lógica. Se

constituye como un método donde el científico marca su índice discursivo desde lo general a lo

particular con escalas intermedias, es decir, inicia en lo abstracto pero se sumariza y lo hace

entendible en lo concreto. La deducción se origina desde principios generales denominados leyes

o axiomas que permiten la concatenación entre los objetos de estudio y los fenómenos de la

naturaleza, además de coexistencias y nexos estables, diseminando y proyectando en cierto

grado, conocimientos que expliquen el cómo aquello particular se produce desde lo universal.

En tiempos recientes, el razonamiento deductivo se ha convertido en una rama de estudio de

la sicología y las neurociencias cognitivas. Allí se estudian a los individuos interpretando sus

destrezas mentales para relacionar enunciados a través de un indicador denominado ―Cogency‖

―Fuerza Lógica‖. Según George Stock63

(1888, p.133), el razonamiento deductivo es el que da

origen a inferencias deductivas, y estas son de dos tipos: Inmediatas y Mediatas. Una inferencia

inmediata se llama así porque se ve afectada sin la intervención de un término medio, que se

requiere en la inferencia mediata. Sin embargo, se diferencian en lo siguiente: una inferencia

inmediata es aquella derivada de una proposición simple. Contrariamente, la mediata se obtiene

de dos proposiciones conjuntas64

.

Gran cantidad de inferencias deductivas requiere de cierto grado de abstracción para lograr

una correcta vinculación, pues lo que es una verdad en una dirección puede no serlo en otra,

63

Chapter II: Of Deductive Reasoning. Aparece en: Deductive Logic. Londres, Longman, Green and Co. 64

No debe confundirse con el Término Entimema o silogismo truncado, pues, es muy común en la retórica y en ocasiones se usa para intentar

esconder falacias no formales.

L

Estoy convencido de que es imposible exponer los métodos de inducción de una manera sólida sin

descansar así sobre la teoría de la probabilidad. El conocimiento perfecto por sí solo puede dar certeza, y

en la naturaleza el conocimiento perfecto sería infinito conocimiento, que está claramente más allá de

nuestras capacidades. Tenemos, pues, que contentarnos con conocimientos parciales. El conocimiento

mezclado con la ignorancia produce dudas.

William Stanley Jevons.

Page 83: La investigación científica avanzada primera edición 2015

82

preste atención al siguiente ejemplo65

:

Premisa Mayor: ”Calvin se muerde las uñas mientras trabaja”

Premisa Menor: ”Calvin está trabajando”

Conclusión: ”Calvin se está mordiendo las uñas”

Debido a que la última afirmación debe ser verdad cuando ambas declaraciones anteriores lo

son, estas premisas implican la conclusión. Por el contrario, afirmar que ―Calvin se muerde las

uñas mientras trabaja‖ y ―Calvin se está mordiendo las uñas‖ no quiere decir que Calvin está

trabajando, porque también es posible que Calvin se muerda las uñas fuera del trabajo. Es decir,

en un enunciado deductivo siempre que las premisas sean ciertas la conclusión también lo será.

La comparación de estos resultados sobre sujetos experimentales da luces a la formulación de

una revisión de la teoría de la mente y la teoría de la lógica. La lógica deductiva como rama de la

filosofía y las matemáticas están claras en el contenido y contexto de aplicación de la deducción,

más sin embargo, es la sicología la que trata de reconocer vínculos entre las respuestas naturales

humanas y las decisiones lógicas basadas en matemáticas, puesto que la razón es limitada, la

matemática no.

Audi66

(1995), define como deducción a; una secuencia finita de sentencias, donde a la última

se le admite como una conclusión (lo que es deducido). Deducción es sinónimo de derivación. El

concepto de deducción es una generalización del concepto de prueba. Una prueba consiste en

una secuencia finita de sentencias, cada una de las cuales es un axioma o sigue de preceder

sentencias en la secuencia como lo plantean las reglas de la inferencia, donde la última sentencia

de la secuencia se convierte en un teorema. Es así como toda ciencia deductiva es axiomática.

La deducción se soporta sobre la validez, define con precisión y no asentado en opiniones y

creencia como en la investigación social67

. En deducción, sus argumentos se basan en reglas y

principios que posteriormente son usados en el razonamiento teoremático, allí un argumento será

válido si ninguna otra premisa resulta también verdadera, en otras palabras, está libre de

contradicciones. Según este método, las premisas son absolutamente necesarias para toda

conclusión científica, y sus generalizaciones son las más poderosas que razonamiento alguno

65

The MIT Encyclopedia of Cognitive Sciences. (1999). Wilson y Keil Editores. Deductive Reasoning, Pps. 225 y ss. Véase. 66

Audi Robert. The Cambridge Dictionary of Philosophy. 67

Hegel (1770 – 1831), en su Libro: La Ciencia de la Lógica, introduce un concepto denominado: Entendimiento Reflexivo, adoptado por la

filosofía (aquel que abstrae separando y estudia tal separación), y que consiste en lo siguiente: superar todo aquello concreto inmediato, determinándolo y dividiéndolo. Al superar aquellas determinaciones divisorias habrá que relacionarlas mutuamente. Más, este proceso surge de la observación de la necesaria contradicción y es el que introduce a la razón como aquello superior al intelecto humano común. Ahora bien, en la investigación social no se profundiza en el valor de verdad que aporta la contradicción (si bien las contradicciones lógicas deben eliminarse, algunas no tan lógicas resultan fructíferas), se puntualiza más sobre aquello concreto inmediato y que bien se le podría denominar Conocimiento de las Apariencias, pues, no se especifican las necesarias relaciones sujeto objeto. Establecer una relación sujeto objeto de esta manera, hace que no sea posible el reproducir concordancia, y la verdad queda restringida por la subjetividad. Tales prerrogativas derivan en que un saber obtenido de tales actividades científicas se vea reducido a simples opiniones.

Ro

iman

Val

bu

ena:

El M

éto

do

Hip

oté

tico

Ded

uct

ivo

Vs.

El M

éto

do

Hip

oté

tico

Ind

uct

ivo

.

Page 84: La investigación científica avanzada primera edición 2015

83

pueda arrojar, contrario a la inducción, sus inferencia son exactas, demostrables y no

probabilísticas.

Deducir es concebir un juicio corto habiendo iniciado desde nociones más extensas, y es

donde una verdad general (ley) puede ser reducida a una particular. Según extractos de

Nicomedes Martin Mateos (1862, p. 115 y ss.), la deducción se soporta sobre un principio

evidente e incontestable de lo suyo, pues lo que se dice o afirma sobre un género, aplica también

para las especies que este contiene. Puesto que deducir es un constante enlace de sentencias que

se sigan las unas de las otras presentando nexos de igualdad, no contradicción, tercero excluido y

relación, el axioma de deducción podría plantearse así: Dos cosas iguales a una tercera son

iguales entre sí. Las reglas simplemente son dos: 1) Reflexionar si el principio general es

legítimamente adquirido determinando exactamente su valor; 2) Reflexionar con el mismo

cuidado sobre los datos de la particularidad, para ver si los posee todos.

La Inducción por su lado, es una operación del pensamiento y la razón, mediante la cual,

partiendo desde materiales intelectuales necesarios y suficientes, se expresa una conclusión

general soportada sobre un conjunto de premisas obtenidas desde la observación, la experiencia,

o simplemente originada como evidencia experimental. Todo principio general usado en ciencias

para construir los axiomas que soportan a una teoría es resultante de la inducción. Más, lo único

que puede justificar un razonamiento inductivo, es que pueda ser probado por deducción cuando

se parta desde principios evidentes e indemostrables contenidos en el ejercicio inductivo.

Según Aristóteles, una inducción es una deducción que, en lugar de deducir un extremo de

otro mediante el término medio, como hace el silogismo verdadero, deduce el término medio de

un extremo, valiéndose del otro extremo68

. No obstante, a la inducción se le considera como un

tipo de argumentación que se ha transformado al pasar los años, en una fuente de creencias y una

forma de ampliación del razonamiento. En escritos de Andrés Piquer (1781);

Llamaré inducción a la manifestación de un universal por la enumeración de todos

los particulares... Son innumerables los errores que se cometen en las ciencias por el

mal uso de la inducciones; pues sin hacer bien las enumeraciones de los particulares,

se sientan máximas universales, que sólo son ciertas cuando aquellas incluyen a

todos sin faltar ninguno, (p. 61).

Nicomedes Op, Cit, aporta las siguientes consideraciones; la deducción es el modo de

razonar por el que procedemos del género a las especies y a los individuos, (p. 115). Sostiene

que al ejecutarla no se trata de servirse de los individuos para adquirir conocimiento de lo

general, contrariamente, se usa el conocimiento de lo general para conocer a los individuos. No

68

Puede leerse en Moreno Villa (2003, p. 150).

Ro

iman

Val

bu

ena:

El M

éto

do

Hip

oté

tico

Ded

uct

ivo

Vs.

El M

éto

do

Hip

oté

tico

Ind

uct

ivo

.

Page 85: La investigación científica avanzada primera edición 2015

84

es posible deducir sino después de la inducción, pues la deducción para la ciencia es garantía de

certidumbre. Ambas operaciones, inducción y deducción están conexionadas entre sí, tanto así

que la segunda no puede existir sin la primera, y la primera no puede ser aplicada y verificada

sino por medio de la segunda.

La inducción en muchos casos parte del principio de asociación de ideas, este consiste en un

patrón mediante el cual cada elemento, signo, cosa o detalle del conocimiento, que se da lugar en

la conciencia, ocurren juntas o en sucesión. Donde se producen conexiones fuera de algún acto

sensible, haciendo emerger ideas que se sigan consecutivamente pudiendo considerarse como

fuente de imaginación o ilusión. La imaginación es fuente de verdades si estas pueden ser

probadas a posteriori, más no así la ilusión. Llámese a la imaginación o las ideas como los

particulares enumerados y no ejecutados, y lo universal a la conclusión que los agrupa.

Ro

iman

Val

bu

ena:

El M

éto

do

Hip

oté

tico

Ded

uct

ivo

Vs.

El M

éto

do

Hip

oté

tico

Ind

uct

ivo

.

Page 86: La investigación científica avanzada primera edición 2015

85

3.2.1.- El Método Hipotético – Deductivo o Método de las Hipótesis

oda ciencia deductiva presenta su metodología69

, en un primer momento se parte desde

una teoría de referencia subsiguientemente se plantean las hipótesis necesarias y se

derivan de ellas teoremas acto seguido, se llega a la observación, persiguiendo datos

que sirvan para confirmar o rechazar las hipótesis por último, se procede a la confirmación o

desconfirmación de aquella predicción planteada por la teoría. Desde el punto de vista de este

método, el científico cuando se avoca al estudio de un fenómeno, hace uso de una teoría u otra,

propia o no, sin embargo, ésta necesita ser evaluada sometiendo a prueba predicciones

observacionales conocidas como consecuencias deductivas. Tenga presente siempre dos

operaciones mentales de suma importancia, la intuición y la deducción, sin ellas es prácticamente

imposible cristalizar conocimientos.

Cuando la predicción se corrobora, es decir, al comparársele con la experiencia se torna

conforme, entonces se acepta la teoría, si la predicción es falsa, se rechaza. Significa que en la

realidad no se observa lo que la teoría plantea, e implica modificar la hipótesis o sencillamente

descartarla. Es la lógica formal la que describe en sí cómo ha de ejecutarse toda ciencia

deductiva. Stuart Mill70

(1858), asevera que en las ciencias deductivas hay cosas que no pueden

observarse directamente, entonces habrán de probarse.

Si el fenómeno pudiese fijarse de una vez por observación directa, entonces no habría

necesidad de series de raciocinios ni existirían ciencias deductivas o demostrativas. Para

proceder con una investigación, el científico ha de estar claro sobre lo que pretenden él y la

ciencia para la cual opera, en función de ello Aristóteles expresa lo siguiente: al que ignora cuál

es el objeto de la ciencia que estudia, no le es fácil llegar a saber en qué cosas se consigue dicho

69

En muchos libros se puede encontrar que el Método Hipotético Deductivo sigue los siguientes pasos: Observación – Planteamiento de

Hipótesis – Deducción de conclusiones y Verificación. Más sin embargo, el primer paso que consiste en la observación generalmente viene cargado de teorías, por lo que se presenta como inicio para este texto, una teoría de referencia. 70

Véase: Capítulo IV: p. 287. De las Series de Raciocinios y de las Ciencias Deductivas.

T

Hemos llegado a la escena del crimen. Permítanme planificar las principales acciones. Al acercarnos al

caso recordemos, la mente ha de estar absolutamente en blanco, eso siempre es una ventaja, pues no

hemos forjado teoría previa alguna. Estamos aquí simplemente para observar y sacar conclusiones a

partir de allí. Razonemos hacia atrás… es decir… deduzcamos.

Sir Arthur Conan Doyle. The Adventure of Cardboard Box. (1893). Aventuras de Sherlock Holmes.

Page 87: La investigación científica avanzada primera edición 2015

86

objeto, y de qué manera71

.

En párrafos de Liebig72

(1867), desde el nacimiento de la ciencia han existido dos métodos

para el estudio de los fenómenos de la naturaleza; la inducción y la deducción. Ambos son

caminos que conducen al mismo término, pero difieren del punto de partida, cuando los dos

métodos se hallan reunidos, la inducción precede a la deducción. Según Liebig, es así como la

deducción convierte en apodíctico y verdadero, aquello concebido desde la inducción.

La deducción como método parte desde el conocimiento del fenómeno hasta su explicación,

es allí donde se convierten hechos en conceptos. Liebig Op, Cit, afirma que cuando se usa la

deducción para conducir a buen fin una investigación científica, ha de proveerse mediante

operaciones de la inteligencia de conocimientos exactos y una justa apreciación de las

circunstancias, basta con que se presenten obstáculos nuevos o leyes desconocidas que sirvan de

intermedio entre los fenómenos y su concepción, para que esto se convierta en un estorbo que no

pueda eliminar sin recurrir a la imaginación. Basta con que falte algún hecho para que el espíritu

se halle cara a cara con un vacío que no podrá llenar. Más en la actualidad no se admite este

medio en las explicaciones científicas, necesarias son operaciones inductivas.

3.2.2.- El Método Hipotético – Inductivo

La inducción para muchos no es considerada un método73

<<hecho indiscutible y en

cierto sentido Aristóteles así lo plantea>> sino como una regla o procedimiento usado en la

investigación científica. Para John Stuart mil74

, la validez de todos los métodos inductivos

depende de la suposición de que cada evento, o el comienzo de cada fenómeno, deben tener

alguna causa, algunos antecedentes, de la existencia de la que es invariable e

incondicionalmente consiguiente. La inducción es observable y no siempre puede ser

confirmada, la deducción es abstracta.

71

Gran Ética –o Magna Moralia. Libro Primero. Cap. I. 72

El Desarrollo de las Ideas en Ciencias Naturales e Importancia de la Inducción y la Deducción en las referidas Ciencias. 73

Desde hace mucho tiempo ha existido una lucha eterna por desenmascarar cuál es el verdadero método de la ciencia. Aristóteles propuso

los silogismos contraponiéndose a la metafísica y a los conocimientos científicos derivados de la inducción. Francis Bacon por su lado, rechaza el uso de silogismos deductivos y escribe lo siguiente como soporte a la metodología inductiva: <<Uno y otro método parten de la experiencia y de los hechos, y se apoyan en los primeros principios; pero existe entre ellos una diferencia inmensa, puesto que el uno sólo desflora de prisa y corriendo la experiencia y los hechos, mientras que el otro hace de ellos un estudio metódico y profundo; el uno de los métodos, desde el comienzo, establece ciertos principios generales, abstractos e inútiles, mientras que el otro se eleva gradualmente a las leyes que en realidad son más familiares a la naturaleza>> Aforismo 22. Libro Primero. Novum Organum. Contra Aristóteles y muchos de sus seguidores escribe lo siguiente: <<No combatimos en modo alguno la gloria de los autores antiguos, dejémosles todo su mérito; no comparamos ni la inteligencia ni el talento, sino los métodos; nuestra misión no es la del juez, sino la del guía>> Aforismo 32. 74

Véase: A System of Logic: Ratiocinative and Inductive (1843), Vol. 2, 107.

Ro

iman

Val

bu

ena:

El M

éto

do

Hip

oté

tico

– D

edu

ctiv

o o

Mét

od

o d

e la

s H

ipó

tesi

s.

Page 88: La investigación científica avanzada primera edición 2015

87

El método hipotético inductivo se compone de los siguientes pasos generales:

1) En un primer estadio se procede a la observación y registro de los hechos, se busca recopilar

la mayor cantidad de datos posible.

2) Acto seguido, se ejecuta el análisis de aquello que ha sido observado, definiendo claramente

cada concepto nuevo que tenga a bien crearse.

3) Subsiguientemente, viene la clasificación de los elementos, diferenciando qué elementos

pertenecen a una clase y cuales a otra.

4) Por último, se ejecuta la formulación de la/s hipótesis, enunciados universales o

generalizaciones.

Toda investigación inductiva comienza desde la observación de algún hecho que inquiete al

científico y posteriormente pueda plantearse como problema. Cuando se procede al análisis, es

menester descomponer claramente todo aquello observado en virtud de examinar y estudiar cada

elemento por separado, este procedimiento lógico del intelecto le afirmará obtener nuevos

conocimientos, liando y diferenciando los conceptos abstractos de los concretos. Es el proceso

mediante el cual alcanza los materiales intelectuales necesarios y suficientes que le permitan su

clasificación y diferenciación de otros del conjunto. Al descubrir la estructura que compone al

objeto investigado, delimitará todo aquello que considere esencial de aquello superfluo, aunque

lo segundo también sea parte constitutiva del fenómeno.

En correspondencia al tercer paso, la clasificación involucra a la lógica de clases y de

relaciones, la de clases le servirá para agrupar elementos dentro de una misma categoría si

poseen al menos una característica en común. No ha de olvidarse que no puede haber clases

concretas sino meramente abstractas. Los objetos que allí se agrupan sí deben ser por entero

concretos75

. En cuanto a las relaciones, es allí donde el científico comienza a corresponder cada

conexión o idea con otra, siempre y cuando emerjan similitudes o diferencias, o de alguna

manera se haga presente determinada dependencia jerárquica. Estableciendo relaciones de

igualdad, de diferencia, correlaciones o relaciones causa – efecto. En ese paso, ya ha de estar

preparado para formular la primera hipótesis, pues, el análisis de las partes precede a un árbol

relacional descriptivo – explicativo del contexto bajo estudio.

En lo que respecta al cuarto proceso, la generalización de una hipótesis no es una medida de

éxito, ni mucho menos se considera suficiente para resolver un problema. Cuando se da origen a

75

Esta aseveración es válida para cuando en la etapa de clasificación ya se ha identificado por entero cada entidad y se ha salido del plano

abstracto al concreto. Sin embargo, según el objeto investigado el análisis adquirirá formas distintas. En la medida que la estructura analítica como proceso, o como estructura del pensamiento le asienta el avance, la inteligencia racional le llevará desde lo más complejo hacia lo más sencillo, en la etapa intermedia de este camino desaparecerán poco a poco los elementos abstractos y se comenzarán a ver los concretos.

Ro

iman

Val

bu

ena:

El M

éto

do

Hip

oté

tico

– D

edu

ctiv

o o

Mét

od

o d

e la

s H

ipó

tesi

s.

Page 89: La investigación científica avanzada primera edición 2015

88

una generalización empírica, se está asegurando que existe relación entre las propiedades del

objeto que a todas luces es observable. Planteado de esa manera, la hipótesis va más allá de lo

que realmente puede ser corroborado por los datos, implicando que la relación observada en unos

pocos casos, también aplica para aquellos no observados. Su basamento según Bacon <<Errado

desde mi apreciación>>, es que: cada conjunto de hechos de la misma naturaleza está normado

por una ley universal que lo hace invariante. Esta aseveración Baconiana que de hecho muy

comúnmente se aplica, ha derivado en que las hipótesis obtenidas por inducción sean imposibles

de probar. El siguiente aparte trata mejor el asunto.

3.2.3.- El Problema de Superponer Inducción y Deducción

Si bien es cierto, la lógica deductiva tiene bien demarcados sus procedimientos, el problema

al superponer ambos métodos se presenta, cuando se intenta dar justificación racional al uso de

una inferencia inductiva a todas luces imposible de probar. Para ello los inductivistas han

desarrollado una lógica inductiva76

que les permita la confirmación de teorías sobre las bases

del cálculo de probabilidades, es por ello que toda investigación cualitativa tendrá mediana

validez si y solo si, es capaz de generar un esquema probabilístico que asienta eliminar gran

parte de la incertidumbre que genera. Esta imposibilidad de justificación es la que siempre ha

amenazado al método inductivo. Los modelos de razonamiento basados en la lógica informal, o

comúnmente denominada lógica del pensamiento crítico, son de por sí, conclusiones de la

inteligencia inductiva. Para Mill Op. Cit:

Hay poderosos motivos científicos para dar a toda ciencia el carácter de deductiva en

cuento sea posible… todas las ciencias naturales en un principio fueron

experimentales, donde cada generalización se apoyaba en una inducción especial.

Cada paso en la deducción es siempre una inducción. Entonces, la oposición no se

encuentra entre los términos inductivos y deductivos, sino entre deductiva y

experimental. En las ciencias experimentales las inducciones aparecen aisladas, pero

pueden convertirse en deductivas por el mero progreso de los experimentos. Cuando

se establece por deducción o por experimento directo, que las variaciones de un

fenómeno particular acompañan uniformemente las de otro fenómeno mejor

conocido, se dice entonces que fue un descubrimiento experimental basado en

deducción, (p. 300 y ss.).

La inducción se vale de la observación y de demostraciones indirectas que parten de lo

76

La lógica Inductiva, o también denominada lógica del razonamiento inductivo, consiste en una disciplina que estudia las posibles aplicaciones

de pruebas estadísticas basadas en la probabilidad, y que sirvan de soporte a las inferencias inductivas. Persigue brindar argumentaciones válidas a todo razonamiento inductivo a través de la generación de parámetros y grados probabilísticos. En ese sentido, el Razonamiento aproximado Bayesiano es una alternativa. Véase: Razonamiento Bayesiano. Cap. V: Sección: 5.5.1.-

Ro

iman

Val

bu

ena:

El M

éto

do

Hip

oté

tico

– D

edu

ctiv

o o

Mét

od

o d

e la

s H

ipó

tesi

s.

Page 90: La investigación científica avanzada primera edición 2015

89

particular hacia lo particular, o de lo particular hacia lo universal, este tipo de razonamiento

introduce el azar como factor en ciertos casos, y no hay ciencia posible de aquello que, de alguna

u otra manera, dependa del azar. Moreno Villa (2003) argumenta que, la inducción para el

hombre es un procedimiento fácil y claro, pero su uso es limitado no pudiendo suplantar al

silogismo deductivo.

La inducción es válida si y solo si, se agotan todos los casos posibles (p. 153). Según

Aristóteles en extractos de Moreno Villa, la inducción puede usarse no en ciencias, sino en la

dialéctica y en la oratoria, es decir, como instrumento de ejercicio y persuasión. En sus trabajos,

Mónaco77

llama a no confundir ambas perspectivas, inducción y deducción. Explica que fue

Becker, en los años 50, quien introdujo el cualitativismo hermenéutico basado en la inducción

designándolo como un conjunto de técnicas relativas a la recolección de datos. Y que

posteriormente fue elevado al rango de método78

o paradigma por: Glaser; Hamilton; Patton;

Proshansky; Filstead y Guba entre otros, todos ellos investigadores sociales. Sostiene también

que la hermenéutica79

no es una doctrina filosófica adecuada para justificar la necesidad de

un método propio. Asumiendo que ambas tienen posturas irreductibles y contrapuestas.

Popper (1980, Véase: El Problema de la Inducción, p. 27 y ss.), afirma que los problemas de

la inducción son insuperables incluso introduciendo probabilidad. Cuando se refiere al tema

Deducción vs. Inducción alega lo siguiente:

La metodología científica es esencialmente deductiva. Dada una teoría T, deducimos

consecuencias de la misma, C1, C2,…Cn. Dichas consecuencia han de ser

contrastadas empíricamente, entendiendo la contrastación como la posibilidad de

refutar T si los datos empíricos no coinciden con las predicciones Ci, obtenidas a

partir de T.

A esto se denomina Verificación y Falsación. Por otro lado y según el autor, suponer que

exista un principio de inducción, y que toda ciencia es inductiva, implicaría que un enunciado

77

La Falsa Disyuntiva entre lo Cualitativo y lo Cuantitativo en la Investigación. Aparece en: Calello y Col (2002). P. 119. 78

Para Popper, tal Método Científico no existe, y explica: La inducción como método no debe confundirse con la inducción como forma de

razonamiento o inferencia. Argumenta también: “No hay un Método Lógico o una Lógica del descubrimiento”, en su defecto, todo descubrimiento contiene un elemento irracional o una intuición creadora. Véase: Verdugo, Carlos. Ensayo: La Filosofía de la Ciencia de Popper (1996, p. 4). 79

La Hermenéutica es un arte orientado a la interpretación de textos, en especial aquellas obras consideradas sagradas, puesto que la verdad

para una religión puede no serlo sobre otra. Trata de hacer interpretaciones del fenómeno social, su inevitable subjetividad ha sido foco de discusión durante mucho tiempo. La hermenéutica es comúnmente utilizada en la investigación cualitativa, no solo como enfoque plural y tradicional, sino como método de análisis. Para la filosofía, es una doctrina del tipo idealista, según la cual los hechos o manifestaciones de índole social no deberían describirse ni explicarse objetivamente, sino subjetivamente. Kant en su obra: Crítica a la Razón Pura (p. 17-19), afirma que las categorías <<En investigación cualitativa: Cada uno de los grupos básicos en los que puede incluirse o clasificarse todo conocimiento, o, subdivisiones del mismo bajo la forma de conceptos puros>>, deben estar unificadas al espacio y tiempo, como reglas que las unen a través de la autoconciencia como base para producir la unidad de la experiencia. Las categorías permiten sólo el pensar los objetos, no intuirlos, y mucho menos, están <<sometidas a un orden de sucesión>>, lo que dificulta su falsabilidad. Kant fundamentó la universalidad del conocimiento en la trascendentalidad de las categorías, donde el intelecto construye al objeto. Esa apreciación vale una cortés comparación con lo establecido por: Dilthey Wilhelm: Crítica a la Razón Histórica (2000, p. 109-115), donde precisa… el valor objetivo de las categorías brotan a partir de las vivencias, y asume como primera determinación categorial la temporalidad. Para este autor, al contario de Kant, las categorías constituyen en sí, conexiones sistemáticas, y las categorías supremas designan las posiciones más altas de concepción de la realidad.

Ro

iman

Val

bu

ena:

El M

éto

do

Hip

oté

tico

– D

edu

ctiv

o o

Mét

od

o d

e la

s H

ipó

tesi

s.

Page 91: La investigación científica avanzada primera edición 2015

90

desde lo singular (plano sensible) conduzca hasta un universal (plano inteligible) también

inductivo. Es decir, un principio de orden superior y así sucesivamente. De resultar cierto,

llevaría inevitablemente a una regresión infinita, como ejemplo: A se justifica por B; B se

justifica por C; C se justifica por D…, y así repetidamente sin fin. Impidiendo cerrar el círculo

lógico y derivando en inferencias medianamente probables en el mejor de los casos. Los limites

superior e inferior de la ciencia son la verdad y la falsedad, de esta manera no se llegaría a

ningún lado. Cualquier inferencia obtenida de esta forma se arriesga, tarde o temprano, a resultar

falsa.

El otro problema que alega Popper sobre las inferencia inductivas recae sobre el cómo

interpretar un enunciado probabilístico. Para él, existen dos tipos de estos enunciados: el

numérico basado en matemáticas y el interpretativo o no numérico. Con el primero surge la

pregunta de cómo descifrarlo ¿Qué hace tal afirmación numérica?, con el segundo se presentan

las interpretaciones subjetivas y objetivas, ambas introducen ambigüedades. Por su lado, Mario

Bunge80

(2000, p. 713), califica a las inferencias inductivas como estructuras lógicamente no

válidas o cuasi-tendenciales, pero a menudo fecundas, conocidas también como inferencias

incoadas. Afirma que la única estructura inferencial legal y válida es la deductiva. “La

conclusión” que va de la conclusión propiamente dicha a las premisas, no es concluyente en

sentido lógico, y confusamente se la ha asignado el nombre de inducción.

Contrario a Popper, Leibniz afirma que la racionalidad de las conclusiones inductivas

depende de la racionalidad de las probabilidades81

. En escritos de Francis Bacon y Basil

Montagu82

, La única esperanza de la ciencia es la genuina inducción. En ese sentido, Francis

Bacon contribuyó significativamente al desarrollo del método inductivo, indicando en sus

denominadas tablas de ausencia y presencia el cómo debía llevarse a cabo la enumeración

tendente a la consecución de inferencias legítimas. Estas tablas permiten analizar y codificar los

procesos de razonamiento. Carnap cree, al igual que Bacon, que así como la implicación lógica

es el concepto clave para la lógica deductiva, así el grado de confirmación83

es el concepto

clave para lógica inductiva.

80

Véase el apartado de: Las Inferencias Científicas. 81

Aparece en Gower Barry (2002, P. 212) Capítulo XI: Rudolf Carnap. Scientific Method as Bayesian Reasoning. 82

Francis Bacon and Basil Montagu, The Works of Francis Bacon (1831), Vol. 14, 32. A continuación el aforismo 14 del Novum Organum <<El

silogismo se compone de proposiciones, las proposiciones de términos; los términos no tienen otro valor que el de las nociones. He aquí por qué si las nociones (y éste es punto fundamental) son confusas debido a una abstracción precipitada, lo que sobre ellas se edifica carece de solidez; no tenemos, pues, confianza más que en una legítima inducción>> 83

Rudolf Carnap admite el criterio de demarcación inductivo denominándolo como confirmabilidad, su teoría de grado de confirmación la usó

para intentar darle sentido a una inferencia inductiva desde la lógica probabilitaria. Este supuesto admite que todo razonamiento inductivo es un razonamiento en términos de probabilidad. Carnap también acepta el hecho real que en toda inferencia inductiva hay la presencia de un elemento sicológico, su lógica en sí es antipsicologista. Similarmente Popper lo llamó: Grados de Contrastabilidad, pero este está muy alejado de la probabilidad. Popper no aceptó el concepto de Confirmación, pues siempre argumentó que la teoría perfecta y confirmable no existe ni existirá nunca. Véase Popper Karl (1980). Cap. IV.

Ro

iman

Val

bu

ena:

El M

éto

do

Hip

oté

tico

– D

edu

ctiv

o o

Mét

od

o d

e la

s H

ipó

tesi

s.

Page 92: La investigación científica avanzada primera edición 2015

91

Cuando un científico defiende y hace uso de inferencias inductivas, claramente ha incoado

(dado los primeros pasos) hacia una teoría basada en una actitud sicológica, justificada por la

teoría de la probabilidad, simplemente se siente bien con ella, más no ha hecho uso del

conocimiento reflexivo. Por ello Popper Op, Cit, sostiene que, la creencia en una lógica

inductiva se debe, en gran parte, a una confusión de los problemas sicológicos con los

epistemológicos; esta confusión ha originado dificultades tanto en la lógica del conocimiento

como en su sicología, (p. 39 y ss.). Una cosa es sentirse satisfecho por el hecho de haber incoado

una idea, una teoría o una posible respuesta, eso es sicología del conocimiento. Otra muy

diferente es separar la sicología de la Epísteme que exige toda ciencia.

Para el científico y según Piquer Op, Cit (p. 62), es menester mucha reserva, gran exactitud,

y suma diligencia para no engañarse con las inducciones. Un médico da una medicina para

quitar una enfermedad, la repite otra vez y logra la curación. Forma entonces por inducción una

máxima general falsísima, creyendo que tal medicina es remedio cierto para semejante dolencia.

Otro que afirma la existencia de errores potenciales en la inducción es el mismísimo Francis

Bacon, creador y defensor a ultranza de este método.

En su obra Great Instauratio, buscaba nada más y nada menos que una total reconstrucción

de las ciencias, las artes y todo el conocimiento humano. Bacon se opuso a la inducción por

enumeración con la idea de que la inducción que procede por simple enumeración es básica y

simplista, sus conclusiones precarias y expuestas al peligro de una contradictoria instancia, por lo

general decide sobre un número demasiado pequeño de los hechos que están a la mano. Su idea

de inducción formal se basaba en eliminar o excluir hechos observados negativos, pues con una

sola instancia negativa es suficiente para eliminar una generalización.

Siempre argumentó que el atraso en las ciencias se debía al uso de un método inadecuado. De

hecho a la inducción se le conoce como el método Baconiano. Mientras Aristóteles defendía el

razonamiento en las ciencias, Bacon proponía la evidencia derivada de los experimentos usando

la inducción. Sin embargo, ciertos problemas surgieron cuando se quiso elaborar teorías

explicativas basadas en observaciones particulares. Allí aceptó el uso de los silogismos

aristotélicos que tanto había descalificado argumentando: No hay inducción ninguna que no se

pueda reducir a silogismo84

. Según Bunge85

, la ciencia avanzada y la tecnología comienzan

donde la inducción deja de funcionar. Puesto que ambas suponen hipótesis que sobrepasan las

observaciones.

84

Aparece en el Novum Organum y en The Advancement of Learning (1605). 85

Bunge Mario. Diccionario de Filosofía (2001). Concepto de Inducción. Véase.

Ro

iman

Val

bu

ena:

El M

éto

do

Hip

oté

tico

– D

edu

ctiv

o o

Mét

od

o d

e la

s H

ipó

tesi

s.

Page 93: La investigación científica avanzada primera edición 2015

92

Bacon en su libro, Novum Organum, sistematizó un complejo sistema de lógica inductiva. Su

proceso más o menos se describe así: se hace comparecer ante la inteligencia, todos los hechos

en los que uno se encuentra la propiedad dada, pues, la ausencia de la propiedad indica la

ausencia de la forma. Sin embargo, acepta que citar todos los hechos sería interminable, lo que

Popper denominó, en el ejemplo previo, regresión infinita. Por eso es preciso colocar todos los

hechos positivos al lado de los negativos, e investigar la privación de la propiedad sólo en los

sujetos que más relación tienen con aquellos en los que la propiedad existe o aparece.

A esto lo denomina, <<Tabla de Desaparición o Ausencia en los Análogos>>; <<Tablas de

Hechos Positivos y Negativos>>, <<Tablas de Ser y Presencia>>, y <<Tablas de Grados de

Comparación>> Bacon nunca terminó su obra. Existen 8 elementos de suma importancia que

fueron planificados y nunca se desarrollaron. Los más importantes son: el tercero, <<Sobre la

Rectificación de la Inducción>>, y el octavo: <<Sobre las Escalas Ascendentes y Descendentes

de las Leyes Generales>> aparecen todos en Novum Organum, Aforismo 21 del capítulo 2.

Quizás de haberlos esquematizado correctamente, la inducción hoy día fuese otra, y las

investigaciones cualitativas podrían tomarse como verdadera ciencia86

. Una observación de

importancia para quien desee revisar la obra, es que el Novum Organum adolece en su totalidad,

de cálculo numérico alguno. Es decir, de haber existido alguna forma de demostración en tal

método, no hubiese hecho uso de la lógica matemática bajo ninguna circunstancia.

En fin, la inducción sólo puede ser justificada deductivamente. Utilícese para generar

hipótesis que puedan ser probadas experimentalmente. Deshágase de todos aquellos supuestos a

priori que puedan aumentar la dependencia probabilística de una inferencia inductiva. Tenga

siempre presente que es la inducción la que precede a la deducción. Cuando se construye una

hipótesis por inducción se involucra al campo sicológico, no permitiéndole su demostración

lógica. El inductivista persistentemente se ha sentido atraído hacia cualquier método que le

permita salvar el abismo de las matemáticas… más, la matemática es la génesis de la ciencia

verdadera. Es más fácil encontrar a dios en los números que en las oraciones.

86

Aforismo 21 del Novum Organum: <<Después de haber formado las tablas de primera comparecencia y procedido según ellas a la separación

o a la exclusión y a la primera vendimia, es preciso pasar a los otros auxiliares de la inteligencia relativos a la interpretación de la naturaleza, y a la inducción verdadera y perfecta. Para proponer estos diversos auxilios, cuando se requieran las tablas, tomaremos por asunto lo cálido y lo frío, citando solamente algunos ejemplos, variaremos los asuntos; pues no conviene introducir confusión en las investigaciones, ni forzar demasiado la doctrina. Ante todo hablaremos de los hechos privilegiados; en segundo lugar, de los auxiliares de la inducción; en tercero, de la rectificación de la inducción; en cuarto, del arte de variar las investigaciones según la naturaleza del sujeto; en quinto de las prerrogativas de la naturaleza, en lo referente a las investigaciones y al orden que en ellas debe emplearse; en sexto lugar, de los límites de las investigaciones, o del conjunto de todas las naturalezas en el universo; en séptimo, del arte de llegar a la práctica, o de lo que es relativo a las necesidades del hombre; en octavo, de los preliminares de las investigaciones; y en fin, de la escala ascendente y descendente de las leyes generales>>

Ro

iman

Val

bu

ena:

El M

éto

do

Hip

oté

tico

– D

edu

ctiv

o o

Mét

od

o d

e la

s H

ipó

tesi

s.

Page 94: La investigación científica avanzada primera edición 2015

93

CONTENIDO DEL CAPÍTULO

4.1.- Sobre la Relación: Razonamiento – Hipótesis

4.1.1.- Las Hipótesis Heurísticas

4.1.2.- Las Hipótesis Inductivas y Deductivas

4.1.3.- Conexión de Hipótesis

4.1.4.- Hipótesis Abductivas; Razonamiento Abductivo e Hipótesis Diagnósticas

4.2.- Un Pequeño Abordaje de las Inferencias Científicas

4.2.1.- Modelo Stock de Clasificación de Inferencias

4.2.1.1.- Inferencias Inmediatas

4.2.1.2.- Inferencia Inmediata Simple por Oposición

4.2.1.3.- Inferencia Inmediata Simple por Conversión

4.2.1.4.- Inferencia Inmediata Simple por Permutación

4.2.1.5.- Inferencia Inmediata Compuesta: Conversión por Negación

4.2.1.6.- Inferencia Inmediata Compuesta: Conversión por Contraposición

4.2.1.7.- Sobre las Inferencia Mediatas Conjuntivas y Disyuntivas

La Investigación Científica Avanzada

C

A

P

Í

T

U

L

O

IV

Razonamiento e Hipótesis Científicas

Aquel que no quiere razonar es un fanático; quien no puede es un tonto; y quien no se

atreve es un esclavo.

Sir William Drummond.

Page 95: La investigación científica avanzada primera edición 2015

94

4.1.- Sobre la Relación: Razonamiento – Hipótesis

e entiende por hipótesis a toda aquella conjetura, enunciado o serie de estos, que se

colocan por debajo del axioma en una teoría y de los cuales se extraen sus

consecuencias lógicas. Se les entiende también como cada uno de los elementos que

soportan una demostración, en las hipótesis se supone, se imagina y se recela pero no se cree. Ya

que, pasan desde las simples especulaciones cuando usando la capacidad de discernimiento, se

expresan como proposiciones condicionales que posteriormente puedan verificarse. Es decir,

hipotetizar significa buscar un conocimiento a partir de un supuesto, presentando por adelantado

una conjetura que ulteriormente se compruebe, y al demostrarse se convierte en un teorema.

John Stuart Mill llegó a conceptualizarlas como una suposición sobre las cuales no existen

suficientes evidencias, pero donde subyace una posibilidad real y cierta de corroborar por

deducción, pues lo observado sobre el fenómeno se torna conforme y acorde con las leyes que lo

rigen. Toda hipótesis científica ha de abrazar fuertemente a la entidad física que refiere, es decir,

debe necesariamente sustentarse sobre leyes científicas. No obstante, no siempre es posible

percibir sensorial y directamente el fenómeno, y si no existen leyes conocidas acreditables al

evento, entonces utilícese la capacidad de discernimiento para establecer relaciones, es allí donde

entra en juego la intuición.

El conocimiento intuitivo, partiendo de hechos observados en un fenómeno y sobre los cuales

no puede encontrar nexos o relación causal, cede su dominio al conocimiento demostrativo, el

cual a través de la razón y la experiencia en un primer momento simplemente especula y

conjetura. Posteriormente actúa basado en la metonimia de sus unidades fenoménicas usando lo

pasado y lo presente, admitiendo entonces una demostración por conclusión. Heidelberger y

Schiemann (2009), sostienen que a una hipótesis se le toma normalmente como una conjetura

que permite obtener un conocimiento como ganancia. Las conjeturas no solo son útiles para la

producción de conocimiento, sino, que las teorías científicas no son más que una simple

S

Todas las interpretaciones hechas por un científico son hipótesis, y todas las hipótesis son

provisionales. Deben siempre ser probadas y revisadas en caso de ser satisfactorias. Por lo tanto, un

cambio en la mente de un científico, y en particular en un gran científico, no es un signo de debilidad,

sino más bien la evidencia para continuar con la atención a los respectivos problemas y la capacidad

para poner a prueba las hipótesis una y otra vez.

Ernst Mayr.

Page 96: La investigación científica avanzada primera edición 2015

95

colección de conjeturas y para las cuales existen suficientes argumentos. En la investigación

científica se usan a las hipótesis como estrategias implícitas de razonamiento, asumiéndolas

como una proposición puesta por delante. Tan importantes son, que toda investigación científica

comienza y termina con una.

La inicial es la que guía todo el proceder del investigador, y este, a través de una

deslumbrante coordinación de medios, las somete a prueba contra una teoría, donde el centro del

debate circunda a la verdad o falsedad de una razón todavía virgen. Martin Fisher advertía el no

confundir hipótesis con teoría, esta última consiste solo en una posible explicación, en cambio,

una hipótesis se usa para corregir teorías, y a la final es este el propósito de toda ciencia.

Cuando la hipótesis es la génesis de la investigación, se construye basada en una instancia

específica de un fenómeno particular, alimentada por cierto número de casos observados pero

con relaciones indeterminadas que ameritan evidencia probatoria. Estas interacciones agregan

unidades de razón que incrementan el entendimiento alterando el conocimiento.

Se dice que toda investigación concluye con una hipótesis puesto que sus implicaciones

lógicas y sus evidencias observacionales extraen el conocimiento que antes era sombrío y oscuro

sometiéndolo a la luz de la razón, allí el científico hace uso de una exquisita capacidad de

discernimiento, honestidad científica y abstracción, sabiendo que la hipótesis que

comprobó/planteó hoy, puede fácilmente ser refutada/corroborada mañana. Es preciso recordar

que el método científico como tal, es sólo una conjetura, por tanto una mera hipótesis aún sin

demostrar87

.

Para Poincaré88

(2007), el entendimiento de las hipótesis se basa en determinar la

complejidad del fenómeno, de serlo, el científico deberá reducirlo a sus mínimas unidades

87

Basado en esta realidad, Popper alega: <<Como regla general, comienzo mis lecturas del método científico afirmándole a mis estudiantes

que tal método no existe…>> El método científico de Popper consiste básicamente en la formulación de ideas innovadoras y en su sometimiento a las más razonables, rigurosas y eficaces refutaciones posibles. Popper llega, en palabras suyas, a «una nueva teoría del método de la ciencia, a un análisis del método crítico, el método de ensayo y error: el método que consiste en proponer hipótesis audaces y exponerlas a las más severas críticas, en orden a detectar dónde estamos equivocados» (Popper, K. R., 1985, pág. 115). Sus razones sobre la no existencia del método científico las plantea en el prefacio denominado: On The non Existence of Scientific Method. Aparece en su Libro: Realism and the Aim of the Science (2003). 88

Henri Poincaré, Físico y Matemático Francés (1854 - 1912), Formuló la denominada Conjetura o Hipótesis de Poincaré acerca de la forma del

universo y cuyo resultado daría luces sobre la fórmula general que le dio origen. Con ella se conseguirían respuestas a los procesos físicos que intervinieron en su creación. Tal conjetura formaba parte de los denominados siete problemas del milenio planteados por el Instituto Clay de Matemáticas de Cambridge Massachusetts. De hecho, la conjetura de Poincaré era el problema número siete y el único hasta el momento en haber sido resuelto después de 100 años. El Instituto Clay puso a disposición un millón de dólares a cualquier matemático que pudiese resolver alguno de tales enigmas. Su resolución se le atribuye al matemático Ruso Gregori Perelman en (2003), quien demostró la conjetura. En 2010 el Instituto Clay constató y verificó los datos aportados por Perelman invitándolo a recibir su premio, la respuesta del científico simplemente fue: “Sé cómo controlar el universo, entonces porqué tendría que correr detrás de un millón de dólares”. En 2006 Perelman rechazó también la medalla FIELDS, equivalente al premio nobel de matemáticas con una bolsa de 15 mil dólares. Para el Instituto Clay una conjetura es una hipótesis sobre las cuales existe fuerte evidencia de ser cierta, sin embargo, no hay demostración que las pruebe. Esta es la evidencia fidedigna de que toda investigación comienza con una hipótesis y termina con una. La conjetura de Poincaré se basa en el concepto de homología como abstracción definido así: <<Una curva cerrada en una variedad que bordea una superficie nunca será equivalente, por una deformación continua a una curva que no bordea ninguna superficie, ya que la deformación continua de la curva se extiende a una deformación continua de la superficie que bordea>> El Enunciado de la Conjetura puede leerse en el excelente libro de: Jhon Morgan y Gang Tian: <<Ricci Flow and the Poincaré Conjecture>>.

Ro

iman

Val

bu

ena:

So

bre

la R

elac

ión

: Raz

on

amie

nto

– H

ipó

tesi

s

Page 97: La investigación científica avanzada primera edición 2015

96

fenoménicas organizadas por su instinto de simplicidad y capacidad abstractiva. Por otro lado, en

ciencias como la física por ejemplo, la experimentación no es posible sin ideas preconcebidas

disimuladas en la noción de coherencia, esa es la principal herramienta para conectar hipótesis.

Un discurso es coherente cuando sus unidades de razón están atadas lógicamente <<discurso

coherente>>, entre sus partes no existe contradicción y semánticamente se plantea de forma tal

que cumple con los postulados de la lógica deductiva. Allí sus correlatos son claros, describen

interrelaciones y hacen referencia directa al cognoscendum.

Sólo se llega a la verdad sugiriendo hipótesis y comparando observaciones, el método se basa

en principios de precisión y transparencia. Como entender las hipótesis se relaciona con el nivel

de complejidad del fenómeno, el científico ha de aplicar todo el conocimiento de que dispone

para darle justa estructuración, y este puede ser de varios tipos. Si el fenómeno al que hace

referencia se conoce a través de otro menos conocido, y que está ausente, se dice que plantea su

hipótesis usando el conocimiento abstractivo <<El caso de la Conjetura de Poincaré>> Si el

objeto ha impreso en la mente del científico alguna imagen, por observación o por contacto

directo, es posible afirmar que plantea su hipótesis a través de una cognición intuitiva.

Si el científico decide plantear no una sino varias hipótesis sucesivas, como en el caso de las

grandes teorías científicas y abarcando al mismo fenómeno, entonces su sistema hipotético debe

presentar: relación; coherencia; coincidencia y cohesión, derivadas del conocimiento

comprensivo. Préstese cuidado ya que puede haber coincidencia sin cohesión, coincidir implica

que cada elemento de A se corresponde con alguno de B, donde hay concordancia y siempre se

produce el mismo resultado. No obstante, cohesión solo significa que hay un enlace entre al

menos dos cosas. Es decir, dos cosas pueden estar unidas sin coincidencia alguna por efectos de

la ley de la casualidad.

Para el científico, las hipótesis son siempre el resultado del encadenamiento de ideas que se

originan en su mente, pues su psiquis ha sido alterada por ideas simples captadas desde cosas

interiores o exteriores. Y como tales cosas no son más que cambios continuos, reflexiona

entonces como producto de tales variaciones, esto altera el pensamiento y produce un nuevo

cambio en sus ideas, reconózcase de esta manera a las hipótesis como un tipo de potencia mental

producto de cambios sucesivos asociados a una infinita sed de cognición.

Para Bunge89

(2004), hipótesis epistemológicamente significa supuesto, o punto de partida de

una argumentación. Afirma que toda hipótesis es corregible a la vista de un nuevo conocimiento,

y cualquier hipótesis va más allá de la evidencia (dato) que intenta explicar… sostiene que las

89

Cap. V. Hipótesis. 5.1.- Significado de las Hipótesis, p. 195 y ss.

Ro

iman

Val

bu

ena:

So

bre

la R

elac

ión

: Raz

on

amie

nto

– H

ipó

tesi

s

Page 98: La investigación científica avanzada primera edición 2015

97

hipótesis científicas más interesantes contiene predicados que no pueden observarse, y no

pueden reducirse a conjunciones o datos… así mismo argumenta que no es posible establecer

hipótesis basadas en una sola experiencia. Pero…y según lo planteado por Bunge, ¿cuánta

experiencia es necesaria para plantear una hipótesis?, el científico puede trazar su hipótesis

cuando todas las posibles relaciones entre los hechos conocidos a través de la experimentación

han sido ampliamente razonados e integrados coherentemente como un solo cuerpo de

conocimientos.

Evidenciando solo una separación profusa entre aquello conocido y lo que se pretende llegar a

conocer. Ciertamente, una sola experiencia para el científico no basta, pero la conciencia en

ocasiones propone una visión un tanto confusa de los procedimientos tecno operativos de la

razón incitándola a plantear hipótesis a priori de la forma si… entonces…, es suficiente con

conocer algún si para proceder con un entonces… Georg Christoph Lichtenberg90

en uno de sus

aforismos describe lo siguiente: Debemos creer que todo tiene una causa, como cuando la araña

teje para capturar moscas. Lo hace sabiendo previamente que existen tales cosas llamadas

moscas.

Se denomina razonamiento hipotético a aquel basado o fundamentado en conjeturas que unen

a una secuencia de hechos sobre la existencia de determinado objeto, o de las causas de

particular fenómeno. No obstante, cuando la relación directa entre tal efecto y su causa no ha

sido verificada, se usa una idea intermedia (conjetura) para establecer nexo plausible, allí se

toma lo pasado y lo presente, circunstancias que han precedido y sucedido al fenómeno, para con

ello intentar esbozar lo que será en un futuro, denomínese a esto último conclusión.

Tal conclusión contendrá sólo explicaciones tremebundas con una gran carga probabilística.

No es sino hasta su demostración, cuando una hipótesis se torna clara, tersa y transparente, pues

ha evaporado toda sombra de duda de ella y ha dado paso al conocimiento de la causa del

fenómeno. Allí desaparecen dos cosas más, toda generalización temeraria previamente adoptada

y la hipótesis misma, dando luz a un teorema que explica y demuestra las sucesivas

consecuencias de tales hechos concatenados. No obstante, y como diría Paulo Coelho; después

que se tengan todas las respuesta, de seguro las preguntan cambiarán.

Las hipótesis son las más importantes herramientas usadas para direccionar una investigación

y se componen de al menos dos partes, una primera denominada Cuerpo Básico de

Conocimientos y otra de nombre Sistema Hipotético. La inicial se corresponde con la colección

de conocimientos previamente adquiridos y probados, la última es la que dará sustanciación a

90

Científico y Escritor Alemán (1742 – 1799).

Ro

iman

Val

bu

ena:

So

bre

la R

elac

ión

: R

azo

nam

ien

to –

Hip

óte

sis

Page 99: La investigación científica avanzada primera edición 2015

98

todas y cada una de las explicaciones y relaciones, es la que lía, concatena y establece juicios, es

la sometida a prueba basada en el cuerpo de conocimientos.

4.1.1.- Las Hipótesis Heurísticas

La heurística consiste en el arte y el método mediante el cual se inicia, sostiene y concluye

una discusión marcada por la polémica, sus partes son los principios, las reglas y las estrategias

donde se busca la verdad a través de un diálogo soportado sobre un índice discursivo que

persigue información. Es una estrategia que permite sistematizar un discurso informal a través de

unas reglas positivas y negativas91

que dibujen en la mente del científico el camino más idóneo

para dar solución a ciertos problemas y estructurar hipótesis bastante plausibles. La heurística

involucra el aprendizaje, el descubrimiento y la resolución de problemas de manera experimental

o aplicando la metodología de ensayo y error.

Heurística es una palabra de origen griego que designa ―Descubrir‖ ―Encontrar‖, como

ciencia consiste en un proceso que estudia toda actividad creadora o innovadora y se avoca sobre

la solución de problemas que comúnmente no pueden ser resueltos por métodos tradicionales. El

pensamiento humano y la connaturalidad científica hacen uso de la heurística, estimulando así

las ideas que puedan ser fructíferas a la ciencia. La heurística permite la apertura de caminos

mediante el uso de teorías construidas antes o después de ciertos procesos, métodos y técnicas

específicas que permitan salvar el abismo de un problema coordinando medios para obtener un

descubrimiento.

Heurística puede considerarse también como algo relativo, ya que sus teorías no son usadas

de manera unívoca por las comunidades científicas, hay teorías heurísticas netamente

axiomatizadas y formales, así como teorías cuyo contenido es puramente conceptual como las de

la investigación social. La heurística está muy relacionada con las hipótesis y las teorías formales

de demostración matemática, en este caso se hacen uso de la lógica formal y la ciencia

deductiva, allí el proceso heurístico reproduce resultados de forma matemática. Contrariamente,

91

Imre Lakatos, discípulo de Popper, Matemático y Filosofo Húngaro, crea los denominados Programas de Investigación Científica como

contraposición al Falsacionismo Poperiano y cuyas bases presentan gran conexión con la teoría Justificacionista. Los programas de investigación de Lakatos consisten en una unidad de análisis epistemológico que persigue enfrentar a dos teorías rivales contra los datos de la experiencia. Allí hace uso de las heurísticas, entendidas como acuerdos metodológicos que orientan al científico sobre los caminos que deben seguirse y los que deben evitarse. En tal método, la heurística positiva direcciona hacia los que han de seguirse y la negativa intenta proteger a lo que Lakatos denomina núcleo firme de la teoría. Al hacer uso de la heurística negativa impide la aplicación de la lógica formal y el Modus Tollens sobre el núcleo firme, haciendo más difícil su refutación. Estos programas de investigación no han sido tan exitosos como se suponía puesto que toda buena teoría ha de ser sometida constantemente a reformulaciones o refutaciones de su contenido, y su núcleo firme debe estar al alcance de todos, si su núcleo firme, o lo que se conoce como primeras hipótesis que derivan en teoremas y obtenidas de axiomas no es accesible, entonces dificulta la aceptación de tal teoría. Nota del Autor: estos Programas de Investigación de Lakatos, difieren grandemente a los planteados en este texto. Se asemejan sólo en su nombre.

Ro

iman

Val

bu

ena:

So

bre

la R

elac

ión

: Raz

on

amie

nto

– H

ipó

tesi

s

Page 100: La investigación científica avanzada primera edición 2015

99

el método heurístico de teoría conceptual desarrolla conjeturas mediante las cuales intenta

reproducir matemáticas y no demostrarla.

La heurística en la teoría conceptual asiente a desarrollar conceptos y refutarlos a través de la

prueba, allí se introduce un tipo de razonamiento que consiente intervenir en el problema sobre

la base de la creatividad. Se razona sobre procesos, se particulariza y generaliza, en perfecta

consonancia con el pensamiento heurístico. En el enfoque de teoría heurística conceptual, sus

científicos aducen que la matemática involucra verdades eternas que formalmente no son

posibles de criticar o refutar, destacando un resultado infalible soportado en la demostración, no

siendo esa la única forma de producir conocimientos.

La forma de programar hipótesis en el enfoque Heurístico se produce de dos maneras,

primeramente; es posible el planteamiento previo basado en conocimientos empíricos, luego se

contrastan, acumulan y examinan datos obtenidos de resultados intermedios. La otra manera de

hacerlo es concebir la hipótesis a mitad o al final del proceso de indagación <<este paso permite

refinar y perfeccionar hipótesis>> Cuando en el proceso de investigación converge un grupo de

científicos con paradigmas diferentes, como es normal, entonces las hipótesis heurísticas se

sincronizan con los procesos de investigación y formulación de teorías de los enfoques mixtos.

Por ejemplo, cuando el diseño es mixto – secuencial, las hipótesis heurísticas avanzan y se

alimentan de las preguntas o procedimientos de una fase dependiente de los eslabones de la

cadena anterior. Es decir, el científico podrá plantear y desarrollar su hipótesis heurística hacia

atrás o hacia adelante del proceso, con dirección del análisis a la síntesis (hacia adelante), o

inversamente desde la síntesis hasta el análisis (hacia atrás)92

.

4.1.2.- Las Hipótesis Inductivas y Deductivas

Contario al razonamiento deductivo y a su forma de generar hipótesis, se dice que una

suposición es de origen inductivo cuando se hace uso de un tipo de inferencia que introduce

incertidumbre y arrastra con ella un error. Una inferencia inductiva incluye cualquier tipo de

aprendizaje de lo particular a lo particular, e insertando en ese proceso, la creación y aceptación

de conceptos del mismo origen. La inducción es muy usada en la dialéctica cotidiana, se ha

hecho costumbre introducir inducciones en el dialogo habitual que carecen de legitimidad. En la

92

Debido al amplio contenido del proceso de investigación heurística, no se aborda con suficiente profundidad el tema en esta edición del

presente texto. Si el lector lo desea, puede profundizar a motu proprio en su contenido en la excelente obra de Clark Moustakas (1990).

Heuristic Research: Design, Methodology and Applications. Publicaciones Sage.

Ro

iman

Val

bu

ena:

So

bre

la R

elac

ión

: Raz

on

amie

nto

– H

ipó

tesi

s

Page 101: La investigación científica avanzada primera edición 2015

100

ciencia, la inducción siempre ha sido una fuente dudosa de obtener conocimiento, pero son

fructíferas en la medida en que son demostradas y probadas por deducción.

Al plantearse hipótesis basadas en inducción93

debe evitarse la circularidad contenida en sus

razonamientos94

, sin embargo, no existen estudios concluyentes acerca de cuánto razonamiento

inductivo y deductivo se da lugar en el cerebro, la mente o la conciencia, lo que lleva a sugerir el

analizar la coherencia entre las ideas antes de plantear ―x‖ o ―y‖ hipótesis. El acto de razonar

consiste en concatenar silogismos, dicho de otra manera, precisar de dos ideas sobre las cuales se

desee inquirir una tercera a posteriori.

Y es esta última, la que realmente permite descubrir la/s relación/es entre las otras dos. Y ello

es imposible sin introducir coherencia, tanto entre la esfera de la mente como en la esfera del

mundo real y material. Debido a que en toda investigación la inducción precede a la deducción, y

que ambas trabajan juntas operando tal maquinaria en la obtención de conocimientos, el

problema realmente no es plantear una de un tipo u otra de otro tipo, la raíz de todo descansa en

cómo conectar ambas en función de su coherencia explicativa, premisas, y postulados.

4.1.3.- Conexión de Hipótesis

Para conectar hipótesis tome en cuenta estas recomendaciones; existen ciertas formas

anómalas de coherencia que se dan lugar en la conciencia, la primera de ellas es la Coherencia

Intrínseca, o aquella que asiste inseparablemente al objeto y consiste en uno de sus atributos

acompañándolo en cada una de sus circunstancias. Puesto que una hipótesis deductiva va de lo

general a lo particular (descendente) y una inductiva95

va de lo particular a lo general

(ascendente), si un científico ―X‖ concibe una hipótesis deductiva ―a‖, y otro científico ―Y‖

genera una segunda hipótesis inductiva ―b‖, y el fenómeno que se desea explicar se presenta en

93

Aprendizaje por Inducción: se le conoce como un tipo particular de proceso donde el sujeto cognoscente adquiere conocimiento cuando es

expuesto a una serie de estímulos, donde percibe sensaciones de los eventos. Tal interacción abre las posibilidades de descubrir patrones causales explicativos, permitiéndole formar juicios en base a eventos previamente observados. No obstante, el juicio deriva en errores y se puede fácilmente caer en la falacia, cuando se pretende generalizar en función de sólo un pequeño número de casos. 94

El razonamiento circular, o razonamiento Pseudocientífico, consiste en un tipo de juicio en el cual se soporta una premisa basada en la

premisa misma y no en la conclusión. Se le conoce también como un tipo de falacia lógica o argumentación retroalimentada. Considérese el siguiente ejemplo: “a” es cierta y válida porque “b” lo es… así mismo… “b” es cierta y válida porque “a” lo es. Es como decir: “Dios es Dios simplemente porque es Dios”. Bo Bennett, escritor del famoso libro: 300 Falacias Lógicas, explica el razonamiento circular de la siguiente manera: todo razonamiento circular introduce una definición circular, ésta consiste en definir un término usando al mismo término dentro de la definición, es como usar el término definición para definir definición, “Definición se define como…”. Por otro lado, preste atención al siguiente ejemplo: “Juan es un genio simplemente porque es inteligente”, donde la palabra inteligente es sinónimo de genio. Al construir hipótesis basadas en inducción este tipo de razonamiento debe evitarse. La Circularidad dentro del razonamiento inductivo consiste en un error del mismo tipo que el de Regresión Infinita. Para una explicación más amplia de Regresión Infinita como forma de razonamiento Refiérase al apartado: El problema de Superponer Inducción y Deducción. En este texto. 95

Hace referencia a una hipótesis inductiva basada en la lógica del mismo tipo y para la cual se ha calculado un coeficiente de probabilidad.

Ro

iman

Val

bu

ena:

So

bre

la R

elac

ión

: Raz

on

amie

nto

– H

ipó

tesi

s

Page 102: La investigación científica avanzada primera edición 2015

101

un sistema amplio y conectado con la naturaleza, entonces debe existir un punto de coincidencia

entre ambas puesto que el atributo que acompaña al objeto o evento ha de estar presente tanto en

―a‖ como en ―b‖. Haciendo posible que tal fenómeno pueda ser abordado por disciplinas

distintas usando para ello las teorías del mecanismo o la teoría de acción.

Se considera anómala en el caso de que ―a‖ creada por ―X‖ y ―b‖ creada por ―Y‖ no coincidan

en sus sentidos ascendente y descendente. Preste atención al siguiente ejemplo: Carlos y Mario

son dos observadores pasivos que acaban de presenciar un accidente automovilístico. Carlos

explica a las autoridades los pasos del accidente desde su inicio hasta la llegada de la

ambulancia, contrariamente, Mario hace lo mismo en sentido inverso. El investigador quedará

satisfecho estableciendo hipótesis del porqué y cómo sucedió el accidente, si y solo si, entre las

declaraciones de Carlos y Mario existen elementos discursivos que involucren y vinculen

coherentemente a todo el conjunto de circunstancias. Si esto no sucede, entonces existe una

forma anómala de coherencia asociada a la percepción, muy común en ciencias. Entendiéndose

percepción como una forma de aprehensión que afecta las realidades mentales de los científicos.

Existe otra forma de coherencia denominada Coherencia Instantánea, allí no importa lo que

suceda, ambos científicos interpretarán lo mismo pues el evento acaecido y que se desea estudiar

se rige por alguna ley natural y universal que lo explica, y de la que es indubitablemente

invariante, este tipo de coherencia da Potencia a la Hipótesis.

Es decir, los supuestos descansan y ascienden desde lo más abstracto hacia lo menos

abstracto, construyendo así una forma de noción simple hasta llevarla a una forma

completamente formada o viceversa. Una tercera forma de coherencia es la denominada:

Correlación Distancia Independiente96

, allí las hipótesis intentan vincular a través de

consecuencias lógicas y concatenando supuestos, las distancias entre las partes más próximas y

más lejanas de un sistema. Donde los vectores de distancias próximas y lejanas son

independientes entre sí. A este tipo de coherencia es muy poco accesible desde el razonamiento

natural de un científico, se presenta comúnmente en investigaciones con razonamiento artificial,

donde el sistema que se estudia exhibe gran cantidad de datos aislados y no correlacionados.

Cuando construya hipótesis razone, argumente y exponga con acierto sus pensamientos,

premisa significa emitir un juicio seguido de otro. Vincule correctamente, vincular significa

establecer consecuencias lógicas entre un conjunto de premisas. Haga ejercicios de meta

96

Muy usadas en los Programas de Investigación Analíticos. Puede ampliarse este tema en el libro de Lazlo Erwin: The Connectivity of

Hypotheses (2003, pp. 49 y ss.).

Ro

iman

Val

bu

ena:

So

bre

la R

elac

ión

: Raz

on

amie

nto

– H

ipó

tesi

s

Page 103: La investigación científica avanzada primera edición 2015

102

razonamiento, es decir, razone sobre su propio razonamiento. Evite la Disonancia Cognitiva97

,

en ciencia es un arma de doble filo. Cuando plantee hipótesis deductivas evite los Entimemas,

consiste en un argumento en el cual una de las premisas no ha sido suficientemente definida o no

existe.

4.1.4.- Hipótesis Abductivas; Razonamiento Abductivo e Hipótesis Diagnósticas

Abducir significa determinar algo basado en una condición previa, proceso inferencial

estrictamente relacionado a la investigación científica. Allí se asume como regla que todo el

conjunto o set de proposiciones adoptadas como precondiciones pueden explicar las

conclusiones obtenidas. Una sentencia del tipo !Está Mojado… Entonces ha llovido¡ es una

abducción, una inferencia basada en el descubrimiento. Según la lógica, a la abducción se le

estima contraria a la deducción. Sin embargo, se diferencia de la inducción ya que esta última

genera hipótesis basadas en observaciones, y para ser ciertas ameritan percepción.

Contrariamente, en la abductiva es necesario determinar la precondición, equivale a una

falacia lógica cuando afirma un consecuente solo porque se tienen varias explicaciones.

Recuérdese que la lógica trata sobre las reglas del cómo pensar… pero por sí misma no penetra

en aquello que ha sido objeto de pensamiento. Además, resulta complejo el intentar tratar las

abducciones desde la teoría lógica de la silogística. La conclusión abductiva ¡Entonces ha

Llovido¡ se genera como consecuencia de un razonamiento lógico basado en la experiencia, no

obstante, en este caso, no existen evidencias de que porque esté mojado halla llovido, otras

causales pudiere haber.

Considérese al razonamiento en general, como un tipo de potencia mental de que ha sido

dotada cada criatura y que le permite ejecutar acciones ulteriores previa comparación de ideas.

Allí el hombre persigue liar lo que expresa mediante el lenguaje y lo que piensa, cuyo resultado

derivará indefectiblemente en un juicio. Según Locke (1999), todo juicio consiste en la

presunción de que las cosas sean de alguna manera determinadas, sin llegar a percibirlo.

Concatena entonces réplicas y ataques sobre aquellos juicios intentando descubrir paradojas e

incoherencias mediante el choque entre proposiciones contrarias y contradictorias, estableciendo

así relaciones de oposición y construyendo de esta manera conocimiento como resultado de una

97

Consiste en una Teoría de la Sicología Social, basada en la premisa de que la gente se muestra más motivada a observar consistencias entre

sus creencias, actitudes y acciones. Es común que un científico encuentre inconsistencias disonantes al plantear determinadas hipótesis, pues sus creencias le llevan a evitar el tratar de eliminar tales inconsistencias. Se recomienda al científico, si una investigación se relaciona directamente con sus creencias, calcule primero el Coeficiente de Razón de Disonancia total antes de exponer sus hipótesis ante un auditorio científico. Véase el Concepto de Disonancia en: Wilson y Keil (1999), The MIT Encyclopedia of Cognitive Science, PP. 223 y ss.

Ro

iman

Val

bu

ena:

So

bre

la R

elac

ión

: Raz

on

amie

nto

– H

ipó

tesi

s

Page 104: La investigación científica avanzada primera edición 2015

103

actividad mental. No obstante, debido a su forma, los razonamientos pueden ser de varios tipos,

y el razonamiento abductivo se identifica con las siguientes características.

En una deducción se obtiene “C” a partir de dos premisas previamente establecidas “A” y

“B”, donde “C” será verdad si ambas premisas también lo son. En la abducción, o razonamiento

abductivo, se intenta explicar “C” a través de “A” o “B” (comúnmente una sola), tomando a

alguna de ellas (A o B) como hipótesis explicativa. Por ejemplo:

En deducción: dados (p כ q), desde p se deduce q.

En Abducción: dados (p כ q), desde q se abduce p.

Para una abducción es necesario que p sea suficiente para explicar q. Ambas son usadas

dentro del proceso científico del razonamiento causal, y donde la abducción también es conocida

como hipótesis diagnóstica.

En deducción: dados (Causa כ Efecto), de las causas se deducen los efectos.

En abducción: dados (Causa כ Efecto), de los efecto se abduce la causa.

En muchos casos una hipótesis abductiva es similar a un entimema, la abducción introduce

conclusiones no seguras pero bastante plausibles y que deben considerarse. Contrariamente,

yerra en el hecho de que no es posible establecer conclusiones basadas en dos premisas que solo

presentan un predicado común, necesaria es una tercera. Es harto conocido que tanto la

inducción como la abducción no son válidos en la ciencia, más, a través de ellas se engendran

hipótesis altamente aceptables que posteriormente pueden ser corroboradas por la deducción.

Es el razonamiento abductivo el que da origen, a través de nexos causales y gran creatividad,

al cuerpo de conocimientos que permitirá formar y posteriormente evaluar hipótesis explicativas.

El lector no ha de olvidar que solo las hipótesis causales contienen la potencia explicativa para la

data efecto, y que ambas han de pertenecer a un segmento del dominio de la teoría. Thagard y

Cameron (1997), explican que en el modelo Konolige´s de abducción, están contenidas dos

definiciones:

Primera: sea L un lenguaje de primer orden. Entonces, una simple teoría causal se compone

de {C, E, Sigma} Donde sigma es una explicación abductiva si:

1.- C, es un conjunto de sentencias de L, y son las causas;

2.- E, es un conjunto de sentencias de L, y son los efectos;

3.- Sigma, es un conjunto de sentencias de L, y pertenecen al dominio de la teoría.

Ro

iman

Val

bu

ena:

So

bre

la R

elac

ión

: Raz

on

amie

nto

– H

ipó

tesi

s

Page 105: La investigación científica avanzada primera edición 2015

104

Segunda98

: sea {C, E, Sigma} una simple teoría causal. Una explicación de un conjunto de

observaciones O del subconjunto E, es un finito conjunto A del subconjunto C, Tal que:

1.- A es consistente con sigma.

2.- Existe una tasa sigma de probabilidad tal que {A \ O}99

(A probablemente concuerde con las

observaciones)

3.- A es subconjunto mínimo sobre aquellos conjuntos que cumplan las 2 primeras condiciones, es decir, no

hay subconjunto propio de A coherente con sigma que implica O.

Las implicaciones lógicas se establecen como pre condiciones para el desarrollo de problemas

abductivos, allí las abducciones pueden derivarse únicamente de creencia para las cuales el

investigador busca explicaciones. Según Atocha (1998), la abducción es un proceso de

razonamiento, cuyo producto son explicaciones con cierta estructura inferencial. El esquema

lógico de la abducción puede verse como una relación entre tres elementos: la observación o

creencia, la explicación abductiva y la teoría de trasfondo.

No existe algún tipo de lógica que permita corroborar la coherencia estricta y racional entre

una verdad del tipo formal y una del tipo material a través de un razonamiento abductivo, pero es

el procedimiento del que se vale el científico para resolver problemas simples y luego estructurar

los complejos, es el método que usa el científico para satisfacer restricciones. La abducción

forma parte del proceso de razonamiento artificial incluido en la redes Bayesianas, es una forma

esquemática de representación del conocimiento, allí se asume como un método para establecer

influencias e inferencias causales entre múltiples variables.

Según la Teoría del Diagnóstico de Reiter100

, un problema diagnóstico puede ser mapeado

dentro de un problema abductivo, al introducir sus hipótesis toman la forma de hipótesis

compuestas, donde la solución para el problema diagnóstico se corresponde con la explicación

para el problema de abducción y viceversa. Allí se establecen vínculos de coherencia entre los

datos y las hipótesis, donde las hipótesis más amplias explican toda la data. Por ejemplo: Palma,

Marín, Sánchez y Palacios (2002, p. 205 y ss.)101

, explican un modelo basado en lógica difusa

para un diagnóstico abductivo aplicado en enfermedades coronarias.

Hi – es el patrón de la hipótesis principal;

IMi – es el conjunto de manifestaciones anormales implicadas por la hipótesis Hi;

IHi – es el conjunto de sub-hipótesis admitidas por Hi, y;

98

Se lee: una explicación de un conjunto de observaciones de los efectos, es un conjunto finito A del subconjunto de las causas. Es decir, las

observaciones se obtienen de los efectos y estos se derivan de un subconjunto de causas no observadas. 99

Vdash, el símbolo de barra invertida dentro de las llaves es muy usado en la lógica de programación para asimilar conocimientos e

interpretar lenguajes. La abducción pertenece a la teoría epistémica de la inteligencia artificial, allí recibe múltiples interpretaciones. 100

Abductive Inference: Computation, Philosophy, Technology. Editado por Jhon y Susan Josephson. 1996. Cambridge University Press. P. 161.

Véase. 101

A Model Based Temporal Abductive Diagnosis Model for an Intensive Coronary Care Unit. Véase.

Ro

iman

Val

bu

ena:

So

bre

la R

elac

ión

: Raz

on

amie

nto

– H

ipó

tesi

s

Page 106: La investigación científica avanzada primera edición 2015

105

Ri = <Li, Xi> es la red temporal restrictiva, donde Li representa al conjunto de duraciones

difusas entre las etiquetas de tiempo definidas en Xi.

Hi representa un diagnóstico que puede explicar las manifestaciones anormales observadas

sin ser inconsistente con las manifestaciones normales también observadas. Y, por ser una

relación causa – efecto, la explicación diagnóstica basada en abducción, debe abarcar del mismo

modo, los intervalos temporales apreciados y medidos entre los eventos. A este proceso se le

denomina Diagnóstico Temporal basado en Abducción.

Según Cooper & Col102

. (2013, p.262 y ss.), el proceso básico para la prueba de hipótesis

diagnósticas basadas en abducción, se corresponde con el ciclo básico de los procesos cognitivos

usados por las redes Bayesianas y es el siguiente:

1. La presentación o conocimiento de los síntomas ha de conducir abductivamente, a una o

más hipótesis.

2. Si sólo una hipótesis es sugerida, entonces esta debe ser presentada como diagnóstico.

3. De otra manera, se selecciona un síntoma con el fin de testear una o más hipótesis, y de

acuerdo a la estrategia previamente establecida.

4. Se revisan las hipótesis según la valencia del aprendizaje de los síntomas seleccionados.

5. Se repite el proceso desde el paso 2, hasta que la conclusión aparezca en forma de una

hipótesis simple, es allí entonces donde el diagnóstico es dado.

102

Modeling High – Level Cognitive Processes. Véase.

Ro

iman

Val

bu

ena:

So

bre

la R

elac

ión

: Raz

on

amie

nto

– H

ipó

tesi

s

Page 107: La investigación científica avanzada primera edición 2015

106

4.2.- Un Pequeño Abordaje de las Inferencias Científicas

e entiende por Inferencia <<extraer una cosa de otra>>, al proceso mental, basado en

sicología cognitiva, mediante el cual, una posibilidad provisional o agente con

significado cognitivo (premisa aceptada), es movida intencionalmente hacia otra

proposición condicional (también aceptada). Allí, el significado cognitivo individual de las

premisas es entonces conectado, reproduciendo de esta manera, una inferencia de razonamiento

pero esquematizada como concepto con significado lingüístico. Se le entiende también como una

operación de la inteligencia donde el ser pensante pasa desde la aprehensión del objeto o dato, a

la consecuencia. Donde se acepta a la premisa sucediente sólo porque la antecedente también lo

fue, tal como lo dicta la ley de la silogística deductiva. A este proceso de conexión de una

primera idea con una segunda se denomina implicación103

. El primer paso como proceso mental

pertenece a la sicología cognitiva, el segundo a la lógica, y esta última condiciona que ambas

premisas han de ser verdaderas.

Desde el punto de vista de la lógica matemática como ciencia formal, una inferencia científica

es también, el procedimiento mediante el cual se parte desde un enunciado verdadero y se

persigue conseguir otro u otros de la misma índole, empleándose para ello una secuencia

denominada cálculo lógico o algoritmo lógico sistemático. El hombre de ciencia aplica la

sicología cognitiva para transformar una situación dada (situación problemática) en otra deseada,

usando para ello ciertos mecanismos de la razón, logrando así resolver un problema. En función

de ello, las inferencias presentan ciertas características:

1) Se usan como forma de construcción de conocimientos alterando iterativamente el

pensamiento;

2) Se constituyen como la estructura paramétrica y procedimental mediante la cual se comparan

103

El condicional de implicación de la lógica proposicional consiste en un símbolo que permite establecer una relación causa – efecto entre dos

enunciado.

S

La lógica se ocupa del lenguaje que el científico ha de utilizar, relaciona al sujeto con su predicado y da

luz a los principios. Allí la mente evalúa proposiciones, produce un orden y establece conclusiones

mediante inferencias. Entonces, el fin de la lógica en la ciencia no es determinar si una inferencia es

verdadera o falsa, sino corroborar que una conclusión sea realmente aceptable como una conclusión

verificando que no ha entrado en el absurdo.

Roiman Valbuena.

Page 108: La investigación científica avanzada primera edición 2015

107

dos juicios o ideas y se discierne sobre ellas, derivándose de esta manera en un desenlace que no

hubiese sido posible sin las relaciones especiales observadas en las premisas aceptadas.

3) Una inferencia es diferente a una conclusión, pues para esta última son necesarias

observaciones repetidas que provean la misma carga informativa.

4) En el proceso inferencial se usan Metareglas <<reglas que aplicables a las reglas>>.

5) El proceso inferencial también incluye el denominado Razonamiento Metanivel, aquel que

involucra al conocimiento de lo que se conoce, adoptando en su accionar, condicionales de

implicación lógica.

En ese mismo sentido, una implicación o condicional de verdad, nunca ha de oponerse a lo

falso, sino a lo absurdo, algo carente de significado y por tanto ni verdadero ni falso. La

implicación en sí no se constituye en garante de la verdad, sino como condición necesaria para

ella. Es la intuición designadora del científico la que permite liar dos ideas primitivas y

transformarlas en una derivada con gran significado, haciendo gala de gran potencia mental

cuando ejecuta el desplazamiento de valores lógicos que admiten separar la verdad del engaño.

No obstante, el asunto no es tan sencillo, la mente ha de estar sobria cuando, al relacionar los

momentos temporales previos a la admisión de la inferencia, se está clara de qué o cuáles

circunstancias han de estar presentes cuando la inferencia se da. Y donde puede llegar a

confundirse la genialidad con la razón. Según John Locke104

(1999), no existe conocimiento sin

discernimiento… pues es la diferencia entre ingenio y juicio la que separa a algunos hombres y

los sitúa por encima de otros:

El ingenio, de manera fundamental, estriba en reunir varias ideas, juntando

rápidamente aquellas en las que se pueda ver alguna semejanza o relación, de manera

que se producen cuadros felices y visiones agradables a la imaginación; por el

contrario, el juicio es totalmente opuesto, desde el momento en que actúa separando

cuidadosamente aquellas ideas entre las que puede encontrar la menor diferencia,

para, de este modo, evitar que por la semejanza se produzca engaño, ya que podría

tomar una cosa por otra debido a su similitud.

El científico jamás ha de confundir a la lógica con la intuición en ciencia, la primera se ocupa

únicamente del lenguaje que el científico ha de utilizar, relaciona al sujeto con su predicado y da

luz a los principios. Allí la mente evalúa proposiciones, produce un orden y establece

conclusiones mediante inferencias. Entonces, el fin de la lógica en la ciencia no es determinar si

una inferencia es verdadera o falsa, sino corroborar que una conclusión sea realmente aceptable

104

Capítulo XI: Acerca del Discernir y otras Operaciones de la Mente. Véase.

Ro

iman

Val

bu

ena:

Un

Peq

ueñ

o A

bo

rdaj

e d

e la

s In

fere

nci

as C

ien

tífi

cas.

Page 109: La investigación científica avanzada primera edición 2015

108

como una conclusión verificando que no ha entrado en el absurdo. No obstante, es la unión

lógica - intuición la que permite obtener descubrimientos sorprendentes. Y, dado que la teoría

perfecta no existe, toda inferencia involucrará por consiguiente, una gran carga probabilística.

4.2.1.- Modelo Stock105

de Clasificación de Inferencias

Aunque no son los únicos tipos de inferencias aplicables y usadas en las ciencias, la siguiente

clasificación presenta una estructura basada en razonamiento deductivo:

4.2.1.1.- Inferencias Inmediatas

Una Inferencia Inmediata se origina de aquel acto mental mediante el cual se deduce una

proposición e inminentemente se introduce en otra, en su accionar no se constituye, o supone, en

lo que propiamente podría llamarse razonamiento. Se entiende también como aquella que no

hace uso de un término medio, es decir, se infiere una proposición de otra proposición simple.

Una inferencia inmediata se tornará valida si y solo si: la consecuencia derivada contiene la

misma carga informativa que la premisa. Y, si en la consecuencia o conclusión, aparece una zona

vacía de conocimiento que también está presente en la premisa.

4.2.1.2.- Inferencia Inmediata Simple por Oposición

De acuerdo a Stock (1888, p. 135), consiste en una inferencia basada en las relaciones entre

proposiciones que comparte los mismos términos, difiriendo ambos en calidad o en cantidad. Elí

de Gortari (1988, Véase Concepto de Inferencia por Oposición), afirma: es la que se ejecuta

basada en una única proposición categórica, universal o particular106

, que funciona como

premisa para obtener una o varias proposiciones categóricas, universales o particulares, como

conclusiones. Es decir, la oposición subyace en el acuerdo o desacuerdo que pueda surgir entre

sus partes, donde ambas proposiciones contienen el mismo sujeto y predicado pero con una

cantidad opuesta.

105

George Stock, Lógica Deductiva. De las Inferencias en General. P. 132 y ss. Véase. 106

Una Proposición categórica es universal cuando contiene el término <<Todos>> y es particular cuando contiene el término <<Algunos>>.

Ejemplo: Todas las aves vuelan… categórica universal. Sólo algunas aves vuelan… Categórica particular. La diferencia entre universal y particular es lo que se dice tiene que ver con la cantidad.

Todos los hombres son infieles

Todos los infieles son hombres Todas las aves vuelan

Todas las que vuelan son aves

Ro

iman

Val

bu

ena:

Un

Peq

ueñ

o A

bo

rdaj

e d

e la

s In

fere

nci

as C

ien

tífi

cas.

Page 110: La investigación científica avanzada primera edición 2015

109

4.2.1.3.- Inferencia Inmediata Simple por Conversión

Una inferencia simple por conversión consiste solo en transponer sus términos, alternando

sujeto con predicado y viceversa, tal como en el ejemplo anterior, al hacerlo, no debe afectarse el

valor de verdad contenido en la premisa original. Allí al antecedente se le conoce como

conversor, y al consecuente como convertido o proposición que ha sufrido la transformación.

Ferrater Mora (2004, Véase concepto de Conversión), argumenta que los lógicos han

admitido 3 modos principales de conversión: a) la simple, donde el sujeto y el predicado

conservan la cantidad o la extensión; b) la conversión donde solo conserva la extensión se

denomina conversión por accidente; c) la conversión por contraposición, en la cual el sujeto y el

predicado se convierten por medio de la anteposición negativa a cada uno de los términos

invertidos. Al no cumplirse esta última condición surgen sofismas, a continuación un ejemplo de

conversión válida: Ningún animal es racional a Ningún ser racional es animal. Obsérvese que se

ha antepuesto el elemento de polaridad negativa <<Ningún>> que es universal, a los términos

invertidos.

Según Ferrater Mora, la siguiente conversión no es válida: Todos los hombres bondadosos

hablan con franqueza… a… Todos los que hablan con franqueza son bondadosos. Allí se

aprecia claramente la introducción de un sofisma. Argumenta subsiguientemente George Stock

(1888, p. 143)… para que se reproduzca una inferencia por conversión han de cumplirse con dos

reglas: 1) no deben aparecer términos distribuidos en el conversor que no hayan sido también

distribuidos en el convertido; 2) la calidad del conversor ha de ser la misma del convertido.

En escritos de Joseph Devey (1854, p. 97), para asegurar con evidencias que la calidad del

juicio ha de ser conservada, y que ningún término del conversor no haya sido distribuido en el

convertido, se presenta el siguiente ejemplo: puesto que ―Todas las Sales son Fundibles‖, no es

posible inferir que ―Todas las Cosas Fundibles son Sal‖. Porque en este caso habría de emplearse

el predicado universal en el conversor y que solo tomó características particulares en el

convertido.

4.2.1.4.- Inferencia Inmediata Simple por Permutación

En lógica y matemáticas se llaman permutaciones de ―n‖ elementos a las distintas

agrupaciones que se pueden formar con estos ―n‖ elementos, de tal forma que una agrupación

difiera de otra solamente por el orden de colocación de sus elementos. Variando así, la

disposición de los elementos dentro de la serie a la cual pertenecen. Para George Stock op, cit, en

lógica, una permutación (Obversión) consiste en un tipo de Inferencia Inmediata donde se

Ro

iman

Val

bu

ena:

Un

Peq

ueñ

o A

bo

rdaj

e d

e la

s In

fere

nci

as C

ien

tífi

cas.

Page 111: La investigación científica avanzada primera edición 2015

110

produce un cambio de calidad107

en una proposición y un cambio del predicado por un término

contradictorio. La permutación admite expresar negativamente todo aquello que ha sido

expresado afirmativamente y viceversa. Por ejemplo:

En las permutaciones a la premisa se le denomina Obvertiente y a la conclusión Obversa,

donde debe existir equivalencia lógica entre proposiciones. La validez de las permutaciones

descansa sobre el principio de tercero excluido según afirma Stock. Donde uno u otro par de

términos contradictorios han de ser aplicables a determinado sujeto, tal que, cuando uno sea

predicado afirmativo, el otro sea negativo y viceversa. Allí la regla es muy sencilla: cambiar la

calidad de la proposición y cambiar el predicado por un término contradictorio.

4.2.1.5.- Inferencia Inmediata Compuesta: Conversión por Negación

Negación. En Rosental –Iudin (2004, Véase Concepto de), expresa el cambio cualitativo de

las cosas. Operación lógica de formar un enunciado partiendo de otro, siendo el primero

verdadero y el segundo falso o viceversa. Para Martínez María (2006, p. 3);

Término que se emplea para clasificar al conjunto de procedimientos gramaticales

usados para llevar a cabo el acto de negar. Se asocia a la expresión de que en una

determinada característica, una relación o el estado de cosas configurado por un

predicado es falso, no existe o es contrario a la realidad. Toda negación se basa en la

existencia previa de una premisa positiva, allí se rechaza, total o parcialmente, el

contenido de la afirmación preexistente.

Para la conversión por negación se usan dos pasos, la permutación y la conversión simple, no

obstante, es posible ejecutarla en uno solo. Ejemplo108

donde se transforma a una proposición

categórica universal positiva en una proposición categórica universal negativa:

(A) Todos los Poetas son Imaginativos

(E) No hay Personas sin Imaginación que no sean Poetas

El término conversión por negación ha sido limitado arbitrariamente al procedimiento

inferencial exacto de permutación seguido por la conversión sencilla. Para lo que no parece

haber, sin embargo, una buena razón ¿por qué el término conversión por negación debe ser por

lo tanto restringida en su significado, en lugar de ser extendida a la combinación de permutación

con conversión, no importa en qué orden los dos procesos se realicen? Si esto no se hace, las

107

Consiste en el carácter afirmativo o negativo de la cópula en cuestión. 108

Existen 4 formas típicas de proposiciones categóricas: A = Universal Afirmativa. E = Universal Negativa. I = Partícula Afirmativa. O = Partícula

Negativa. En este caso, se ha sucedido una permutación y una conversión simple desde la premisa inicial hasta la conclusiva.

Todo A es B No A no B Todos los hombres son obreros

Ningún hombre es no obrero

Ro

iman

Val

bu

ena:

Un

Peq

ueñ

o A

bo

rdaj

e d

e la

s In

fere

nci

as C

ien

tífi

cas.

Page 112: La investigación científica avanzada primera edición 2015

111

inferencias tan legítimas como las que pasan bajo el título de la conversión por la negación se

quedan sin un nombre.

4.2.1.6.- Inferencia Inmediata Compuesta: Conversión por Contraposición

Consiste en la primera de las fórmulas compuestas. Se les entiende como a una combinación

de la Obversión. En su proceder se ejecuta la permutación de los términos sujeto y predicado de

la proposición, anteponiéndoseles allí una partícula negante. Tal conversión sólo es posible

cuando la conversión del término denominado sujeto mantiene la misma extensión que tenía

cuando era predicado. Sobre el tema, Kant argumenta que este tipo de inferencia inmediata

consiste en aquella transposición (metátesis) de los juicios, en la cual sólo permanece la

cantidad. Contrariamente, la casualidad (calidad) se modifica. Por consiguiente, concierne

únicamente a la modalidad de los juicios, por cuanto transforma un juicio asertórico en uno

apodíctico109

.

Kant así mismo sostiene que la regla general: Todos los juicios universales afirmativos se

pueden contraponer Simpliciter <<falacia por accidente>>, puesto que si se niega al predicado

como aquello que contiene al sujeto se niega entonces la totalidad de la esfera, y entonces es

posible negar solo una parte de la misma. En sus estudios sobre lógica, Lombraña (1989, p. 162)

aporta un ejemplo de conversión por contraposición: de Todo Incompetente es Inofensivo, se

sigue… Todo no Inofensivo es no Incompetente. Y de, Algunos Crédulos no son Fieles, se

sigue… Algunos no Fieles no son no Crédulos. Para Stock, la conversión por contraposición

descansa sobre el postulado universal: Lo que es verdadero en una forma, también lo será en

otra forma de palabras que transmitan el mismo significado.

4.2.1.7.- Sobre las Inferencia Mediatas Conjuntivas y Disyuntivas

Una conjunción es aquella clase de palabras o conjunto total de estas que se usa para enlazar

proposiciones. En los discursos se emplea como conector de frases, sentencias o clausulas. Una

disyunción por su lado se usa para deslindar, desunir o separar una frase de otra, usándose para la

elección entre dos opciones <<Es salado o dulce>>. También existen las disyunciones inclusivas,

allí es posible admitir ambas posibilidades simultáneamente <<Carlos es Jefe o es Obrero>>

siendo Carlos encargado de la jefatura de los obrero y al mismo tiempo uno de ello. Dado que el

razonamiento se considera una importante habilidad humana que separa al hombre de ciencia del

hombre común, los modelos teóricos empleados por los científicos se convierten en la principal

herramienta para dar origen a razonamientos inferenciales. En tales, existen al menos dos

109

En lógica, un juicio asertórico es aquel que de cierta manera no excluye de la posibilidad de una contradicción lógica. Contrariamente, un

juicio apodíctico (verdadero) es aquel demostrable y que no admite contradicción.

Ro

iman

Val

bu

ena:

Un

Peq

ueñ

o A

bo

rdaj

e d

e la

s In

fere

nci

as C

ien

tífi

cas.

Page 113: La investigación científica avanzada primera edición 2015

112

claramente diferenciables: los que hacen uso de las teorías formales y los basados en modelos

mentales.

La opción de uso de uno u otro dependerá también de al menos dos factores: la dificultad de

la inferencia y la complejidad de las reglas. En el modelo mental se asume posibilidad de

consistencia cuando hay un vínculo evidente o subyacente inmediato entre las premisas, o en el

caso de presentarse la posibilidad de elección entre ellas…p entonces q; p o q. No obstante, para

evitar un excesivo uso memorístico que pudiese hacerle caer en falacia, el científico generará

inferencias con la menor carga informativa posible, haciendo a este modelo útil para algunos

casos pero no práctico para otros. Si la inferencia presenta complejidad, entonces ha de usar el

modelo legaliforme de la lógica formal, aunque sea más extenso y complejo.

Aristóteles hace referencia a los silogismos o inferencias mediatas en sus Primeros Analíticos,

y hace alusión a la demostración en los Segundos Analíticos, mas, en este aparte del texto, sólo

se abordarán las formas de inferencias mediatas Conjuntivas y Disyuntivas, dejando por fuera

algunas consideraciones de importancia para otros temas pero no de mucho valor para este.

Además, se introducirá en el siguiente aparte un tipo de inferencia Mediata Compleja

denominada Dilema. En cuanto a los silogismos, todos son producto del pensamiento, allí las

premisas son unidas por semejanza y contigüidad, donde la conclusión se sobreviene de la causa

y el efecto. Los 3 axiomas de las Inferencias Mediatas son:

Axioma 1.- Si dos términos convergen con un tercer término, entonces, todos los términos

convergen entre sí. (Axioma de Identidad).

Axioma 2.- Si un término converge y otro no con respecto a un tercer término, entonces, ellos

divergen los unos con los otros.

Axioma 3.- Si dos términos divergen con respecto a un tercer término, entonces, ellos pueden o

no estar de acuerdo los unos con los otros.

El primero de los axiomas se refiere al principio silogístico de los todos afirmativos, el

segundo a los todos negativos. El tercero apunta hacia los casos bajo los cuales no puede llegarse

a ninguna conclusión. Es decir, si existe algún acuerdo entre las dos premisas y la conclusión,

como en los casos previstos en el primer y segundo axioma, entonces existe una conclusión de

algún tipo; si es de otra manera, no existe conclusión posible. Entonces, una proposición

conjuntiva nunca certifica ni niega ninguna de las proposiciones constitutivas de la conclusión o

juicio, solo afirma que hay una relación entre ellas. La diferencia entre una inferencia inmediata

y una mediata circunda a la importancia del término medio. En la lógica aristotélica, la razón

Ro

iman

Val

bu

ena:

Un

Peq

ueñ

o A

bo

rdaj

e d

e la

s In

fere

nci

as C

ien

tífi

cas.

Page 114: La investigación científica avanzada primera edición 2015

113

misma de la conclusión se circunscribe a la radical importancia del término medio, pues, es este

el que lía a las premisas.

Por ejemplo: Todas las Aves Vuelan;

Todos los Murciélagos Vuelan;

Entonces, allí no es posible inferir que un murciélago es un ave y viceversa. Sólo es posible

afirmar que existe una relación. Otro ejemplo:

Todas las Aves ponen Huevos;

Ningún Murciélago pone huevos;

Entonces, es posible inferir con confianza que ningún murciélago es ave. Obsérvese que en el

primer ejemplo ambos términos divergen con respecto al tercero, axioma 2. En el segundo

ejemplo ambas premisas divergen entre sí, pero convergen en la conclusión, axioma 3.

Ro

iman

Val

bu

ena:

Un

Peq

ueñ

o A

bo

rdaj

e d

e la

s In

fere

nci

as C

ien

tífi

cas.

Page 115: La investigación científica avanzada primera edición 2015

114

CONTENIDO DEL CAPÍTULO

5.1.- El Razonamiento Artificial y el Concepto de Investigación Científica Avanzada

5.2.- La Lógica Polivalente: Lógica Trivalente [L3]

5.3.- La Lógica Polivalente: Lógica Difusa

5.3.1.- El Análisis Difuso y la Teoría de las Medidas Difusas

5.4.- La Lógica Polivalente: Lógica Computacional

5.5.- Sobre el Razonamiento Artificial

5.5.1.- El Razonamiento Bayesiano

5.5.2.- Razonamiento Basado en Procesos Markovianos

5.5.3.- Procesos de Decisiones Markovianos

5.5.4.- Teoría Estadística de la Decisión: Procesos de Poisson

La Investigación Científica Avanzada

C

A

P

Í

T

U

L

O

V

El Razonamiento y la Ciencia más allá del ser Humano

Cada investigador importante en este momento, está trabajando en tecnología sobre

Inteligencia Artificial. A partir de ahora es benigno… pero yo diría que no está lejano el

día en el cual, la Inteligencia Artificial aplicada sobre las guerras cibernéticas se

convierta en una amenaza para todos.

Ted Bell.

Page 116: La investigación científica avanzada primera edición 2015

115

5.1.- El Razonamiento Artificial y el Concepto de Investigación Científica Avanzada

e denomina razonamiento artificial, a todo aquel conjunto de mecanismos empleados

para evadir las restricciones propias que el cerebro impone al hombre de ciencia, y cuya

finalidad es hacerse de estrategias que admitan la expansión del pensamiento a través de

la utilización de modelos basados en formas alternativas de argumentación y prueba,

desarrollando de esta manera una representación de conocimientos más avanzados. Razonar

artificialmente implica crear entidades inteligentes capaces de ejecutar razonamientos científicos

más allá de las potencialidades del hombre, logrando liar al cerebro humano con los modelos

lógicos computacionales mejorando su desempeño. Significa plantear en esencia, la capacidad de

aumentar el poder de percepción, de entendimiento, de predicción y manipulación sobre

entidades no biológicas pero con conciencia110

. Extendiendo los alcances de la investigación

científica más allá de la razón111

, de la metodología y del método. Aunque: La ironía máxima de

los sistemas inteligentes sería crear sistemas capaces de cometer errores112

.

Dos elementos motivan la caracterización del cerebro como computador: el más fundamental

asume que la definición de sistema nervioso es netamente representacional. Es decir, los estados

del cerebro representan los estados de algún otro sistema, del mundo exterior y del cuerpo en sí

mismo, donde una transición entre estados puede ser explicada como operaciones

computacionales. El segundo deriva desde el dominio de la teoría matemática que define la

computabilidad como un alto estado con sentido abstracto. Esto último, en relación a que el

cerebro puede ser visto como un dispositivo cuyas entradas y salidas logran ser caracterizadas en

110

La frase <<pero con conciencia>> se usa en un contexto limitado, ya que en el experimento de la habitación china, usado para rebatir el

test de Turing, una máquina ejecuta una acción sin llegar a entender qué hace y porqué, es sencillamente una acción mecánica programada sin capacidad de discernimiento alguno. Simplemente se direcciona sobre la acción pero no discrepa ni razona como facultad que el ser humano sí posee. Compárese este ejemplo con el del Cerebro en una Cubeta <<En este mismo texto aparece: Capítulo sobre Investigación Experimental. Experimentos Mentales>>. 111

Denomínese NOESIS, concepto que aparece en la cita inicial del subcapítulo, a una actividad atribuida enteramente a las acciones del

pensamiento, es un tipo de epifanía e intuición eidética que llevan al científico a oponerse a cualquier percepción sensible. Consiste según

Platón, en uno de los grados más elevados del conocimiento. 112

James H. Fetzer: Artificial Intelligence: It´s Scope and Limits.

S

Cuando la connaturalidad y noesis del científico, usando sus acostumbrados protocolos operacionales de estructuras primigenias, se hacen científicamente estériles. No pudiendo procesar metonimia ni establecer causación. Entonces será necesario embeber los medios de la razón en mecanismos más avanzados de razonamiento, argumentación, demostración y prueba. Es así como se origina la Investigación Científica Avanzada [I.C.A].

Roiman Valbuena.

Page 117: La investigación científica avanzada primera edición 2015

116

términos de funciones matemáticas.

En ese orden, antecedentes neurobiológicos han arrojado datos afirmando que el cerebro se

comporta como una máquina causa – efecto113

. El pensamiento significativo, o pensamiento

productivo <<atribuido ya en los años 40 al sicólogo Max Wertheimer>> junto a las

neurociencias cognitivas, derivan como consecuencia que el cerebro también hace uso de señales

digitales cuyas representaciones son símbolos. Las células cerebrales <<Neuronas>> responden

a señales externas que son asimiladas y entendidas en una secuencia paso a paso igual que un

algoritmo.

Por su lado, a la investigación científica, tal como hoy día se le conoce, debe dejar de

ejecutársele acudiendo únicamente a los mecanismos de la razón y del método, pues allí la

capacidad de discernimiento pierde fuerza cuando se opera con múltiples variables que a su vez

pueden presentar infinidad de estados en intervalos de tiempo extremadamente pequeños. La

ciencia del siglo XXI precisa de resultados que con el método tradicional no se podrán lograr,

donde, nada puede estar tan oculto que no se pueda descubrir.

En ese sentido, nace el Concepto de Investigación Científica Avanzada. Entendiéndosele,

como aquella investigación que parte desde un proyecto científico normal, en el cual se

agregarán conjeturas soportadas en el principio de duda razonable, que no podrán ser modeladas

sino por mecanismos computacionales, y cuyos eslabones cognoscitivos darán luces a

descubrimientos por sí mismos imposibles desde el cerebro humano en su estructura natural. En

este campo se buscan resultados a través del pensamiento productivo, actuando donde el

entendimiento sea angosto o la parálisis intelectual se haga presente.

La Investigación Científica Avanzada ameritará, por su intrincado protocolo de captura de

problemas, de un nuevo hombre de ciencia, aquel que confíe en su intuición pero desconfíe del

método. Pues, en el pasado nunca existió, y en el futuro tampoco podrá existir, un método único

para orientar investigaciones. Habrá entonces que intentarse con varios, eligiendo siempre aquel

que demuestre eliminar más efectivamente las casualidades. La mente del hombre de ciencia ha

estado, está y siempre estará influenciada por ideas y teorías.

Es decir, el científico observa y estudia al fenómeno a través de un vidrio con cierto color,

este apasionamiento hará que toda conclusión involucre al mismo color <<Disonancia

113

Parte del contenido científico de este párrafo, fue extraído y adaptado desde: Concepto <<Computation and The Brain>>, en The MIT

Encyclopedia of Cognitive Sciences. Véase.

Ro

iman

Val

bu

ena:

El R

azo

nam

ien

to A

rtif

icia

l y e

l Co

nce

pto

de

Inve

stig

ació

n C

ien

tífi

ca A

van

zad

a.

Page 118: La investigación científica avanzada primera edición 2015

117

Cognitiva114

>> Aplaudiendo lo agradable y desvirtuando lo desagradable. El razonamiento

artificial hará, por ende, que toda influencia a priori pueda ser tomada por relación y proximidad,

eliminando todo aquel conjunto de datos, que posterior a su análisis, no aporten información.

Una investigación es avanzada, cuando se evidencia descubrimiento a través del usufructo del

pensamiento humano embebido en un algoritmo computacional. Donde el fracaso corrosivo del

modelo tradicional y menguado, sea tan evidente, que amerite el cambio radical de las

estructuras para producir conocimiento. O, cuando la lógica bivalente deja de ser efectiva y se

acude a otros modelos de razonamiento que sobrepasan las capacidades humanas.

Introduciéndose allí, los modelos de la Inteligencia Artificial <<IA>>; las Redes Neuronales; la

Lógica Polivalente; la Lógica Difusa o los Razonamientos Bayesianos.

Por ejemplo, si determinado estudio amerita la observación de una situación donde el estado

de las variables evoluciona con el tiempo115

, entonces se hace necesario un método basado en

intervalos, ninguno mejor que el Método del Razonamiento Temporal. De manera que permita

razonar sobre el presente y el pasado, además de establecer convincente y efectivamente, una

relación de hechos acumulados en un intervalo específico de tiempo. El razonamiento temporal

se utiliza en problemas donde se calculan situaciones probabilitarias, de manera que se obtenga

una técnica para transformar una situación en otra. Allí el científico podrá usar las tres categorías

principales del razonamiento temporal: los Sistemas Algebraicos116

; la Lógica Temporal y la

Lógica de Acción.

114 Conflicto mental que surge al considerar de forma simultánea creencias o actitudes contrapuestas. La cantidad de disonancia depende de la

intensidad relativa de los elementos disonantes. La disonancia puede darse en diversos tipos de estados o procesos psicológicos, aunque el núcleo de la investigación de la teoría de la disonancia cognitiva está formado por el estudio de la disonancia en la elección y la consiguiente justificación y efectos derivados de la elección. La disonancia cognitiva puede estar presente en dos tipos de fenómenos de cierto interés para los filósofos, a saber, el del autoengaño y el de la falta de voluntad. ¿Por qué intentan las personas que se autoengañan creer en algo que, en algún sentido, saben falso? La persona puede recurrir al autoengaño cuando ese conocimiento produce disonancia. ¿Por qué cometen las personas sin voluntad actos que saben equivocados? Se puede llegar a carecer de voluntad cuando la disonancia surge a partir de las consecuencias esperadas por hacer lo que es correcto. Tomado de: Diccionario Akal de Filosofía. (1999). Robert Audi Editor. Disonancia Cognitiva. Concepto de. Véase. 115

En investigaciones donde se estudia la conmutación eléctrica; el comportamiento de las neuronas; o cuando se revisa un sistema integrado

con múltiples condiciones, por lo general la causa y el efecto son contiguos, se hace difícil representar intervalos de tiempo que se

superpongan. Temporal Reasoning. The MIT Encyclopedia of Cognitive Sciences. Véase. 116

Los sistemas algebraicos se concentran en las relaciones entre puntos de tiempo y/o intervalos de tiempo, que se representan por variables

con nombre. Un conjunto de ecuaciones cualitativas o cuantitativas restringen los valores que podrían ser asignado a las variables temporales. Por su lado, la lógica temporal sirve para representar relaciones entre proposiciones a lo largo del tiempo.

Ro

iman

Val

bu

ena:

El R

azo

nam

ien

to A

rtif

icia

l y e

l Co

nce

pto

de

Inve

stig

ació

n C

ien

tífi

ca A

van

zad

a.

Page 119: La investigación científica avanzada primera edición 2015

118

5.2.- La Lógica Polivalente: Lógica Trivalente [L3]

e denomina lógica trivalente, al sistema lógico matemático no determinístico donde los

valores lógicos de sus proposiciones son tres: [Verdadero]; [Indeterminado] y [Falso]

[V: I: F]. suele aparecer también bajo la denominación [1: ½: 0]. Este sistema se opone

al Principio del Tercero Excluso Aristotélico que se enuncia así: <<Cuando existan dos

proposiciones que recíprocamente se nieguen, al menos una de ellas ha de considerarse

necesariamente verdadera, es decir, una tercera no se da>> C.S. Pierce elaboró los primeros

conectivos proposicionales trivalentes hasta ahora conocidos, habiendo descubierto simetrías y

generalizaciones que permitieron a otros investigadores profundizar en el tema. A Jan

Lukasiewicz <<Matemático y Filósofo Polaco>> se le atribuyen trabajos posteriores. El

científico estadounidense Clarence Irwin Lewis117

también aparece como uno de los

desarrolladores de la lógica trivalente.

La Investigación Científica Avanzada en épocas recientes ha tenido que recurrir a los

artilugios de una lógica muy superior a la tradicional, sobre todo, por la cantidad de variables y

relaciones de ellas que amerita. La lógica L3 incluye teorías de la demostración, teorías de

modelos L3, un teorema denominado eliminabilidad de la regla de corte118

[Hauptsatz]. Un

teorema de interpolación y un teorema de consistencia, básicos y necesarios para las

demostraciones. Incluye también un cálculo secuencial S3 – S2 donde su formalismo utiliza

símbolos de juntores y cuantores. La semántica para L3 admite dos subclases de semántica: la de

interpretaciones y las de valoraciones.

Hay una condición axiomática del principio de trivalencia que explicita lo siguiente: [Toda

117

Lewis escribió un libro en 1918 y que fue publicado mucho tiempo después en 1960 denominado: <<A Survey of Simbolic Logic>> En su

Capítulo I: Sección VII: p.107. Apartado dedicado a Pierce. Aparecen los primeros vestigios de una lógica diferente a la bivalente en manuscritos de Robert Grassmann, con cálculos notablemente diferentes al tradicional cálculo Booleano. Pierce básicamente operacionalizó el cálculo de sentencias equivalentes o razonamiento simbólico y los complementó con las descripciones de Hugh MacColl´s en su libro: <<Simbolic Logic and It´s Applications>> 1878-80. Donde aparecían 4 tipos de enunciados: [Verdadero]; [Falso]; [Cierto]; [Imposible] y [Variable], este último con las opciones (no cierto y no imposible) que posteriormente Pierce desarrolló. 118

Este teorema es similar al planteado por Godel en su lógica aproximada ahora denominado Teorema de Incompletud de Godel, donde se

afirma que en un sistema axiomático cualquiera, hay proposiciones que son indecidibles. Véase El Método Axiomático o Método Demostrativo

en este mismo texto. Para Hauptsatz consiste más en un método de prueba o teoría de prueba y demostración.

S

Un comportamiento emergente es aquel que no se puede predecir a través del análisis en cualquier nivel más simple que del sistema en su conjunto... el comportamiento emergente, por definición, es lo que

queda después de que todo lo demás ha sido explicado.

George B. Dyson "Darwin among the Machines: The Evolution of Global Intelligence,"[p. 9, 1997]

Page 120: La investigación científica avanzada primera edición 2015

119

fórmula tiene un valor de verdad en el conjunto V; I; F;] una fórmula es verdadera o falsa según

el n-tuplo designado en la descripción que en ellas aparecen, y pertenezcan al dominio positivo o

negativo del predicado. Sin embargo, en el mismo sentido clásico, amerita interpretación al ser

indeterminado y muy comúnmente, podrán observarse comportamientos emergentes en los

sistemas bajo estudio. Esto último, no habría sido posible sin la aplicación de un nuevo método

de indagación. Es decir, la perturbación de un sistema produce innovación.

Algún nuevo resultado podrá ser indeterminado para la lógica y la metalógica en L3, pero con

gran significado tanto para la semántica del científico como para la del sistema. La lógica L3

asume gran cantidad de justificaciones por inducciones, tal cual se ejecuta en cualquier

experimento científico. Pero que por ello, al igual que en la experimentación, sólo pertenecen a

un razonamiento temporal que posteriormente es operacionalizado por la teoría de la

demostración. Básicamente, la lógica L3 trata de esquematizar un árbol de fórmulas ―F‖ a partir

de un conjunto finito ―M‖ de supuestos, allí las fórmulas son duales y parten todas de ―F‖, y cada

sucesor de ―M‖ es una conclusión de una premisa anterior tal como sucede con el razonamiento

teoremático en el método axiomático o método demostrativo.

No obstante, por el principio de trivalencia surgen tres opciones: [1: ½: 0] [V: I: F]; o

fórmula para el conjunto finito ―M‖ de supuestos donde una deducción [B3]119

para ―F‖ a partir

del conjunto ―M‖ es un árbol cerrado. Es decir, un árbol tal que para cada una de sus ramas [R],

hay al menos una fórmula [G] que pertenece a ―F‖ a partir del subconjunto finito ―M‖. La lógica

trivalente está siendo manejada ampliamente en sistemas donde existe presuposición,

condicionalidad e imprecisión.

Las empresas de telecomunicaciones la utilizan sobre el diseño de diagramas lógicos para

redes de telecomunicaciones complejas que ameritan control en la automatización de procesos de

flujos de datos con tráfico denso. Barbat120

(2007), describe un mecanismo de software para

hacer frente a la amenaza de la indecibilidad <<o tercer término de la lógica L3>> llamado

DOMINO. [Desision Oriented Mechanism for ―IF‖ as a Non Deterministic Operator]. Muy

eficiente cuando actúa sobre las opciones de indecibilidad derivadas de cualquier tipo de futuro

contingente.

119

Conjunto infinito de descripciones que no aparecen en “M”. B = conjunto de fórmulas que satisfacen ciertas condiciones en el conjunto [V:

I: F]. puede encontrase más información sobre el operador B3, o la condición de operación B3 en Blau (1980): Three Valued Analysis of Precise, Vague, and Pressupposing Quantifiers. 120

Barbat, Boldour (2007). DOMINO: Trivalente Logic Semantic in Bivalente Syntax Clothes. Publicado en: International Journal of Computers,

Communications and Control. Vol. II. N.4. pp. 303 – 313. Véase.

Ro

iman

Val

bu

ena:

La

Lógi

ca P

oliv

alen

te: L

ógi

ca T

riva

len

te [

L3].

Page 121: La investigación científica avanzada primera edición 2015

120

5.3.- La Lógica Polivalente: Lógica Difusa

e entiende por Lógica Difusa [LD], al conjunto de conceptos, construcciones y técnicas

que se refieren a modos de razonamiento que son aproximados y no exactos. El

razonamiento humano es, por naturaleza, de este tipo121

. Fundamentalmente, la lógica

difusa consiste en una generalización de la lógica bivalente tradicional y descansa sobre sus

mismos principios matemáticos. La lógica polivalente <<donde la lógica difusa es sólo uno de

sus modelos>> en épocas recientes ha sido abordada desde los campos de la filosofía y la lógica

matemática. Aristóteles en su tiempo ya dudaba de las mismas leyes de bivalencia, sobre todo,

cuando las proposiciones hacen referencia a hechos futuros no acaecidos o indeterminados. La

LD analiza conceptos formales con atributos difusos <<denomínese difuso a todo aquello

impreciso, indeterminado o poco claro>>.

La LD descansa sobre la Teoría de Medidas Difusas, en principio, la teorización clásica,

basada en la métrica y la geometría, asignó números a longitudes, áreas y volúmenes. Este

proceso consistía en una simple comparación de la medida de un elemento con su unidad

estándar. No obstante, aparece entonces el problema de la Inconmensurabilidad122

, el cual

reveló que medir era más complicado de lo que realmente parecía. Con el rápido avance del

análisis matemático aplicado a la ciencia y a la tecnología, una ruptura paradigmática se

sobrevino en consecuencia, Revolución Científica según Thomas Kuhn y Paul Feyerabend.

Entonces, nuevos métodos de medición fue necesario investigar basados también en la

acostumbrada teoría de conjuntos.

Suponga todo el conjunto de números reales entre O y 1 <<Tradicionales de la lógica

121

Concepto tomado de: MIT: Encyclopedia of the Cognitive Sciences. Véase Fuzzy Logic. Pp. 335. 122

Cuando una teoría científica o tradición es reemplazada por otra en una revolución científica, los conceptos envueltos normalmente

cambian de manera radical. Por ejemplo: obsérvese las diferencias entre el concepto de masa, en la mecánica Newtoniana y en la Mecánica Relativista. En la primera la masa es independiente de su velocidad; en la segunda la masa se incrementa conforme se acerca a la velocidad de la luz. Inconmensurabilidad concepto de: Routledge Encyclopedia of Philosophy, Véase. Inconmensurabilidad: todo aquel asunto relativo, y que enmarcado en una teoría, presenta anomalías, indeterminabilidad y contradicciones, que conllevan a su resolución con cambios precipitados enmarcados en una nueva teoría. También hace referencia a ciertos casos matemáticos donde la medición se torna imposible.

S

El cerebro humano funciona como un ordenador binario que sólo puede analizar exactamente los ceros y unos (o blanco y negro) basados en la información. Nuestro corazón es más como un equipo químico que utiliza la lógica difusa para analizar la información que no puede ser fácilmente definida en ceros y unos.

Naveen Jain.

Page 122: La investigación científica avanzada primera edición 2015

121

bivalente>>. Cuando se remueven los bordes ¿Qué queda?, ⌊

⌋… ¿Cuál es la

medida que realmente se obtiene al eliminar los límites? No importa la respuesta, esto va más

allá del método clásico de la teoría de la medición. A raíz de ello aparece la Teoría de los

Modelos Difusos, básicamente, una teoría para conceptos graduados, en la cual todo es materia

de grados, es decir, y desde un punto de vista objetivo, una teoría basada en conceptos

lingüísticos donde todo es elástico y lingüísticamente manejable a través de proposiciones y

etiquetas.

Por ejemplo, en la proposición: [Carla es Bonita], existen conflictos entre atributos difusos,

pudiendo ser vista como una restricción difusa entre la variable implícita ―Belleza‖ <<de

Carla>>, contra la misma variable explícita. Pues, habría que definir ―Belleza‖, en términos de

medidas exactas con dominios positivos y negativos del predicado para establecer una relación

un poco más clara, pero todavía numéricamente imprecisa. Caso contrario, como de hecho lo es,

se crea una relación indeterminada. Cuando existen restricciones entre variables implícitas y

explicitas, definidas en el conjunto restrictivo de variables, se denominan restricciones

concomitantes. La LD conforma un sistema lógico impreciso, en donde cualquier valor de

verdad pertenece a un subconjunto difuso medible en un intervalo dado.

Allí, cada unidad ha de corresponderse con una etiqueta de proximidad lingüística:

Verdadero; Falso; No Verdadero; Muy Verdadero; Bastante Verdadero; No Muy Verdadero y

No Muy Falso123

. En una tabla de verdad difusa, o tabla de verdades imprecisas, existen al

menos dos reglas de inferencia difusa: (i): La Regla de la Inexactitud; (ii): La Regla donde todo

depende de aquel significado previamente asociado a la verdad primaria, y definida por

aproximación lingüística al uso de los modificadores: Mucho; Bastante; Más o Menos, entre

otros. Cuando la inferencia es del tipo inexacta, se estiran los valores hasta su etiqueta más

cercana definida como cuantor.

En este caso, el razonamiento aproximado o difuso se constituye como un proceso de

asignación de ecuaciones relacionales que arroja una solución aproximada a un sistema124

. Para

que tal sistema sea difuso, sus premisas también han de serlo. A Continuación un ejemplo de

Zadeh Op.cit:

123

Para el investigador novato, esta clasificación podrá confundirse con un escalamiento tipo Likert. Aclaratoria del autor: en mi opinión, valga

lo que valga, el escalamiento Likert debe ser usado con sumo cuidado <<Véase el Apartado: Encuesta Versus Experimento: “La Falibilidad de las Escalas de Likert. Cap. X” en este mismo texto>> en el escalamiento Likert se miden, o al menos eso se pretende, sentires al azar (Ni siquiera aleatorios) que dependen del contexto y disposición del encuestado. Contrariamente, la lógica difusa mide estados indeterminados de sistemas físicos asociados a funciones matemáticas previamente definidas en un conjunto de opciones difusas pero que pertenecen al dominio positivo o negativo de un predicado también definido con antelación, y en base a ello, toman decisiones. Si bien es cierto, las escalas Likert operan bajo la teoría de acción razonada, la lógica difusa lo hace bajo un esquema muy parecido pero mejor argumentado, denominado, razonamiento aproximado y análisis difuso. 124

Gran parte del contenido de esta sección fue extraído de: Zadeh, L.A. Fuzzy Logic and Approximate Reasoning. Aparece en: Synthese (1975,

del mismo Autor). Volumen 30. Pps. 407 – 428. Véase.

Ro

iman

Val

bu

ena:

La

Lógi

ca P

oliv

alen

te: L

ógi

ca D

ifu

sa.

Page 123: La investigación científica avanzada primera edición 2015

122

Premisa Mayor Difusa: La Mayoría de los Hombres son Vanidosos

Premisa Menor no Difusa: Sócrates es un Hombre

Conclusión Difusa: Es Muy Probable que Sócrates sea Vanidoso

Las palabras señaladas en cursiva son etiquetas definidas dentro del conjunto difuso. Ahora

bien, obsérvese que la premisa menor no contiene etiquetas. No obstante, basta con que la

premisa mayor sea etiquetada para que la conclusión haga uso de alguna otra etiqueta definida

para el conjunto. Véase este otro ejemplo de Zadeh:

Premisa Mayor: “x” es pequeño

Premisa Menor: “x” y “y” son aproximadamente iguales

Conclusión: entonces: “y” es más o menos pequeño

Las conclusiones de enunciados difusos están enmarcadas dentro de las teorías de la

posibilidad y la probabilidad. La LD involucra a su vez a dos conceptos de suma importancia,

Fuzziness (Borrosidad); fuzzification; y Granularidad o Granulación. La borrosidad se refiere a

las clases, es decir, sus límites allí no están claramente definidos. En la lógica de clases

aristotélica es donde se agrupan los elementos dentro de una misma categoría, lo que permite

identificar y agrupar a cada miembro con otro/s sólo porque presentan características comunes.

Toda clase es abstracta y por ello pertenece a la teoría de conjuntos, es el predicado quien

indica y describe las propiedades del sujeto insertándolo en su respectiva clase. Fuzzification,

hace referencia a la sustitución de un conjunto clásico y bien definido con límites claros, hacia

un conjunto donde los límites son difusos para poder aplicar la teoría de los modelos difusos.

Por ejemplo: extraer el número 7 de un conjunto bien definido hacia el conjunto donde se

represente [aproximadamente igual a 7: ≈ 7].

Para Zadeh, son 3 los conceptos que rigen la cognición humana y que están clasificados

dentro de la lógica difusa: la granulación; la organización y la causación. La granulación

equivale al análisis, donde se descompone el todo en sus partes. Esta es por naturaleza

jerárquica, para la lógica difusa cada gránulo se corresponde con un dato de información. La

granularidad se refiere al agrupamiento de estructuras, mientras que la granulación se refiere a la

partición de un objeto dentro de un conjunto de gránulos. Con cada gránulo conformando un

grupo de objetos elaborados por indistinguibilidad, similaridad, proximidad o funcionalidad. La

organización por su lado, apunta hacia la integración de cada parte en un todo [Método de la

Síntesis], y la causación representa la asociación de cada efecto con su respectiva causa.

Ro

iman

Val

bu

ena:

La

Lógi

ca P

oliv

alen

te: L

ógi

ca D

ifu

sa.

Page 124: La investigación científica avanzada primera edición 2015

123

5.3.1.- El Análisis Difuso y la Teoría de las Medidas Difusas

Antes de explicar el proceso de análisis difuso es necesario conocer que son y cómo operan las

funciones y los conjuntos difusos. Una función difusa es equivalente a una función matemática

donde se afirma que determinada cantidad ―y‖ es una función de otra cualquiera ―x‖, si y solo si,

el valor de ―y‖ viene determinado por el valor de ―x‖ ( ) Donde ―x‖ adquirirá la

denominación de variable independiente y ―y‖ la de variable dependiente. Además, toda función

matemática abarca un conjunto de números en los cuales puede operar, es decir, la cantidad de

asignaciones numéricas asignables a la variable independiente, llámese a ello ―dominio‖. El

rango será aquel que la función asocia con los números en el dominio.

No obstante, las funciones difusas presentan ciertas características diferenciables. Allí son

concebibles diferentes grados de ―Fuzzification‖ (Clases con límites no definidos) bajo las

siguientes condiciones125

:

1. Podrá existir un Crisp Mapping126

desde un conjunto difuso del dominio que genere otro

conjunto difuso. La imagen resultante podrá volver a ser mapeada o muestreada.

2. El mapeo o muestreo por sí mismo podrá ser difuso, difuminando la imagen obtenida en

un primer argumento Crisp. Esto permitirá crear una función difusa, denomínese a este

proceso ―Fuzzyfiying Functions‖ o Fuzzificación de funciones. Estos dos primeros pasos

son los que permiten crear funciones difusas: Dubois y Prade (1980ª. P. 106)127

3. Cualquier función de la matemática ordinaria: logarítmicas, exponenciales, cuadráticas,

cubicas etc. Podrá contener propiedades difusas o ser restringidas por operadores de

restricción difusos.

Préstese atención al siguiente ejemplo planteado desde Zimmermann pero adaptado al caso:

- Sea ―X‖ un conjunto de temperaturas, ―Y‖ la posible demanda de energía de los hogares.

Donde ―X‖ claramente representa a la variable independiente, se crea entonces la

función: ( ) Observe ahora el proceso de Fuzzificación de funciones.

Denomínese ―A‖ al conjunto difuso de ―Temperaturas Bajas‖, y ―B‖ al conjunto difuso

―Alta Demanda de Energía‖. Al asignar ―Temperaturas Bajas‖ ―Alta Demanda de

Energía‖ se obtiene una función difusa, donde la restricción condicional podrá ser la

125

Extraído y adaptado desde: Zimmermann, H. (2001). Fuzzy Set Theory: and It´s Applications. Cuarta Edición. Kluwer Academic Publishers.

Cap. 7 Fuzzy Analyses. P. 93: Véase. 126

Una relación Crisp representa la presencia o ausencia de asociación o interconexión, o la asignación de grados de fuerza de asociación entre

dos o más elementos dentro de un conjunto. El término no tiene referente de traducción al español y tampoco es recomendable traducirlo por ser un término técnico. Crisp Mapping significa emprender una búsqueda de relación o asociación entre dos o más elementos de un conjunto difuso para crear una función definiendo en grados la posición de cada uno de sus miembros. Jerarquizando. 127

Esta referencia aparece en Zimmermann op. Cit.

Ro

iman

Val

bu

ena:

La

Lógi

ca P

oliv

alen

te: L

ógi

ca D

ifu

sa.

Page 125: La investigación científica avanzada primera edición 2015

124

correlación negativa: ―A menor Temperatura Mayor Demanda de Energía‖

( )

Para que realmente exista una relación difusa, ha de haberse ejecutado el Crisp Mapping de

asociación, lo que previamente se hizo. Posteriormente, la asignación de grados de fuerza de

asociación por similaridad, proximidad o funcionalidad. Asignando al mismo tiempo, etiquetas

lingüísticas difusas y elásticas (Granulación, al asignar jerarquías se está granulando): Muy Bajo

– Medianamente Bajo – Moderadamente Bajo – Extremadamente Bajo – <<Luego>> – Muy

Alto – Medianamente Alto – Moderadamente Alto – Extremadamente Alto… es decir, límites

difusos con valores medibles (Teoría de Medidas Difusas) dentro del intervalo difuso. Donde

cada etiqueta representa a un concepto graduado y elástico ajustable a la escala. Además, se crea

un subconjunto de funciones para cada cuantificador denominadas ecuaciones relacionales. Esto

hace que una operación basada en sistemas difusos sea manejable a través de gráficas.

En todo conjunto difuso existe un nivel de incertidumbre o entropía difusa, para Kosso

(1992), esta medida varía entre 0 y 1 sobre el hipercubo . Donde la entropía aumenta

a medida que el conjunto difuso se desplaza hacia el centro del cubo. El análisis de datos en LD

implica determinar la respuesta a la pregunta de investigación e involucra la división del

procedimiento en cuatro pasos ascendentes en el nivel de complejidad128

. En el nivel 1 se

ejecuta un simple análisis de frecuencias, allí se evalúan los datos confiables y el resto son

marcados para su eliminación. En el segundo nivel, se lleva a cabo un reconocimiento de

patrones, agrupando (granulando) los datos según cada caso y dándoles una estructura formal.

Estos dos primeros niveles se corresponden con el área de análisis exploratorio, sin elegir

todavía, algún modelo matemático de comparación o prueba. Es en el tercer nivel, donde la data

examinada se hace corresponder con algún modelo matemático. Si la investigación es

cuantitativa, se aplica análisis de regresión para establecer relaciones por aproximaciones. Caso

contrario, si la investigación es cualitativa, este proceso se lleva a cabo en el segundo nivel,

donde los gránulos son agrupados por similaridad conceptual. El cuarto nivel se corresponde con

la evaluación y conclusiones de la investigación. Existe un procedimiento alternativo

denominado Análisis de Clusters Difusos, en él se particiona un conjunto dado en pequeños

clusters llamados: subconjuntos, grupos o clases. Bajo condiciones de homogeneidad dentro del

clúster o heterogeneidad con otro.

128

Puede encontrarse más información sobre los procedimientos de análisis difuso en: Hoopner, Frank (1999). Fuzzy Cluster Analysis: Methods

for Classification, Data Analysis and Image Recognition. John Wiley & Sons.

Ro

iman

Val

bu

ena:

La

Lógi

ca P

oliv

alen

te: L

ógi

ca D

ifu

sa.

Page 126: La investigación científica avanzada primera edición 2015

125

En conclusión, la teoría de los modelos difusos no debe considerarse como piedra de tranca

para los investigadores, realmente viene a representar un nuevo método de análisis a nuevos

problemas donde subyacen elementos inconmensurables, sobre todo, en tecnología. La lógica

difusa, como parte de los modelos lógicos polivalentes, y uno de los pilares de la Investigación

Científica Avanzada, permite añadir certeza a la incertidumbre. Hasta ahora, el potencial de la

teoría de los modelos difusos permanece aún oculto. Sin embargo, áreas emergentes como: la

bio-informática; la bio-ingeniería; los sistemas expertos y las web-tecnológicas, que manejan

grandes cantidades de datos, están ofreciendo oportunidades aun no explotadas a nuevos

investigadores.

Ro

iman

Val

bu

ena:

La

Lógi

ca P

oliv

alen

te: L

ógi

ca D

ifu

sa.

Page 127: La investigación científica avanzada primera edición 2015

126

5.4.- La Lógica Polivalente: Lógica Computacional

e entiende por Lógica Computacional, a todo aquel proceso que intenta aplicar la lógica

matemática, tal cual se le conoce, sobre sistemas computacionales. Consiste en la

caracterización del universo del discurso implícito en la lógica o algún lenguaje de

programación hacia una lingüística computacional. Trata en esencia, la programación de

computadores que muestren niveles de inteligencia similares a los de los humanos, allí la lógica

permitirá entender el cómo opera la razón. La lógica computacional forma parte de los

desarrollos de la Inteligencia Artificial, usa los mismos principios de la lógica simbólica creada a

mitad del siglo XX, y su algebra manipula símbolos para resolver problemas. Se desarrolla por

los intentos de crear un lenguaje común entre humanos y computadoras.

La Inteligencia Artificial a través de la Lógica Computacional ha tratado, en época reciente, el

desarrollo en masa de artefactos que ayuden al humano a aprender, básicamente objetos físicos

productos de la tecnología, hechos con el propósito de ayudar a mejorar la capacidad de

cognición. No obstante, estos artefactos cumplen una función dual, enseñan y aprenden,

observan patrones de niveles de inteligencia humana y simplemente los transforman en un

proceso computacional primitivo. Este modelo realiza un proceso cognitivo específico, una tarea

o clase de tareas que reproducen un comportamiento que constituye

un conjunto de predicciones que se pueden comparar con los datos de la actuación humana.

Dominios de tareas que han recibido considerable atención incluyen la resolución de problemas,

la comprensión del lenguaje, las tareas de memoria, y la interacción persona-dispositivo129

.

Según Robert Kowalski130

, existe una relación estrecha entre la lógica y el pensamiento

humano, pues, la lógica, en todas sus variedades, trata de formalizar las leyes del pensamiento.

129

Para más información sobre los Modelos Cognitivos que usan la Lógica Simbólica Véase: Cognitive Modeling, Symbolic. En: MIT

Encyclopedia of Cognitive Sciences. 130

Científico Lógico y de las Ciencias de la Computación. Imperial College de Londres.

S

El más extenso cálculo computacional conocido, se ha llevado a cabo durante los últimos mil millones de

años, y ha tomado en cuenta a la población de todo el planeta… este ha sido el cálculo de la evolución de

la vida. El poder de este cálculo se ilustra por la complejidad y belleza de su coronación: El Cerebro

Humano.

David Rogers.

En Gary William Flake, The Computational Beauty of Nature (2000), 415.

Page 128: La investigación científica avanzada primera edición 2015

127

Para el autor, la Lógica Computacional funciona principalmente como lenguaje del pensamiento

de un agente inteligente de la Inteligencia Artificial. Su gramática determina la forma de los

pensamientos del agente. Su semántica, el contenido o significado de estos pensamientos. Y por

último, un motor de inferencias o procedimiento de prueba, que genera, deriva o infiere nuevos

pensamientos como consecuencia de los existentes.

La lógica computacional es una rama amplia e interdisciplinaria cuyas raíces se encuentran en

la Inteligencia Artificial <<IA>>, las ciencias computacionales y las matemáticas. Su campo se

extiende tanto hacia los fundamentos teóricos como prácticos para el desarrollo de herramientas

y procesos automatizados. Para poder entender el cómo opera la lógica computacional, es

necesario entender también, los diversos tipos de razonamiento de la cognición humana: los

razonamientos analógicos, por inducción, por deducción y por abducción.

De allí se derivan los motores de inferencia basados en gramática y los razonamientos

artificiales basados en evidencias. La lógica computacional también hace uso del denominado

Modus Ponens, o razonamiento hacia adelante, donde se derivan conclusiones de simples

condiciones iniciales. Y el razonamiento hacia atrás, proceso inverso donde planteada una

conclusión se derivan cierta cantidad de condiciones.

La lógica computacional hace uso extensivo de las neurociencias computacionales, cuyo fin

es el de explicar, basado en términos computacionales, cómo el cerebro genera comportamientos.

Ciertos modelos computacionales del cerebro exploran el cómo las poblaciones altamente

interconectadas de neuronas son formadas durante el desarrollo, y el cómo estas representan

procesos, almacenan, actúan y son alteradas por informaciones externas de su ambiente. Allí, la

Teoría Computacional de la Mente, sostiene que la mente es un simple dispositivo

computacional digital, almacena representaciones simbólicas y las manipula de acuerdo a ciertas

reglas sintácticas que son expresadas en el lenguaje del pensamiento131

.

En fin, la lógica computacional es un campo de investigación amplio y diverso en la

Investigación Científica Avanzada, los centros de investigación que más desarrollo han

presentado recientemente son: [ECCAI] European Committee for Artificial Inteligence;

[CoLogNet] European Net of Excellence on Computational Logic, entre otros.

131

Neurociencias Computacionales; Teoría Computacional de la Mente; MIT Encyclopedia of Cognitive Sciences. Concepto de: Véase.

Ro

iman

Val

bu

ena:

La

Lógi

ca P

oliv

alen

te: L

ógi

ca C

om

pu

taci

on

al.

Page 129: La investigación científica avanzada primera edición 2015

128

5.5.- Sobre el Razonamiento Artificial

in duda, el conocimiento ha de estratificarse según la ciencia que se estudie, en las

ciencias naturales suele ser del tipo determinístico, pues éste está delimitado por leyes

que rigen a los fenómenos. Los eventos pueden sucederse o no, similar a una

distribución binomial en estadística. No acontece así en las ciencias humanas, es decir, el

conocimiento es netamente probabilístico, pues actúa sobre él una gran carga de incertidumbre.

Se le conoce como conocimiento incompleto e imperfecto, amerita exploración, diagnóstico y

ciertas reglas para su interpretación. A estas últimas, deben aplicárseles una serie de procesos

matemáticos que admitan un manejo claro de la incertidumbre que de allí se deriva.

Si bien es cierto, existen férreos defensores de la absoluta certeza en cuanto al conocimiento

científico, debe hacerse justa distinción entre el conocimiento demostrable y el conocimiento

probable. El primero no amerita discusión. El segundo debe aceptarse como hipótesis con grados

de plausibilidad, es decir, será la teoría de la probabilidad la que aportará y preservará la

integridad de las hipótesis imaginarias que serán admitidas como razonamiento probable de un

agente inteligente. Un razonamiento probable concibe conclusiones que admiten cierto grado de

certidumbre, así como uno que otro grado de probabilidad. El método de la ciencia permite un

razonamiento probable siempre y cuando se estudie bajo qué condiciones este se acepta. En ese

sentido, se presenta a continuación una serie de métodos de razonamiento que brindan un

enfoque probabilístico de una inferencia.

5.5.1.- El Razonamiento Bayesiano

Para Rudolf Carnap132

, el método científico consiste básicamente en un Razonamiento

Bayesiano. Se denomina razonamiento bayesiano al proceso estadístico mediante el cual, basado

132

Rudolf Carnap: Scientific Method as Bayesian Reasoning. Aparece en: Barry Gower, Scientific Method: An Historical and Philosophical

Introduction. P. 212 y ss.

S

La Inteligencia Artificial [I.A] alcanzará niveles humanos en torno al 2029. A más tardar, digamos, en 2045,

habremos multiplicado la inteligencia de la máquina biológica humana de nuestra civilización, al menos

mil millones de veces.

Ray Kurzweil.

Page 130: La investigación científica avanzada primera edición 2015

129

en observaciones o cierta clase de evidencias, el método de Bayes permite inferir la probabilidad

de que determinada hipótesis resulte verdadera o falsa. Se trata de un enfoque en el que se

modifica una distribución previa a la luz de los resultados de un experimento. Allí, se establece

como medida de certeza de una hipótesis, una magnitud de probabilidad. En el razonamiento

aproximado Bayesiano, se llaman probabilidades subjetivas, a las probabilidades que describen

el grado de conocimiento o ignorancia de ciertas entidades no variables. Se determinan en base a

la intuición o a la experiencia previa e independiente de cualesquiera observaciones actuales o

futuras.

Los métodos Bayesianos se basan en distribuciones, donde, al igual que los tipos de

conocimiento, se opera con distribuciones A Priori y A Posteriori. Es bueno recalcar que los

conocimientos A Priori son puros y están libres de toda experiencia, los A Posteriori son

aquellos derivados netamente de la experiencia. En el cerebro humano, la razón y la lógica están

atadas, este encadenamiento produce conocimiento, entrelaza nociones y ocasiona reciprocidad

de acciones, y es éste último paso el que completa una acción conductual consecuencia del Ratio

Cognoscenti o fundamento del conocimiento. El aprendizaje Bayesiano133

usa modelos basados

en parámetros, a estos últimos se les operacionaliza como una incertidumbre de la data dada,

posteriormente se codifica toda la incertidumbre sobre los parámetros del modelo y se estructura

como probabilidad. Según John Venn y Charles Peirce, la probabilidad de un evento puede ser

tomada como su frecuencia de ocurrencia.

Teorema o Regla de Bayes134

: suponga que A1; A2,….. An. Son eventos mutuamente excluyentes

cuya unión es el espacio muestral S, es decir, uno de estos eventos debe ocurrir. Allí la

probabilidad de cada evento es distinta de cero. Entonces, si A es un evento cualquiera, se tiene

el siguiente teorema:

Regla de Bayes

Dónde: ( ) son probabilidades a priori

( ) es la probabilidad de A en la Hipótesis135

Ak

( ) son las probabilidades a Posteriori

( ) ( ) ( )

∑ ( ) ( )

Esto permitirá encontrar las probabilidades de los diversos eventos A1; A2,….. An, que hacen que

A ocurra. Por esta razón al teorema de Bayes suele conocérsele como un teorema sobre

133

Véase: Bayesian Learning. Concepto de. En MIT Encyclopedia of Cognitive Sciences. 134

Tomado de: Probabilidad y Estadística. Serie Schaum. 3ra edición. P. 8, y 372 y ss. 135

Las pruebas de Hipótesis Bayesianas tienen una manera diferente de proceder, en el contraste de Hipótesis normales se trabajan con los

errores tipo I y tipo II. No obstante, en la teoría Bayesiana de la decisión se usan pruebas α (alfa) de Bayes, donde su media ponderada se conoce como Riesgo de Bayes.

Ro

iman

Val

bu

ena:

So

bre

el R

azo

nam

ien

to A

rtif

icia

l.

Page 131: La investigación científica avanzada primera edición 2015

130

probabilidades de causas. En otras palabras, puede predecir la probabilidad de ocurrencia de un

evento ―x‖ estado éste condicionado a otro evento ―y‖. No obstante, lo que hace importante un

razonamiento aproximado Bayesiano, es que provee la posibilidad de invertir las relaciones

probabilísticas entre ―x‖ y ―y‖. Dado ―y‖ se puede inferir sobre ―x‖.

El paradigma central del razonamiento probabilístico consiste en identificar, en tal universo,

todas las variables relevantes y diseñar un modelo probabilístico de sus interacciones. La

inferencia bayesiana se derivará de la introducción de evidencias a tal conjunto de variables en

un estado conocido. Posteriormente, serán calculadas las probabilidades necesarias siempre

condicionadas a tales evidencias. Preste atención al siguiente razonamiento aproximado

bayesiano136

:

El inspector Clouseau arriba a la escena de un crimen. La víctima yace tendida en el

suelo junto a la posible arma homicida, un cuchillo. El mayordomo (B) y la criada

(M) son los principales sospechosos. El inspector tiene una creencia a priori del 0,6

de que el mayordomo es el asesino, y del 0,2 de que la criada lo es. Estas creencias

son independientes en el sentido de que, P (B, M) = p (B).p(M). Existe la posibilidad

de que el mayordomo o la criada hayan asesinado a la víctima, o en su defecto,

ninguno. El conocimiento criminal A Priori del inspector se formulará

matemáticamente como sigue:

dom137

(B) = dom(M) = {Asesino; No Asesino}

P (B = Asesino) = 0,6 P (M= Asesina) = 0,2138

Hipótesis Bayesianas

P (cuchillo usado / B= no asesino; M= no asesino) = 0,3

P (cuchillo usado / B= no asesino; M= asesina) = 0,2

P (cuchillo usado / B= asesino; M= no asesina) = 0,6

P (cuchillo usado / B= asesino; M= asesina) = 0,1

Adicionalmente, P (K, B, M) = P (B ǀ B,M).p(B)p(M)::: asumiendo que el cuchillo es

el arma homicida, ¿Cuál es la probabilidad de que el mayordomo sea el asesino? Se

usará ―b‖ para los dos estados de ―B‖, y se usará ―m‖ para los dos estados de ―M‖:

observe el procedimiento matemático:

136

Tomado de Barber, David. (2012). Bayesian Reasoning and Machine Learning. P. 10. Véase. 137

Se lee: el dominio de la función para el mayordomo es igual al dominio para la función de la criada. Para ambos aplica una distribución

binomial, [sucede – no sucede] 138

Tales magnitudes de probabilidades asignadas por el inspector están basadas en observaciones, evidencias y conocimientos a posteriori de

otros casos, pero a priori para este. Suele tomarse en cuenta: frecuencia de ocurrencia (más hombres se ven envueltos en este tipo de crímenes que las mujeres). Fuerza de la víctima vs. Fuerza del asesino. Tipo de lesión, lugar, posición del cuerpo. Para este modelo el inspector asignó una probabilidad del 60% para el mayordomo y solo del 20% para la criada. Con la opción del 20% para el caso que ninguno resulte culpable.

Ro

iman

Val

bu

ena:

So

bre

el R

azo

nam

ien

to A

rtif

icia

l.

Page 132: La investigación científica avanzada primera edición 2015

131

( ) ∑ ( ) = ∑ ( )

( ) =

∑ ( ) ( )

∑ ( ) ( ) =

( ) ∑ ( ) ( )

∑ ∑ ( ) ( )

( )

(

)

(

)

(

)

Entonces, sabiendo que el cuchillo fue el arma asesina, el razonamiento aproximado

Bayesiano arroja fuerte creencia (73%) de que el mayordomo lo hizo. Obsérvese que

todas las cantidades a priori fueron usadas (en ausencia de cualquier otra

información). Pero fue el modelo quien proyectó los resultados a posteriori.

Esto hace del Razonamiento Bayesiano una poderosa herramienta para la Investigación

Científica Avanzada cuando se emplea la teoría de acción razonada. En conclusión, los hechos

por sí solo no hablan, es el científico quien los examina. Los números no son buenos cómplices,

pues al interrogárseles tienden a decirlo todo.

5.5.2.- Razonamiento Basado en Procesos Markovianos

En la Investigación Científica Avanzada, es necesario determinar criterios para la toma de

decisiones cuando se hace uso de un razonamiento aproximado. Markov, Andrei Andreevich

(1856 – 1922), a través de sus trabajos sobre las Cadenas de Markov, crea el concepto de

dependencia Markoviana, el cual evolucionó en una moderna teoría y su aplicación está

orientada hacia los procesos estocásticos139

. En teoría de la Probabilidad, la Cadena de Markov

consiste en un proceso, donde se afirma que la sucedencia de un evento dependerá únicamente

del evento inmediatamente precedente.

Un proceso estocástico es una familia de variables aleatorias. En la práctica, sirve para

modelar un gran número de fenómenos temporales donde el azar entra en juego. Se pueden

distinguir algunos tipos de procesos estocásticos según ciertas propiedades matemáticas: a)

Cadenas de Markov; b) Procesos Estacionarios; c) Procesos de Incrementos Independientes; d)

Procesos de Martingale. Cualquier sucesión de observaciones X1, X2…Xn. Será un proceso

139

Un proceso estocástico podrá ser de tiempo continuo o de tiempo discreto, donde el aspecto matemático para cada uno variará. Tomado

de: Springer: The Concise Encyclopedia of Statistic. Stochastic Process Concepto de: Véase.

Ro

iman

Val

bu

ena:

So

bre

el R

azo

nam

ien

to A

rtif

icia

l.

Page 133: La investigación científica avanzada primera edición 2015

132

estocástico si cumple con al menos los siguientes dos requisitos: a) los valores de las

observaciones no se pueden predecir exactamente; b) sin embargo, es posible especificar

probabilidades para distintos valores posibles en cualquier instante de tiempo. En las cadenas de

Markov, la variable X1 describirá al proceso en su estado inicial y la variable Xn en cualquier

instante de tiempo n. Tal que, [Xn +1] será la probabilidad de un estado futuro y será predecible,

siendo totalmente independiente de los estados anteriores.

Una Cadena Markoviana no tiene memoria, y es esta característica de falta de memoria la que

hace fuerte al proceso, pues, conocido el historial de un fenómeno hasta un estado determinado,

su último estado compilará todo un conjunto de datos relevantes que permitirán describir un

nuevo estado próximo futuro. En la prueba de su segundo teorema se demuestra que para

cualquier evento ―A‖, determinado por ―Xa…Xn.‖ variables aleatorias, podrá ser escrita como

una unión disjunta numerable de sucesos elementales.

Es decir, cada eslabón depende únicamente de su eslabón precedente. Donde, conocido el

estado presente de la variable aleatoria X1, su estado futuro es independiente del pasado. El

estado de cada variable, numéricamente establecido de las observaciones se conoce en el proceso

Markoviano como Espacio de Estados. Y, su tiempo de ocurrencia se conoce como Tiempo

Paramétrico. Las cadenas de Markov no garantizan el equilibrio estadístico, prerrogativa

mediante la cual, la probabilidad de distribución de estados permanece constante en el tiempo.

5.5.3.- Procesos de Decisiones Markovianos

Los Procesos de Decisiones Markovianos, definidos en lo adelante como ―Markov Decision

Processes MDP´s‖, consisten en una teoría poderosa y elegante que permite resolver problemas

en sistemas estocásticos de manera inteligente. Los MDP´s podrán variar dependiendo de la

bibliografía consultada y según el sistema donde este se aplica. No obstante, la siguiente

secuencia es la más común140

.

En cualquier época de decisión, el estado del sistema es plenamente conocido por el

agente y las acciones resultantes serán típicamente no deterministas; Una acción

ejecutada en un estado puede inducir al sistema a múltiples estados con diferentes

probabilidades de transición conocidas por el agente.

140

Mausan and Andrey Kolobov (2012), Planning With Markov Decision Processes. Capítulo 2. Véase.

Ro

iman

Val

bu

ena:

So

bre

el R

azo

nam

ien

to A

rtif

icia

l.

Page 134: La investigación científica avanzada primera edición 2015

133

El objetivo de los procesos de decisiones Markovianos es controlar el sistema a través de

apropiadas acciones mientras son optimizadas bajo algún criterio. En la Investigación Científica

Avanzada, con la ayuda de la inteligencia artificial, se usan para la toma de decisiones

secuenciales direccionadas a la resolución de problemas por los agentes inteligentes sin

intervención directa del razonamiento humano, sino, éste último, embebido en un algoritmo

matemático y ejecutado por un agente inteligente computacional. Sin embargo, existen ciertos

procesos que coadyuvan a otros en la toma de decisiones, de los muchos existentes se presentará

solo uno de ellos, los de Poisson.

5.5.4.- Teoría Estadística de la Decisión: Procesos de Poisson

Un Proceso de Poisson consiste y forma parte de la Teoría Estadística de la Decisión. Donde

un sistema es capaz de mover el pensamiento hacia una secuencia de estados, allí, la transición

entre estados se sucede en respuesta a una secuencia de acciones ejecutadas por un agente en

varias épocas de decisión. Es muy común, cuando se opera con sistemas estocásticos que

ameritan decisión, combinar los Procesos Markovianos con los Procesos de Poisson, aunque

realmente son diferentes entre sí, cuando trabajan juntos produce efectos maravillosos.

Considérese un fenómeno simple como la llegada de clientes a un servicio de una tienda,

donde cada uno se contabiliza como potencial cliente (habrá quien compre y quien no).

Entonces, el proceso es posible describirlo por el registro de la secuencia de tiempo de arribo

entre un cliente y otro, asumiendo que al menos dos clientes no llegarán jamás al mismo tiempo.

Pues, y por lógica, dos clientes no podrán ocupar simultáneamente, el mismo puesto de una

cola. Si se toma T0 = 0 como el momento de apertura de la tienda; y los siguientes valores de T1,

T2,…Tn, como tiempo de arribo de clientes, donde Tn representa el tiempo de arribo del último

cliente.

Se definirá entonces a Zi = Tn – (Tn-1) para cada n=1, 2,3...entonces Zi podrá interpretarse

como el tiempo entre el último y su anterior (n-1) ocurrencia para el inter arribo entre todas las

enésimas ocurrencias. Según el proceso previamente descrito, se pudo apreciar que los tiempos

de ocurrencia ―T‖ y los tiempos de inter arribo ―Zi‖ son inciertos y estocásticos, entonces, tanto

―T‖ como ―Zi‖ podrán ser asumidas como variables aleatorias. Tal proceso es denominado del

tipo Poisson, puesto que por definición, los tiempos de arribo e inter arribo son independientes e

idénticamente distribuidos.

Ro

iman

Val

bu

ena:

So

bre

el R

azo

nam

ien

to A

rtif

icia

l.

Page 135: La investigación científica avanzada primera edición 2015

134

Desde el punto de vista de la sicología cognitiva, es el pensamiento el que mueve a la

inteligencia en una dirección específica, ejecuta operaciones con las ideas, las combina y analiza,

para luego establecer relaciones lógicas y agrupar, tales ideas, en clases o categorías. Es esta

secuencia de operaciones hipotéticas, cargadas de incertidumbre, la que es adherida a nuevas

formas de razonar, produciendo así, resultados innegablemente sorprendentes.

Ro

iman

Val

bu

ena:

So

bre

el R

azo

nam

ien

to A

rtif

icia

l.

Page 136: La investigación científica avanzada primera edición 2015

135

CONTENIDO DEL CAPÍTULO

6.1.- Acerca del Problema en la Ciencia

6.1.1.- Lo Abstracto y las Analogías en el Problema

6.1.2.- Sobre la Redacción del Problema

6.2.- Un Acercamiento a los Dilemas

La Investigación Científica Avanzada

C

A

P

Í

T

U

L

O

V I

Definición y Acercamiento al Problema Científico

En los problemas comunes de la vida humana, la ciencia nos dice muy poco, y los

científicos, como personas, sin duda no son ninguna guía. De hecho, son a menudo la

peor guía, ya que tienden a concentrarse, como un láser, en sus propios intereses

profesionales, y saben muy poco sobre el mundo.

Noam Chomsky.

Page 137: La investigación científica avanzada primera edición 2015

136

6.1.- Acerca del Problema en la Ciencia

enomínese problema científico, a todo conjunto de hechos o circunstancias que de

una u otra manera dificultan el entendimiento de un fenómeno impidiendo la

capacidad de actuar sobre él. Pues, ciertos mecanismos invisibles invocan el

desconocimiento del cómo y porqué se sucede un hecho que a todas luces pertenece a una

realidad, y cuyos atributos han de ser indagados. Es toda discrepancia entre lo que es y el cómo

debe ser, que amerita intervención, y es precisamente el problema el que abre el camino hacia el

descubrimiento de la verdad. Todo problema científico consiste en una secuencia de

percepciones sensibles sobre objetos reales, o categoriales sobre objetos ideales, y trae consigo

una arquitectura implícita de construcción de conocimientos. Como afirmase Albert Einstein: Si

me diesen una hora para resolver un problema, invertiría 55 minutos en analizarlo y solo 5

minutos en buscar su solución.

La acción y efecto de construir conocimientos es indubitablemente una operación humana que

en un primer estadio busca la comprensión de una realidad para ampliarla. Seguidamente,

comprendido y ampliado el problema a través del usufructo de la investigación científica, queda

el reto de continuar extendiendo su alcance cuando se acude a los mecanismos de la razón en

busca de nuevos problemas que puedan presentarse. No importa/n la/s característica del/los

problema/s siempre existirá un curso de acción alternativo, donde más importante será el cómo

se lo piensa y analiza, que el problema en sí. Según Albert Einstein, Usted nunca resolverá un

problema al mismo nivel en que fue creado, necesario es ascender en el nivel de conciencia.

El primer paso en una Investigación Científica consiste en demostrar que el problema existe y

hay necesidad de indagar sobre el hecho. Además, coexisten un objetivo y un mecanismo para su

abordaje, es esta primera secuencia de pasos la que determina el nivel del problema, acotando

D

Un problema es una entidad que nos llama, atrae nuestra atención, está vivo. Genera e imprime en la

mente del científico una cadena de dudas y gran cúmulo de preguntas se agolpan en su cerebro.

Entonces, es cuando el investigador arremete en frenética y agotadora labor dentro de un

maremágnum de intrigas. Allí, con punzante lógica y orden cronológico, alcanza el clímax ante el

apasionante desafío de contestar la pregunta de investigación. Lo más insólito de ello, es que, todo

omega de un problema es el alfa de otro.

Roiman Valbuena.

Page 138: La investigación científica avanzada primera edición 2015

137

hasta donde y desde donde debe ascenderse. Un error común consiste en intentar resolver un

problema desde el nivel descriptivo hacia el mismo nivel <<Descripción Descripción>> Así

como un problema explicativo sólo puede ser abordado cuando se escala conscientemente hasta

el nivel relacional y más. En ciencia, no importa el nivel, todo problema consta de al menos 3

partes: lo conocido, lo sospechado y lo encontrado. Pasos que están incluidos dentro de la

arquitectura de procesos cognitivos del científico. Aunque Locke141

argumenta que el

conocimiento en general se refiere a las ideas:

Creo que el conocimiento no es sino la percepción del acuerdo y la conexión, o del

desacuerdo y el rechazo entre cualesquiera de nuestras ideas. En esto consiste

solamente. Cuando exista semejante percepción, habrá conocimiento, y donde no la

haya, aunque podamos imaginarla, vislumbrarla o creerla, nuestro conocimiento será

siempre muy escaso.

No es menos cierto que, las neurociencias en épocas recientes han aportado antecedentes

fidedignos sobre la interpretación individual de los datos sensibles captados por cada

individualidad científica, sobre la percepción del acuerdo y la conexión, o del desacuerdo y el

rechazo entre cualesquiera de nuestras ideas, se le atribuye a las descripciones funcionales que se

ejecutan en cada sección del cerebro, y donde las conexiones o desconexiones están más

desarrolladas en algunos individuos y más obscuras en otros. Lo anteriormente descrito se

corresponde con los principios básicos de organización de la inteligencia, dado gracias a que los

Coeficientes Intelectuales ―IQ‖ de los científicos tienden a no ser el mismo, entonces las reglas

de condición acción también variarán, por lo que cada uno agregará grados de profundidad a sus

razonamientos y representaciones lógicas. Como resultante, el nivel de profundidad de un

problema variará dependiendo de la pericia o impericia del investigador.

Los científicos raras veces siguen un camino directo desde el problema hasta su solución

cuando se avocan en profundidad al estudio de un fenómeno. Donde la distancia que separa a un

evento de su explicación se acorta a través de un objetivo, siendo necesario para este último, un

procedimiento que no siempre ha de ser el mismo, tendiendo a variar en función de la ontología,

perceptibilidad y abstracción que une al objeto de estudio con el sujeto que lo estudia. Plantear

objetivos en una investigación no es más que emprender la búsqueda de evidencia probatoria

cuando existen sospechas de que por ese camino realmente es posible conseguir respuestas.

Ningún objetivo ha de traspasar jamás los límites de la teoría pero si los del método. En otras

palabras, seguir los pasos del método tal como es descrito en los textos, no es siquiera una

opción, y consiste únicamente en una mala concepción de los procedimientos para hacer ciencia.

141

Libro IV, Capítulo Primero: Del Ensayo sobre el Entendimiento Humano.

Ro

iman

Val

bu

ena:

Ace

rca

del

Pro

ble

ma

en la

Cie

nci

a.

Page 139: La investigación científica avanzada primera edición 2015

138

Un problema no deberá ser ordenado mecánicamente como los ingredientes en una receta para

dar respuestas correctas a una pregunta científica. Su comprensión, explicación, la dilucidación

del vínculo causa – efecto, y la demostración científica de su relación o de su causalidad lineal,

no siempre ameritarán del mismo encadenamiento, de ser así, existiría sólo una ciencia, y esto

solo es cierto en el reino de lo absurdo. Implicaría ignorar la intuición, esclavizar al investigador

atándolo al método y hacer caso omiso a la Serendipia.

Es la intuición, enmarcada en el marco científico de la mente, la que a través de flashes

perceptivos generados en el inconsciente, admite al científico apreciar globalmente al fenómeno

sin intervención de razonamiento lógico alguno. Allí, y por medio de ejercicios cerebrales,

posteriormente interpretará patrones teniendo en cuenta que la percepción siempre será más

fuerte que la vista, y que los sentidos tienden a engañar con facilidad. Es en el problema donde el

investigador como observador ha de situarse en una posición adecuada, la mejor que pueda

encontrar, pues un mismo hecho puede parecer diferente a otros observadores, pero es en el

proceso de observación donde emergen aspectos y cantidades en un primer momento

inobservables. Es el que permite absorber lo evidente e intuir sobre lo inobservable, intentando

en todo momento no engañarse por semejanza.

Es también en esta etapa de la investigación donde el científico hace gala de dos importantes

herramientas, el pensamiento y la inteligencia. Sabiendo que es el pensamiento el que hace

trabajar a la inteligencia bajo determinada forma y dirección específica, intentará entonces,

mantener la mente ocupada en los patrones del fenómeno y no en otra cosa.

Efectivamente, cuando la mente del hombre de ciencia está ocupada intentando enlazar los

datos compilados con la teoría de referencia, está ignorando su intuición, en vez de hacer lucro

de ella, entonces la percepción se reduce. Por tanto, la mente ha de estar abierta siempre ante un

todo y no enfocada en la teoría, más aún, cuando sólo se está descubriendo el problema. Es en el

estado de meditación propio del hombre de ciencia cuando los procesos lógicos del inconsciente

determinan que cosa se parece o difiere de otra. Es la diatriba que surge cuando se discrepa entre

lo intuitivamente percibido y cuyo flujo natural le inquieta, y las inconsistencia en el cuerpo de

conocimientos de la disciplina que se aborda, la referencia que hace Einstein con la frase: Si me

diesen una hora para resolver un problema, invertiría 55 minutos en analizarlo y solo 5 minutos

en buscar su solución.

Es menester del hombre de ciencia esquematizar el problema desde lo abstracto, pasando por

lo a priori y puro, hasta lograr hipotetizar ciertos efectos derivados de causas no claras, pero

cuyas bases sean afirmaciones que en sus postrimerías se demuestren, persiguiendo en todo

Ro

iman

Val

bu

ena:

Ace

rca

del

Pro

ble

ma

en la

Cie

nci

a.

Page 140: La investigación científica avanzada primera edición 2015

139

momento el <<Nervus Probandi>>, o el argumento más convincente de que el problema además

de que existe, amerita intervención. Cuando el investigador plantea un problema, este ha de

llevar implícito el conjunto de mecanismos e instrumentos necesarios para su resolución. Ningún

problema es un ente concreto ni puede llegar a serlo, <<sobre todo cuando se ejecutan

percepciones categoriales sobre objetos ideales>> se diferencian uno de otro a través de las leyes

de las perspectivas. Son solo entidades abstractas que se dejan conocer a través de un discurso

descriptivo – explicativo de derivación de consecuencias e inferencias. Recuerde que el Epísteme

sólo se logra en el nivel más alto de la escala del conocimiento, entonces, profundice y extraiga.

El científico nunca ha de olvidar que una inferencia es diferente a una conclusión, para esta

última son necesarias observaciones repetidas que provean la misma carga informativa, lo

necesario en ciencias son las inferencias y su fuerza lógica, ya que, las observaciones repetidas

podrán variar e interpretarse heterogéneamente por cada individualidad científica. Al plantear un

problema, necesario es atar a unidades fenoménicas, no cometa el error de esclavizarse a la

metodología… átese a su intuición… a su capacidad de observación y razonamiento… no deje

que la teoría lo distraiga pero no la eche a un lado… tenga en cuenta que sólo una contradicción

en el proceso explicativo es suficiente para anular todo conocimiento… afine entonces sus

sentidos y dedíquese a percibir y establecer estímulos causales sobre las unidades fenoménicas…

de allí observe y contraste entonces con la teoría. Recuerde que la verdad sólo puede ser verdad

si una razón puede ser prestada para ella142

, encuentre entonces esa razón.

Se dice que existe un problema cuando una o algunas características particulares de un

fenómeno oscilan en su nivel de intensidad y/o frecuencia. Para poder emprender acertadamente

una investigación real, han de coexistir en tiempo y espacio, aquello que fluctúa <<Variable>> y

aquello que no lo hace <<Invariante o Ley>>, pues es lo único que permitirá contrastar lo que

varía contra lo que no143

. Preste atención a que si determinado elemento dentro de un fenómeno

existe, no pudiendo este ser eliminado, es entonces indudable que está unido al sistema mediante

alguna ley.

Por otro lado, si la evolución de un fenómeno depende y coincide con la aparición de otro, o,

si la variación de un fenómeno particular está condicionada a la variación de un segundo

fenómeno, solo pueden establecerse dos condiciones. O el segundo es causa o efecto del primero,

o ambos están conectados mediante alguna ley causal, pues es obvio que entre ellos existen

142

Frase atribuida a Leibniz 143

En la Investigación Social no suele practicarse este procedimiento, allí no existen leyes, entonces se contrasta contra conceptos y opiniones

que también varían, presentándose de esta manera el efecto, no deseado por cierto, de la doble variación.

Ro

iman

Val

bu

ena:

Ace

rca

del

Pro

ble

ma

en la

Cie

nci

a.

Page 141: La investigación científica avanzada primera edición 2015

140

Variaciones Concomitantes144

. Si tales condiciones son obviadas en la descripción del

problema siendo previamente conocidas, difícilmente sea aceptable cualquier inferencia o

explicación que el investigador tenga a bien ejecutar, pues se constituye esto en la diferencia

entre inicio y fin de una investigación. Y es de esa diferencia de donde el científico deduce,

afina, explica y construye el conocimiento de la causa.

Es un error comparar variable a variable si no se describe y explica en función de aquello que

a pesar de las circunstancias se conserva y mantiene inalterado, aun cuando otras

transformaciones se hayan sucedido. Además, no olvide nunca que es la dialéctica la que separa

lo descrito de lo explicado. En ese sentido, organice magistralmente sus ideas y escoja palabras

que impacten sobre la psiquis del lector a través de explicaciones por asociaciones. En un

planteamiento de problema se describen y explican las lagunas de comprensión respecto al

estado del conocimiento actual, nunca se hacen inferencias a priori allí. Sin embargo, es el lugar

perfecto para introducir los supuestos que conformarán la/s hipótesis.

No cometa el error de emprender una investigación científica persiguiendo únicamente

aprendizaje propio, si lo hace, difícilmente encontrará la pertinencia social de tal proyecto, no

atinará el proceso científico adecuado y es muy probable que tenga que justificarlo en función de

su interés personal sin ningún aporte a la comunidad científica. Contrariamente, todo problema

debe ser sustentado y argumentado suficientemente en términos concretos y específicos, de

manera que admita su abordaje a través de los mecanismos de la ciencia. Permitiendo el paso de

lo infinito a lo finito, de lo abstracto a lo concreto, o desde el conocimiento angosto hasta los

principios explicativos que disipan toda duda.

Un problema es un problema científico si y solo si este tiene solución, existe al menos una

forma de revolverse, y consiste en la anticipación de un evento que ha de enfrentarse en un

futuro. Pues, es imposible darle solución a un problema filosófico o religioso con los

mecanismos del método de la ciencia. A un problema científico no siempre es posible darle

solución determinística, es decir, perpetuamente será la forma de resolverlo. En vez, se le admite

solución conforme a los objetivos planteados, no siendo esta la única, sólo porque satisfacen el

espíritu de la comprensión y el entendimiento, logrando así temporalmente, trascenderlo.

Un Problema Científico consiste en un obstáculo o impedimento para acceder a la

comprensión total de un fenómeno particular y podrá ser esquematizado de diferentes maneras

cuando se le observa desde diferentes aristas. Aunque no existen recetas para los ingredientes de

144

Estos dos últimos casos pertenecen a los 5 cánones de Jhon Stuart Mill. Se describen mejor en la sección de la Investigación Experimental

en este mismo texto.

Ro

iman

Val

bu

ena:

Ace

rca

del

Pro

ble

ma

en la

Cie

nci

a.

Page 142: La investigación científica avanzada primera edición 2015

141

un problema, son obtenidos como una operación de la inteligencia y de la autoconciencia, como

facultad creadora que todo hombre posee, donde se esquematiza y categoriza a los objetos y

elementos a los que se haga referencia, usando como herramientas, a la estrecha relación entre

descripción y explicación. En ese sentido, ningún problema puede ni debe parecerse a otro.

6.1.1.- Lo Abstracto y las Analogías en el Problema

Un problema abstracto, como en la lógica, la matemática o la física teórica, se presenta en la

mente del científico como manifestaciones sensorialmente dadas. De allí comúnmente se parte

desde un universal hasta descender hacia un particular cuando se hace uso del análisis deductivo,

o desde un particular hacia otro particular si se procede inductivamente, actuando por separado

sobre cada unidad extraída o abstraída desde un general o particular de referencia. Conformando

menudas partes de lo que en un principio fue un todo. Más en ciencias, es imposible operar en lo

abstracto, necesario es escalar en el nivel de conciencia, trayendo esas menudas partes hasta lo

concreto, lo material, de manera que le permita actuar sobre aquello abstraído.

Para poder plantear un problema abstracto, necesario es escalar hacia un estado alterado de

conciencia o meditación profunda, allí las habilidades cognitivas se organizarán hacia un ciclo de

producción máxima. Fue en este estado cuando Einstein logró concebir la teoría de la relatividad,

es decir, el secreto del universo. Es en el estado de trance absoluto cuando se puede, como

investigador o teorizador, operar en lo abstracto ejecutando una serie de experimentos del

pensamiento, y que posteriormente traerá hasta el plano ontológico mediante procesos de

analogías.

Puesto que a un fenómeno abstracto es imposible observarlo directamente, necesario es

entonces combinar tal serie de ideas con el razonamiento analógico. Es decir, óptese por

unidades de razón encadenadas lógicamente y haciendo gala de gran potencia mental, que

permitan presentar una sistematización de vinculación entre todo antecedente y su respectivo

consecuente, a través de un organizado protocolo de captura de problemas. Cuya cadena para el

desarrollo de ideas sea consecuencia de una simetría argumental con patrones causales que den a

luz al conocimiento comprensivo de algo que en un primer momento fue obscuro e

incomprendido.

Razonar analógicamente desde lo abstracto significa explicar una cosa a través de otra mejor

conocida, imagínese que usted intenta explicar cómo son las urbanizaciones en el <<Cielo,

Ro

iman

Val

bu

ena:

Ace

rca

del

Pro

ble

ma

en la

Cie

nci

a.

Page 143: La investigación científica avanzada primera edición 2015

142

donde Dios vive>>, no hay otra manera de proceder sino por analogía. Nunca tema a equivocarse

si ha puesto en práctica su autoconciencia, las analogías son comunes durante el proceso de

planteamiento y resolución de problemas;

Pero daré a conocer lo poco que he aprendido para que alguien mejor que yo pueda

atisbar la verdad y, en su obra, pueda probar y criticar mi error. Así, me regocijaré a

pesar de todo de haber sido un medio a través del cual salga a la luz la verdad145

.

El planteamiento del problema lleva implícito ciertas limitantes al investigador ¿qué es lo que

puede conocer y que no? Además del cómo llegar a ello. Estas respuestas sólo provienen de

usted mismo, de su intuición, discernimiento y capacidad de acción, difícilmente un tercero

tendrá la misma visual que usted. Entonces, ningún jurado actuando como tercero, podrá

adjudicarse autoridad de verdad, erigirse, o al menos intentar refutar sentencias que el

investigador tenga a bien describir en el problema con posterior demostración.

Aunque existen malévolas élites académicas de sacerdotes con máximo conocimiento y poder

absoluto sobre la verdad, solo podrán, y están allí para ello, separar aquello que se dice cierto de

aquello que no lo es y por consiguiente es falso. Si y solo si, disponen de los medios para

refutarlo…actuando como verdaderos jueces y no como obstructores de un proceso que apenas

inicia. En ese sentido, Peter Madawar146

alguna vez expresó lo siguiente: La mayoría de los

hombres de ciencia no han recibido ninguna instrucción formal en el método científico, y (…)

quienes parecen haberla recibido no muestran una superioridad sobre quienes no la recibieron.

6.1.2.- Sobre la Redacción del Problema

El efecto lingüístico con el cual se desarrolla la temática de un problema ha de ser totalmente

intencional, es decir, ha de intentarse en lo posible inducir en la mente del lector, toda serie de

sensaciones que el investigador ha percibido, es cuando el científico presta sus ojos para que

otros observen el cómo aquello se produce e interactúa. Es donde se plasma mediante

manuscrito, la interpretación de los patrones observados, la calidad de la prueba de que el

problema existe y la profundidad de pensamiento con su correspondiente necesidad de abordarlo.

Allí deben evitarse palabras indeterminadas y las descripciones sin explicaciones o descripciones

innecesarias basadas en la denominada ciencia descriptiva. Aunque, con cierto grado de

145

Alberto Durero. Aparece en la Introducción del libro Conjeturas y Refutaciones: El Desarrollo del Conocimiento Científico. De Popper Karl

(1991). 146

Científico Británico (1915 – 1987) nacido en Brasil, Premio Nobel de Fisiología (1960) por sus descubrimientos sobre la tolerancia

inmunológica adquirida.

Ro

iman

Val

bu

ena:

Ace

rca

del

Pro

ble

ma

en la

Cie

nci

a.

Page 144: La investigación científica avanzada primera edición 2015

143

exactitud es posible afirmar que no existe tal cosa denominada ciencia descriptiva, describir es

sólo un paso dentro del método ya que no aporta ninguna profundidad de pensamiento, reflexión

o evidencia, la ciencia en sí es netamente explicativa.

No es menester de la descripción, ni mucho menos está a su alcance, explicar, o al menos

concatenar hechos ni sucedencia. Consiste únicamente en representar simbólicamente elementos

dentro de un fenómeno sin incluir etapa alguna de razonamiento. Por ende, toda verdad

descriptiva carecerá de significado hasta que pueda someterse a verificación empírica. La

Investigación Científica del tipo Descriptiva no existe, puesto que carece de sustento y sentido

con respecto a los objetivos de la ciencia, es como intentar caminar sin levantarse de la silla. Se

justifica sólo en aquellas ciencias que no pretendan descubrimientos, o por sus características

solo se desean conocer propiedades y características particulares de objetos o cosas, es decir, una

acción meramente contemplativa, y eso no es ciencia.

Existen varios tipos de descripción dirigidas al área científica: la técnica; la exhaustiva; la

estática y la dinámica, todas deben ir acompañadas de su respectivo discurso explicativo. La

descripción técnica es usada para señalar detalles de cualidades y propiedades de cada unidad

fenoménica, se caracteriza por su precisión, claridad y objetividad. La descripción exhaustiva se

usa cuando hay necesidad de extraer la mayor cantidad de detalles precisos, implícitos e

inherentes al objeto de estudio. Describa exhaustivamente, de forma detallada y propia, al

conjunto de indicadores al que haga referencia.

No obstante, sea selectivo en los rasgos más significativos que han de someterse a estudio. Si

el problema aborda una secuencia causa – efecto en una cadena transcausal, use los mismos

protocolos operacionales del tipo técnico, exhaustivos y selectivos del paso previo, no olvide

nunca explicar qué ley une al efecto con su causa, bajo qué condiciones se presenta el equilibrio

causal, e identifique con énfasis, la causa adecuada. Más, separadamente, ejecute una descripción

estática de la causa y una descripción dinámica del efecto si los intervalos temporales de

sucedencia así lo permiten.

Posteriormente, proceda inversamente, deje estático el efecto mientras se produce la dinámica

de la causa. No olvide la existencia de algo que media entre la causa y su efecto, una causa no

podrá nunca separarse de su efecto, pues están adheridas a la tercera ley de Newton, acción y

reacción. Entonces, no se centre en ellas, sino en aquella relación esencial determinada por

aquella extraña fuerza que media entre ellas. Si hay correlación entre variables <<Recuerde que

los estudios causales son diferentes a los relacionales>>, realice descripción estática y dinámica

por separado, dejando conocer el cómo cada causa produce su efecto y viceversa. No olvide que

Ro

iman

Val

bu

ena:

Ace

rca

del

Pro

ble

ma

en la

Cie

nci

a.

Page 145: La investigación científica avanzada primera edición 2015

144

ninguna causa produce su efecto de manera inmediata, entonces, razone, interprete e infiera

sobre los intervalos temporales. Si la causa produce su efecto de manera inmediata, concurre

entonces una mecánica de acción, detállese y explíquese a través de la teoría del mecanismo,

puesto que es evidente que milita una interacción física entre ellos.

No olvide nunca que al conocimiento es imposible encontrarlo en los árboles, ni se produce

por casualidad, pues lo que proviene del azar nunca podrá denominársele ciencia. El

conocimiento se sobreviene únicamente del accionar del hombre de ciencia. Para Carl Sagan, La

ciencia es más una forma de pensar que un cuerpo de conocimientos en sí. En la ciencia no hay

conocimientos, el conocimiento está en cada uno de los hombres de esa ciencia, y donde ninguno

es mejor que otro, sino, más afinado.

El fin de toda investigación científica es indubitablemente el descubrimiento, entiéndasele

como toda aquella acción que evidencia el usufructo de los procesos del pensamiento científico

al poner de manifiesto algo que estaba oculto. Es cuando el investigador devela todo el halo de

misterio bajo el cual se ocultaban ciertas, o la totalidad de las características de un fenómeno.

Descubrir consiste en afirmar que algo existe… describiendo al mismo tiempo lo que es…

descubrir amerita percibir, entonces, debe ser acreditado a algún ser humano. Descubrir significa

percibir anomalías y actuar en consecuencia sobre ellas. El preludio a todo descubrimiento radica

en interpretar, con mayor o menor curiosidad, las unidades fenoménicas inesperadas que hacen

que una anomalía sea realmente una novedad digna de escudriñar, bases que sustentan el

planteamiento de todo problema.

Es donde se rompe la armonía de lo obvio y se solventa el misterio. Todo hombre de ciencia

usa su intuición para descubrir, la lógica le sirve únicamente para probar y demostrar. Para

finalizar, bien vale la pena citar a Enrico Fermi; En toda Investigación hay sólo dos

posibilidades: si el resultado confirma la hipótesis, entonces usted ha hecho un descubrimiento.

Y si el resultado es contrario a la hipótesis, entonces usted también ha hecho un descubrimiento.

Ro

iman

Val

bu

ena:

Ace

rca

del

Pro

ble

ma

en la

Cie

nci

a.

Page 146: La investigación científica avanzada primera edición 2015

145

6.2.- Un Acercamiento a los Dilemas

e entiende por dilema, a un argumento silogístico en el cual se obliga a un contrario a

elegir entre dos alternativas mutuamente excluyentes y que les son adversas. Se

considera escenario dilemático a una situación que dificulta la selección entre dos o más

opciones, y que lejos de aportar soluciones origina un problema. Pues, en el silogismo podrán

distinguirse sentencias con poco sentido que no representan la esencia ni el estado de las cosas.

Los argumentos dilemáticos no podrán usarse para justificar causas porque van contra su

existencia, son contrafácticos. Sin embargo, son los grandes dilemas los que confrontan a los

científicos haciendo que la ciencia progrese. Los dilemas son de amplio uso en los

Experimentos Mentales y los Experimentos Filosóficos, allí se introducen intencionalmente

argumentos dilemáticos que evoquen una situación hipotética.

Para la lógica, un argumento con dos premisas hipotéticas, las cuales dan como resultado a

una tercera premisa, y que afirma el antecedente o que deniega su consecuente, o una conclusión

la cual afirma su consecuente pero deniega su antecedente, es un dilema. Preste atención al

siguiente dilema moral: <<Si confieso mi falta seré echado de la universidad; si no la confieso

no podré afirmar que seré un profesional honesto>>, los dilemas en lógica no tienen la misma

profundidad y aplicación que los dilemas morales de la vida cotidiana del ser humano.

Todo argumento formado por dos proposiciones contrarias, de manera que negada o afirmada

cualquiera de ellas, quedare demostrado lo que se intenta probar, será considerado dilema. Teseo,

un héroe de la antigüedad traído al mundo de la pluma de Thomas Hobbes, lleva su barco a

reparar a un astillero. Allí, los carpinteros deciden reemplazar todas y cada una de las piezas con

el fin de entregarle al héroe un barco totalmente renovado. No obstante, uno de los carpinteros

decide tomar las piezas viejas para con ellas armar otra embarcación. Cuando Teseo observe

ambos barcos ¿cuál cree que pensará es realmente el suyo? Los dilemas son comúnmente usados

en las estrategias de negociación; en política, filosofía, juegos sicológicos y como medio para

S

Si Ud. cree en el “Libre Albedrío Bíblico”, le sugiero, estudie la Inteligencia Artificial al menos por un mes,

y luego repítase la pregunta, ¿existe realmente el libre albedrío? Si comienza a dudar. Pregúntese

entonces, ¿Cómo es que puedo discernir de mi propio pensamiento? Si la respuesta es que posee Libre

Albedrío. Entonces Ud. está en un Dilema.

Roiman Valbuena.

Page 147: La investigación científica avanzada primera edición 2015

146

dilucidar descubrimientos científicos con gran carga de metalógica. No obstante, un argumento

dilemático no explica, confunde. Y no podrá ser usado en el planteamiento de un problema ya

que es indeterminado.

Cuando se usa a la imaginación disciplinada sobre resultados científicamente estériles con el

fin de encontrarles provecho, se erigen entonces, e intencionalmente, estructuras cognitivas

camufladas sobre modelos matemáticos de equilibrio intuitivamente inspirados en la obtención

de conocimientos a través del procedimiento estímulo – respuesta. En este proceso, se persigue

construir un conjunto de estimadores de significancia comparada para determinar los efectos del

dilema sobre tal o cual resultado científico.

El científico siempre intentará explicar cualquier fenómeno observable en términos de

principios científicos, estos últimos también son explicados a través de otros principios

científicos más profundos denominados leyes. No evite los dilemas, el deseo por conocer

difícilmente estará alineado con las evidencias observadas; todo dilema trae consigo

sufrimientos, desesperanza y agonía. No obstante, el amor por el descubrimiento puede superarlo

todo. Cuando se aborda un problema complejo, y a su vez se cree en la posibilidad de resolverlo,

se ha aceptado la existencia de un dilema, puede tomarle 10 segundos o 10 años, es la esencia de

este dilema el odiar el problema pero amar su solución, si no desea denominarlo dilema óptese

entonces por admitirlo como parte del proceso de razonamiento científico.

Ro

iman

Val

bu

ena:

Un

Ace

rcam

ien

to a

los

Dile

mas

.

Page 148: La investigación científica avanzada primera edición 2015

147

CONTENIDO DEL CAPÍTULO

7.1.- Los Programas de Investigación Científica y la Investigación Internivel

7.2.- Los Programas de Investigación Abstracta

7.2.1.- El Conocimiento Abstractivo

7.2.2.- Clases Abstractas y Elementos Abstractivos

7.2.3.- Intuición, Abstracción y Descubrimiento Científico

7.2.4.- Ciencias Abstractas y Ciencias Concretas

7.3.- Los Programas de Investigación Explicativos Puros

7.3.1.- Las Explicaciones Nomológicas [Deductivas e Inductivas]

7.3.2.- Las Explicaciones Probabilísticas

7.3.3.- Las Explicaciones Funcionales

7.3.4.- Las Explicaciones Genéticas

7.3.5.- Las 3 Condiciones de Inexplicabilidad

7.4.- Los Programas de Investigación Explicativos – Causales

7.4.1.- Causación Probabilística

7.4.2.- Causación Hacia Abajo: Downward Causation

7.4.3.- Causación hacia Arriba: Upward Causation

7.5.- Los Programas Exploratorios de Investigación

7.5.1.- Estadio 1: La Mente Exploratoria del Científico

7.5.2.- Estadio 2: La Descomposición del Problema

7.5.3.- Estadio 3: El Diseño de Investigación Exploratoria

7.5.4.- Estadio 4.- Exploración y Mecanismos Estadísticos

7.5.4.1.- Análisis de Componentes Principales

7.5.4.2.- Análisis Factorial de Correspondencia y Confirmatorio

7.5.4.3.- Análisis de Correspondencia Múltiple

La Investigación Científica Avanzada

C

A

P

Í

T

U

L

O

VII

Los Tipos de Programas de Investigaciones Científicas

El ejemplo clásico de Programa de Investigación victorioso, es la Teoría Gravitacional

de Newton. Probablemente el Programa de Investigación más exitoso que ha existido

nunca.

Imre Lakatos.

Page 149: La investigación científica avanzada primera edición 2015

148

7.1.- Los Programas de Investigación Científica y la Investigación Internivel

e entiende por Programa de Investigación Científica, a la secuencia de ejecución de

un Proyecto de Investigación cuando éste presenta diferentes niveles que han y deben de

ser separados. Consiste en un modelo de análisis para ejecutar investigaciones donde

confluyan más de dos teorías, y por consiguiente, cada una introducirá una o más leyes. En los

Programas de Investigación, los problemas son inseparables de sus objetivos, y puede

presentarse una concatenación de los mismos tal como en una investigación mixta. Aquí no se

establece tipo y diseño de investigación, pues la ciencia nunca evalúa una única teoría, ni sigue

un único camino para dar respuesta a un problema. Es en esta etapa donde la teoría es apoyada

por los hechos y se circunscribe a sus leyes. Y será al final, donde el científico propondrá y

ejecutará un experimento tal, que no ha de vislumbrarse duda, sobre cómo el fenómeno se inicia,

opera, interacciona y evidencia sus efectos. Pues, es cuando las leyes de las matemáticas reflejan

inequívocamente una verdad.

Un Programa de Investigación Científica presenta ciertos niveles jerárquicos, para los que

requerirá de diferentes niveles de explicación cuando se han agregado leyes a cada nivel. Adopta

co – operaciones tanto simétricas como asimétricas similares a los diseños de los modelos mixtos

de investigación. Se asumen allí, diferentes niveles de agregación147

, diferentes tipos de

explicación y descripción para cuando el científico ha adquirido la destreza de escalar unidades

de pensamiento y razón, denomínesele a esto último, Razonamiento Escalado Explicado. Un

Programa de Investigación se relaciona directamente con la Investigación Internivel. Se parte

desde un conocido, atravesando un sospechado hasta finalizar en un encontrado. No obstante,

será el mismo problema quien señale el curso de acción a seguir.

El problema indicará desde donde debe ascenderse y el lugar para detenerse, en el camino se

147

Para un mejor entendimiento de este concepto, Refiérase a Modelo Kuipers de Reducción de Leyes por Teorías. Capítulo II: Sección: 2.4 en

este mismo texto.

S

La Investigación Internivel permite el acercamiento a un fenómeno imposible de explicar con una sola

ley o teoría. Necesario es un conjunto de ellas. Al abordársele, se apreciará en un primer momento lo

que cualquiera puede ver. Pero la correlación teorética y legaliforme permitirá descubrir cosas que

nadie jamás imaginó que estuviesen allí.

Roiman Valbuena.

Page 150: La investigación científica avanzada primera edición 2015

149

establecerá un vector graduable para el/los objetivo/s. Las escalas intermedias serán propias de

una Investigación Internivel, relacionando, asociando, o separando teorías. Aquí no se eliminan

teorías o reemplazan, contrariamente, se toma en cuenta incompatibilidad y se les separa, pero se

estudia y presta mucha atención a la inconmensurabilidad en un nivel o inconmensurabilidad en

el Internivel. Durante el desplazamiento por el vector de posición las observaciones variarán, así

como los patrones del fenómeno. Es en esta etapa donde la intuición, connaturalidad e IQ del

científico marcarán el camino a seguir basado en las leyes de la perspectiva.

Una investigación del tipo Causa Efecto es una investigación Internivel si, un mismo efecto

obedece a varias causas. Y para cada causa es posible establecer una ley diferente que forme

parte de una teoría también diferente. Estas teorías podrán estar asociadas o agregadas, más sin

embargo, la respuesta a la pregunta de investigación quedaría incompleta sin la coexistencia de

diferentes niveles de explicación. Para cada estadio del fenómeno, una explicación. Para el

entendimiento total de la causación, un manuscrito de explicaciones. La Investigación Internivel

constituye una de las formas en las cuales se presenta la Investigación Científica Avanzada, dado

que el ser humano no vive en un universo accidental, entonces todos los acontecimientos estarán

regidos por leyes asociadas a teorías.

La Investigación Internivel hace uso de términos, conceptos y sentencias que subyacen en uno

o más principios, sirviendo de puente con hipótesis auxiliares que conectan a un nivel con otro, o

simplemente se quedan en el Internivel y lo explican. Allí se hacen uso de conceptos de micro

nivel hasta ascender a un nivel alto, usando en muchos casos, el Principio de Correspondencia.

En ciertas etapas podrá operar con modelos teoréticos provisionales con un número finito de

principios. La Investigación Internivel es algo compleja, pues, amerita de la axiomatización de

algunas cadenas de causas, y la Matematización de algunos postulados. Recuérdese que en

ciencia, un conjunto de enunciados de una teoría es válido si cumple al menos dos condiciones,

los enunciados no admiten contradicción y pueden ser expresados en forma de ecuaciones

matemáticas, caso contrario, no son dignos ni pueden ser usados en una teoría.

Ni en la Investigación Internivel, ni en ningún otro tipo de indagación, hay forma lógica de

descubrir leyes elementales. Es el científico quien busca saber lo que hay detrás de ciertas

apariencias fenoménicas. Cuando un fenómeno no es posible explicársele haciendo uso de una

sola ley o teoría, entonces habrá de optarse por una estrategia plurimetódica, un modelo

metodológico Internivel que permita al reduccionismo abordar el problema. Siéntase libre el

investigador de usar la Investigación Internivel dentro de un Programa Científico de

Investigación, les aseguro que no dejarán de maravillarse cuando transiten por sus sendas.

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

de

Inve

stig

ació

n C

ien

tífi

ca y

la In

vest

igac

ión

Inte

rniv

el.

Page 151: La investigación científica avanzada primera edición 2015

150

7.2.- Los Programas de Investigación Abstracta

e denomina Programa de Investigación Abstracta, a aquella secuencia de indagación

mediante la cual el científico identifica, extrae y separa mentalmente algo de otro algo,

usando para ello únicamente, su intrincado laboratorio de la mente. Abstraer es el

proceso de separar, lo abstraído es lo puesto aparte, lo separado. Una Investigación Abstracta

consiste básicamente en pensar estructuras mentales para crear interrelaciones estructurales

donde alojar el fenómeno mental. Son estas interacciones de estados intelectuales las que dan

origen a procesos cognitivos. Allí logrará formase una primera idea de todo aquello que resulte

común a ciertas instancias, y puesto que las idea no son más que impresiones de los sentidos,

siendo la imaginación una facultad sensorial, entonces, no existirá nada en la mente que no haya

sido colocada allí por los sentidos. En la abstracción el científico fija su atención en una

propiedad única de la cosa despojándola del resto, y se encargará de operacionalizar sólo en lo

abstraído.

Ningún hecho abstracto que permanezca en la mente de nadie causa nada ni tiene efecto sobre

nada. Además, en vista de que un proceso de abstracción es totalmente intencional, el científico

hará uso de metalógica ante cualquier nuevo descubrimiento que lo conturbe, aunque todavía

éste permanezca en la profundidad de sus pensamientos. La abstracción diferencia entre sentido

e intelecto, para Descartes: el razonamiento abstractivo es superior al de los sentidos. El

empirismo amerita de un contacto directo con el objeto, mas no así el abstraccionismo. Las

abstracciones nunca han sido producto de la imaginación, aunque así se las piense, se

sobrevienen como resultado propio de la razón discursiva, es decir, la razón discutiendo en la

mente del científico.

No obstante, ¿qué estructuras poseen la mente y el conocimiento?; ¿qué es la mente?; ¿cómo

está estructurada?; ¿dónde se aloja el fenómeno mental? Cuestiones nada fáciles de responder.

La mente está estructurada aproximadamente, en una variedad de procesos escalonados, allí se

crean conceptos y términos para ser usados sobre la cosa abstraída, e inmediatamente relaciona

S

El amor es un tipo de abstracción…[Y luego están esas noches cuando duermo solo; cuando me hundo en la

almohada sin ti; cuando escucho pasos que no son tuyos; como no puedo evocarte por completo, tengo que

aceptar sólo una idea en tu lugar]

David Levithan, The Lover's Dictionary

Page 152: La investigación científica avanzada primera edición 2015

151

asociando y separando teorías cuando la estructura mental ya está completa. Para ello necesario

es estar claro sobre bajo qué criterios un científico atina a separar lo importante de lo superfluo,

¿qué es lo importante?, ¿qué es lo superfluo? Cuando el científico crea conceptos abstractos lo

hace sabiendo que lo abstracto se opone a lo concreto, que el conocimiento que aporta el

concepto es sólo una idea impresa sobre el objeto, que esas ideas solo tienen cierto grado de

generalidad, que ninguno de los objetos a los que haga referencia el concepto ocupan ni lugar ni

tiempo, pues sólo aparentemente son, entonces, nada que afirme el concepto sobre ellos,

denomínese la cosa abstraída, está equivocado.

Ante estas observaciones, el científico sabe que existen al menos dos formas de abstracción.

Cuando la cosa es un fenómeno mental y carece de esencia, materia y forma. Y, cuando la cosa

existe y debe atinar en el proceso adecuado que le lleve a separarla del sistema donde está

inserta, manteniendo invariable todos sus atributos y propiedades. Para cada venir amerita de un

proceso diferente, de Analogías y de Metáforas Visuales.

Las analogías no son más que formas de representar cosas a través de otras mejor conocidas.

Las metáforas visuales funcionan como una especie de conexión entre lo que se ve y lo que se

piensa. Las analogías son más comunes en las ciencias (verdades abstractas), allí todo concepto

mental es formulado por algún sistema de lenguaje únicamente aceptado por el propio

pensamiento. Las analogías postulan objetos del pensamiento a través de una secuencia

temporal, entonces buscarán un objeto real para comparar y esquematizar.

Las metáforas son mayormente usadas en las artes (arte abstracto), y evocan argumentos

metafóricos. En las analogías se examinan las cosas por sus causas y efectos, incluso se

hipotetiza sobre su función, estableciendo relaciones con otras abstracciones. En cambio, en las

metáforas visuales, no son necesarios las causas o sus efectos, mucho menos ameritan de

explicaciones, son más importantes para hacer entender sentimientos, padeceres o impresiones.

Denomínese analogía148

a una inferencia sobre si dos cosas convergen en cierto aspecto,

entonces probablemente también converjan en otros. La analogía se utiliza para persuadir;

permite transferir un mismo concepto a través de diferentes situaciones. Por ejemplo: un caudal

de agua es similar a una corriente eléctrica, por la primera circulan unidades denominadas gotas

compuestas de oxígeno e hidrógeno. En ese mismo orden, una gran cantidad de electrones libres

que circulan por un cable conductor conforman una corriente eléctrica. Ambos conceptos

presentan paralelismos transformándose en mecanismos de creatividad y descubrimientos

148

MIT Encyclopedia of Cognitive Sciences. Analogy, Concepto de: Véase. Incluye los conceptos y procesos de Mapping y Evaluación.

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

de

Inve

stig

ació

n A

bst

ract

a.

Page 153: La investigación científica avanzada primera edición 2015

152

científicos. Es a través de los procesos de analogías cuando una representación abstracta pasa a

crear otra, una segunda categoría relacional.

Varios pasos son necesarios para crear analogías lógicas consistentes, el Mapping, proceso

mediante el cual se crea la estructura representacional de un caso y se le proyecta sobre otro. La

Evaluación, contiene dos sub-procesos más: la adaptación o representación y la abstracción. En

el primero se emparejan procesos análogos, en la segunda, se hace converger todo lo análogo en

una misma estructura. De manera que se aisle conceptualmente una o algunas propiedades del

objeto, cosa o materia sometida a análisis, logrando así conservar sólo lo que el científico

necesita, desechando todo aquello que no provea carga informativa.

7.2.1.- El Conocimiento Abstractivo

Se entiende por conocimiento abstractivo a aquel que prescinde de la realidad, hace caso

omiso a ella mientras la cosa abstraída permanezca en el plano abstracto. Se le estima como un

tipo de conocimiento donde media la razón, es básicamente un conocimiento mediato alimentado

por la intuición. Según Guerrero149

(2002, p.226); el conocimiento abstractivo es mediato, no

tiene que ver con la existencia de la cosa y se limita a formar proposiciones sobre las

representaciones de los objetos singulares en la mente. Todo concepto científico es una

abstracción, pues, permaneció escondido hasta se le extrajo, aplicando intrincados protocolos

operacionales del método de la ciencia. A este tipo de conocimiento se le deduce como la

captación misma de la esencia de la cosa, el objeto abstraído queda momentáneamente en

suspenso mientras se identifica su esencia, si es que la tiene, o si es que existe. Para ello

prescinde de la existencia del objeto.

7.2.2.- Clases Abstractas y Elementos Abstractivos

El conocimiento abstractivo genera clases abstractivas150

, un conjunto de eventos es

denominado una clase abstractiva si (i): para cualquiera de sus dos miembros, uno se extiende

149

Guerrero, Rafael. (2002). Historia de la Filosofía Medieval. Capítulo referido a: La Filosofía del Mundo Islámico. Ediciones Akal. 150

Tomado e interpretado desde: An Enquiry Concerning The Principles of Natural Knowledge. (2011). Dedicado a Eric Alfred Whitehead.

Cambridge University Press. Véase También: Whitehead (1917). The Anatomy of Some Scientific Ideas. Revísese: Alfred North Whitehead. Principia Mathematica (1910).

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

de

Inve

stig

ació

n A

bst

ract

a.

Page 154: La investigación científica avanzada primera edición 2015

153

sobre el otro; y (ii): si no hay ningún evento que se extienda sobre cada evento de la serie. Quiere

decir, las clases abstractivas forman una serie en que el predecesor se extiende sobre el sucesor

sin término final (Intente construir sobre un cuadrado, una serie de cuadrados cada vez más

pequeños, uno dentro de otro, y observará que se extienden sin final). El primer miembro de la

serie tiene como parte a su sucesor y así indefinidamente.

Entonces un elemento de la serie no puede sino provenir de su antecesor y tener como parte a

su sucesor. Esto evita la indiferenciación entre miembros de una misma clase, o miembros de la

serie, como existe un orden entonces existe una relación asimétrica. Para cada clase abstracta

existe al menos un método abstracto, es decir, un método declarado para una clase particular.

Este método para diferenciar clases declarado por Whitehead pertenece únicamente a las clases

abstractas de la lógica matemática, no obstante, describe exactamente lo que pasa en el cerebro

cuando la mente le sigue la pista a las ideas y las conforma. Es básicamente la génesis de toda

idea científica.

7.2.3.- Intuición, Abstracción y Descubrimiento Científico

Robert Hooke en 1665 descubre la existencia de células, la unidad básica de anatomía.

Permitiéndoles de esta manera a los biólogos, entender mejor el funcionamiento de los

organismos vivos. Hooke intuyó y luego abstrajo la idea de la existencia de algo, basado en el

hecho de que si en el universo existían cosas inmensamente grandes, dentro del cuerpo humano

debiesen existir también cosas pero mucho más pequeñas. Si Galileo con su telescopio pudo

observar planetas, un instrumento parecido le permitiría ver cosas diminutas. Así fue como usó

al microscopio para la observación dentro de la estructura del cuerpo humano.

Benjamín Franklin en 1746, sospechaba que la estática y la iluminación eran dos formas

distintas de la misma cosa. Su experimento de la electricidad, basado en ideas abstractas y

conjeturas observacionales, consistió en una de las más famosas aplicaciones de este tipo de

Investigación Abstracta. Cuyo resultado, en 1752 develó la verdadera naturaleza de la

electricidad. En 1790, Benjamín Thompson, descubre la naturaleza del calor. En 1846, William

Thomas Morton, dentista estadounidense junto a otro científico, sintetizó las funciones del óxido

nitroso y el éter etílico para ser usados en una operación. Allí observaron la ausencia de dolor en

el paciente, posterior al suministro de un éter derivado de la combinación previa. Se había hecho

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

de

Inve

stig

ació

n A

bst

ract

a.

Page 155: La investigación científica avanzada primera edición 2015

154

efectivo el descubrimiento de la Anestesia151

.

7.2.4.- Ciencias Abstractas y Ciencias Concretas

Las Ciencias Abstractas152

operan con conceptos equivalentes de modo bajo los cuales la

facultad de percibir discrimina objetos. Las concretas asimilan sus conceptos introduciendo los

contenidos de la percepción en el objeto. Ambas parten de las percepciones: <<Sensación –

Impresión y almacenamiento de los impreso>> Las Ciencias Abstractas se edifican a través de

los modos de percepción. Las concretas se direccionan sobre el contenido de lo percibido. Ahora,

los dos modos bajo los cuales el científico percibe y separa o discrimina impresiones de los

sentidos son: tiempo y espacio. Las ciencias abstractas subsumen, en general, con relaciones de

discriminación, aplicando por igual tiempo y espacio sin centrarse en el modo de percepción. No

obstante, y según la clasificación de Spencer, el lenguaje de las ciencias abstractas ha de

identificar el cómo, el espacio y el tiempo son pensados, pues, allí no siempre hay una

encarnación concreta de cualquier cosa sobre la que se haga referencia.

Entonces, la relación general de discriminación puede ser cualitativa o cuantitativa. Si se

especifican solo cualidades y se les interpreta serán entonces cualitativas. Caso contrario, al

operar con las cuantitativas se ha optado por hacer uso de la lógica y las matemáticas, allí se

discuten y descubren leyes para las cuales se identifican y discriminan cosas, o comúnmente

como se les denomina, leyes del pensamiento. El espacio y el tiempo guían al científico hacia la

concepción de cantidad y número, entonces, existe una amplia gama de Ciencias Abstractas que

operan con cantidades y números. Sobre la existencia del espacio y el tiempo Spencer alega153

:

Ya sea como algunos sostienen, Espacio y tiempo son formas de pensamiento;

o como yo sostengo, son las formas de las cosas, que se han convertido

formas de pensamiento a través de la experiencia organizada y heredada

de cosas; no es menos cierto que el espacio y el tiempo son contrastados

absolutamente con las existencias reveladas a nosotros en el espacio y el tiempo;

y que las ciencias que se ocupan exclusivamente de espacio y tiempo,

están separadas por la más profunda de todas las distinciones de las Ciencias

que se ocupan de las existencias que contienen espacio y el tiempo. Espacio

es el resumen de todas las relaciones de convivencia. El tiempo es el resumen

151

Todos estos descubrimientos son detallados en: Kendall Haven (2007). 100 Greatest Science Discoveries of All Time. Véase. 152

Parte del contenido de esta sección fue extraído, adaptado y reinterpretado desde: Karl Pearson. (1900). The Grammar of Science.

Especialmente el Capítulo XII: Spencer´s Classification. Véase También: David Hume. (1739). Treatise of Human Nature. Section VII: Of Abstract Ideas. 153

Esta cita aparece en Pearson Op. Cit. P. 511.

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

de

Inve

stig

ació

n A

bst

ract

a.

Page 156: La investigación científica avanzada primera edición 2015

155

de todas las relaciones de secuencia. Y tratar como lo hacen en su totalidad con

las relaciones de convivencia y la secuencia en su general o especial

formas, Lógica y Matemáticas conforman una clase de las Ciencias más

ampliamente diferenciada del resto, que cualquiera de las demás puede provenir de la

una o de la otra.

Esta nota presenta una clara distinción entre la realidad fenoménica de espacio y tiempo,

contra su modalidad perceptual y sus concepciones equivalentes. Nociones conceptuales de

espacio geométrico y tiempo absoluto. Entonces, asúmase al espacio y el tiempo como formas de

percepción abstracta dignas de ser usadas en una investigación del mismo tipo. Abstraer en

ciencias es sencillamente apreciar el cómo nuestro cerebro se deleita con nuestro intelecto, es

encontrar lo que no existe buscando en ningún lugar. La abstracción puede proporcionar piedras

de tropiezo para la gente con inteligencia extraña. Gustave Flaubert.

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

de

Inve

stig

ació

n A

bst

ract

a.

Page 157: La investigación científica avanzada primera edición 2015

156

7.3.- Los Programas de Investigación Explicativos Puros

e denomina Explicación Científica Pura al arte de organizar un discurso amplio y

coherente donde se responda al porqué, cómo, para qué o cuándo de un evento. La

Explicación permite determinar aquello indeterminado, dejando claro y terso el carácter

problemático, y no completamente comprendido de alguna cosa. La Explicación Pura no

involucra causas, no las necesita, al usarlas se convierte en una Investigación Explicativa Causal

alejándose de su pureza. Allí se omiten leyes científicas, no las relaciona, pero debe basarse en

alguna teoría, secuencia o patrón explicativo. Explicar significa expandir el entendimiento,

separando partes cuyas unidades ameritan de independencia para así sustituir lo impreciso por lo

preciso. Separadas las partes, se establece el tipo de conexión de cada cosa dentro de un

fenómeno para con ello comparar dimensiones.

El primer paso para que se suceda el entendimiento, consiste en la desidentificación,

proceso mediante el cual, el sujeto cognoscente, pierde la identidad de aquello, o con aquello que

hasta cierto momento aceptaba y conocía como verdadero, como esencia cierta o vaga sobre la

cosa. Y pasa entonces a formarse una nueva esencia de ella mediada por la razón y soportada en

la explicación. El entendimiento consiste en un paso operativo de la mente y la intuición sensible

pero influenciada por un discurso explicativo que hace mover unidades cognoscentes. De hecho,

la esencia de lo que se sabía, simplemente ha sido movida en la conciencia, y esto no se ha

sucedido sino por la acción de una inteligencia remota operacionalizada sobre otra. He aquí la

esencia del acto explicativo puro.

La separación de cada parte independiente, y su respectivo encadenamiento en eslabones

cognoscitivos, se produce única y exclusivamente a través de la coherencia discursiva. No es

sino hasta que el acto de entendimiento ha sido perfeccionado, cuando la comprensión entra en el

juego. Ésta se activa cuando, alcanzado el estado de lucidez máxima a través del entendimiento,

el sujeto operacionaliza acciones, es decir, actúa en determinada dirección justificada por una

explicación que asienta sus bases en la demostración. Siendo así, entonces entender es percibir,

S

Una explicación bien sustentada y debidamente hilvanada, maravilla, deleita y sacia al entendimiento del hombre común. Además, penetra hasta lo más hondo de la mente del escéptico, imposibilitándolo a esgrimir argumento alguno en contra. La explicación perfecta no solo existe, sino que ha de ser alcanzada a toda costa.

Roiman Valbuena.

Page 158: La investigación científica avanzada primera edición 2015

157

comprender es actuar en determinada dirección. Es donde se dice que la explicación actúa como

una acción que penetra en lo anterior, reconstruyéndolo y moviéndolo hacia un posterior. Es en

este estadio de excitación sobre el sujeto cognoscente, donde el agente científico hace uso y gala

de la fuerza de su inteligencia, ornamentando sus discursos, hasta lograr la Explicación Perfecta.

La Explicación es un acto expresado en presente continuo, indica una serie de pasos para un

mismo asunto y toma cierto tiempo. Lo Explicado, es la acción finalizada afirmándose la

completud del proceso basado en el principio de la evidencia y el de la razón suficiente. Si hay

algo que diferencia al hombre de ciencia del sofista, es su capacidad de demostrar en vez de

persuadir. La demostración amerita de explicación e involucra convencimiento, y la explicación

abre paso a la acción de comprender. Para ser efectivo en la segunda, ha de afinarse la primera.

Aunque ciertas cosas pueden explicarse sin llegar a comprenderse (Explicación Imperfecta).

El objetivo general de una Investigación Explicativa Pura es ilustrar con conceptos, y a través de

un discurso sobrio y coherente, la pregunta de investigación. Extendiendo sus alcances, más allá

de la simple descripción. Un discurso explicativo bien hilvanado, ha de contener detalles del

cuerpo de conocimientos que hacen entendible las concomitancias fenoménicas del evento

aludido, facilitando la asimilación mental de la realidad por la razón.

El resultado de una Investigación Explicativa Pura ha de conducir a un conocimiento

profundo del cómo y los porqués. Es la evidencia que patentiza un correcto discurrir

metodológico, pues, el investigador ha organizado magistralmente una estructura argumentativa

profunda a través de un procesamiento lexicológico o infográfico adecuado. Demostrando así,

excelentes hábitos de clasificación y pensamiento lógico. El objetivo de la ciencia es explicar

cosas, entonces el científico se convierte en un explicador de cosas.

Toda explicación involucra enunciados que afirman o niegan algo, es decir, razones y sus

argumentos, y como las explicaciones no siempre se ajustan a las leyes de cobertura pero su

intensión ha de ser alcanzarlas, entonces se hacen necesarias las Inferencias Explicativas.

Constituyéndose éstas en un tipo de inferencia originada a partir de un conjunto de datos de una

hipótesis, hacen mención a una estructura o proceso que fácilmente podría ser explicado por la

data. Cuando se hace uso de hipótesis e inferencias en un discurso explicativo, se ha optado por

los mecanismos de la razón, entonces, ha de estarse claro en no confundir Pensar con

Pensamiento154

, pues, pueden añadirse conjeturas erróneas a lo explicado, ya que es menester

154

El pensamiento es una entidad intemporal e inespacial, invariable y no psíquica. El objeto de la lógica es el pensamiento, pues, estudia su

estructura, relaciones y formas con independencia de los actos psíquicos y de los contenidos intencionales. Los pensamientos tienen una realidad formal distinta. El pensar por su lado, es un acto psíquico que tiene lugar en el tiempo. Puede ser mostrado y no demostrado. El producto de lo pensado es siempre intencional, contrariamente, el producto del pensamiento es razonado. Las inferencias explicativas y las hipótesis, son producto del pensamiento, de la razón y no del acto de pensar. Ferrater Mora (2000). Concepto de Pensamiento, Pensar. Véase.

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

de

Inve

stig

ació

n E

xplic

ativ

os

Pu

ros.

Page 159: La investigación científica avanzada primera edición 2015

158

hacer distinción entre lo que pertenece a la sicología y lo que pertenece a la lógica, la explicación

amerita de lógica, no de sicología, la sicología nunca ha sido y nunca llegará a ser demostrable.

Una explicación no viene sola, se construye a través de dos bloques esenciales, el

Explanandum y el Explanans155

. El Explanandum <<Explicandum>>se convierte en cualquier

cosa que amerite o necesite ser explicada, y el Explanans <<Explicans>> aquella cosa sobre la

cual recae la explicación, ya sea como causa, evento antecedente o condición necesaria. El

Explanandum se convertirá en la conclusión del argumento, pero las premisas son los Explanans.

A continuación se presentan algunos tipos de explicaciones algo relacionadas con las puras.

7.3.1.- Las Explicaciones Nomológicas [Deductivas e Inductivas]

En base a que todas las explicaciones poseen direccionalidad. Hempel156

(1965), propuso un

modelo Nomológico Deductivo (N -D). Allí se afirma que una explicación es un argumento que

deduce una descripción de los hechos a ser explicados desde leyes generales y descripciones de

hechos observados. Para que el Explanans pueda explicar exitosamente el Explanandum, deben

darse ciertas condiciones. Primero, el Explanandum debe derivarse como consecuencia lógica

del Explanans, y las sentencias que constituyen a este último han de ser verdaderas. En este

modelo se asume que el Explanans ha de contener al menos una ley natural.

De acuerdo a Friedman y Kitcher157

(1974), una explicación radica en un proceso de aplicar

un esquema, y un esquema de explicación consiste en un objetivo explicación, que es una

cuestión que debe resolverse, además de un patrón explicativo, que proporciona una forma

general de responder a la pregunta. El concepto de Explicación Inductiva descansa en el hecho

de que es un concepto epistémico no confirmable. Siendo así, una explicación inductiva se

convierte en probabilística y su conocimiento será, por consiguiente, conocimiento improbable e

incompleto. Aquí no es posible usar la teoría general de la confirmación. Una explicación

probabilística inductiva refiere casos específicos a hipótesis generales, donde cada uno de los

fenómenos específicos representa casos158

.

Entonces, para poder ejecutar explicaciones medianamente aceptables, ha de recurrirse a

155

GORDON MARSHALL. "Explanandum and Explanans (Explicandum and Explicans)." A Dictionary of Sociology. 1998. Encyclopedia.com. 2

May. 2015 <http://www.encyclopedia.com>. 156

Hempel, C. G. (1965). Aspects of Scientific Explanation. New York: Free Press. 157

Citados en MIT Cognitive Science. Explanation Concepto de: Véase. 158

Carl Gustav Hempel (2005). La Explicación Científica: Estudios sobre Filosofía de la Ciencia. Editorial Paidós.

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

de

Inve

stig

ació

n E

xplic

ativ

os

Pu

ros.

R

oim

an V

alb

uen

a: L

os

Pro

gram

as d

e In

vest

igac

ión

Exp

licat

ivo

s P

uro

s.

Page 160: La investigación científica avanzada primera edición 2015

159

teorías que operacionalicen la probabilidad de las hipótesis, estas son dos: las lógicas, que

conciben a la probabilidad como una relación lógica entre sus proposiciones. Y las teorías

estadísticas, que interpreta la probabilidad de la hipótesis como el límite de la frecuencia relativa

de sus casos confirmatorios, entre todos los casos atinentes a la cuestión, Hempel Op. Cit. (P.

20). Como la Explicación Inductiva es Probabilística, entonces se continuarán en el apartado

siguiente.

7.3.2.- Las Explicaciones Probabilísticas

Reciben el nombre de explicaciones estadísticas o probabilísticas, a una clase de explicación

de leyes basadas en un parámetro que debe ser interpretado. Este tipo de explicaciones son del

tipo inductivo, y su diferencia según Salmon159

, contra las del tipo deductivo, radica

fundamentalmente sobre la pregunta de si la relación entre el Explanans y el Explanandum ha de

ser entendida como una relación de alta probabilidad, o como una de relevancia estadística.

Sus interconexiones son expresadas usualmente en términos de funciones matemáticas.

Hempel afirma que los argumentos en este tipo de explicaciones pueden ser usados no solo para

contar hechos particulares o eventos, sino regularidades generales también. Las cuales, en este

caso, han de presentar características estadísticas. No obstante, uno de sus peculiares problemas

lógicos se refiere a la sistematización de la explicación. Esta toma el rol de sentencia

probabilística en la explicación, predicción y post dicción de eventos individuales o un finito

conjunto de tales. A continuación dos ejemplos de explicaciones, inductivas y deductivas.

Explicación Deductiva: Forma Lógica de la Explicación:

Este cristal de roca de sal, cuando se le coloca en

un mechero encendido, torna la flama amarilla

porque es una sal de sodio, y todas las sales de

sodio desprenden un color amarillo al colocárseles

en un mechero encendido.

Todos los ―F‖ son ―G‖

X es ―F‖

X es ―G‖

Explicación Inductiva: Forma Lógica de la Explicación:

John Jones estaba casi seguro de recobrarse

rápidamente de su infección por estreptococos, a él

le fue administrada penicilina, y casi todos los

casos de infección por estreptococos se recuperan

rápidamente posteriores a la administración de

penicilina.

Casi Todos los ―F‖ son ―G‖

X es ―F‖

X es ―G‖

159

Wesley, Salmon. Aparece en: The Nature and Function of Scientific Theories: Essays in Contemporary Science and Philosophy. (1970).

Editado por: Robert Colodny. University Pittsburgh Press.

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

de

Inve

stig

ació

n E

xplic

ativ

os

Pu

ros.

Page 161: La investigación científica avanzada primera edición 2015

160

Resulta evidente la diferencia entre los ejemplos. Primero, la premisa mayor en el caso

deductivo es una generalización universal. No obstante, la premisa mayor en el segundo caso es

una generalización estadística, pues, no está demostrado que TODOS los casos de infecciones

por estreptococos sean curados con penicilina, bastará con que uno solo no lo sea para dejar

inválida la generalización. El doble lineado del segundo caso indica que la conclusión sigue a un

argumento inductivo160

.

7.3.3.- Las Explicaciones Funcionales

Se denomina Explicación Funcional a aquella que se ejecuta sobre un objeto o cosa, la cual,

formando parte de un sistema como un todo, ejerce una ocupación específica en su

mantenimiento. Este tipo de explicaciones surge de preguntas como: ¿Cuál es la función de la

sangre en el cuerpo humano?, allí su Explanans podría sugerir lo siguiente: la sangre sirve para

proporcionar un óptimo intercambio gaseoso, transporta oxígeno y nutrientes a los diferentes

órganos del cuerpo. Las explicaciones funcionales son muy comúnmente denominadas

explicaciones teleológicas <<explicaciones del fin de cada cosa>> Indican que algo tiene un fin

o un propósito determinado. Implican la ejecución de actos consecutivos <<sistematicidad>> y

tienen proyecciones futuras si la cosa mencionada no opera debidamente.

Una Explicación Funcional podría hacer uso o no de descripciones o descomposiciones

funcionales. Una descomposición funcional consiste en una explicación sicológica aplicada

sobre la cosa aludida, allí se coordinan actividades o secuencias individuales para cada

componente creando un orden explicativo para cada unidad. Una explicación funcional también

podrá hacer uso de las Teorías de la Acción o del Mecanismo; del Funcionalismo o del

Conexionismo161

. En sus formulaciones más simples, la Teoría del Mecanismo es bien conocida

por tratarse de una ciencia aplicada, allí se usan ecuaciones y modelos matemáticos en el estudio

y diseño de máquinas que ameritan de la aplicación de fuerzas físicas. La máquina es la ―cosa‖

que realiza algún trabajo, en cambio, al mecanismo se le concibe como al conjunto de elementos

que forman parte constituyente de tal máquina y sobre los cuales, como unidad, recae la

explicación.

160

Wesley Salmon, Op.cit. p. 176. Véase. 161

Todos estos conceptos aparecen en: MIT Encyclopedia of Cognitive Sciences.

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

de

Inve

stig

ació

n E

xplic

ativ

os

Pu

ros.

Page 162: La investigación científica avanzada primera edición 2015

161

El Funcionalismo162

por su lado, es estudiado por la filosofía de la mente. Opera sobre las

actividades que ejecutan la cosa o elemento aludido sin importar su estructura o composición

física. De acuerdo a la tesis funcionalista, la mente es un sistema físico con un conjunto de

posibles estados inducidos por elementos internos y externos. Basado en estas premisas, un

cambio en el estado externo de la máquina puede inducir a oscilaciones en el comportamiento de

los elementos internos a ella. Por lo que la explicación habrá de cubrir exhaustivamente estos

casos si no existiere causa efecto que involucre a alguna ley natural, pues dejaría de ser una

explicación pura para convertirse en una explicación causal. Contrario a la teoría del mecanismo,

donde sí hay referentes físicos, una explicación bajo la tesis funcionalista puede ser inmaterial o

sin referentes físico alguno. Pues, no todas las relaciones causales recaen sobre objetos o cosas

con referentes físicos.

La tesis Conexionista afirma que la mente posee un modelo de conexión propio al igual que

una red de neuronas. No obstante, se centra en hacer representaciones funcionales usando

básicamente análisis matemáticos de patrones de actividades internos al sistema. Para ello opta

por teorías de la representación apelando a conceptos como prototipos. Aunque este modelo

también tiene sus teorías contrapuestas. Hay quienes afirman que una representación

conexionista carece de partes constituyentes, debido a ello estos modelos no pueden explicar

sistematicidad. Y, si se toma en cuenta el concepto de sistematicidad desde el punto de vista

sicológico, no haría falta el conexionismo. Pues, cualquier evento funcionalista podría ser

explicado por cualquier teoría de la mente por muy simple que esta sea163

.

7.3.4.- Las Explicaciones Genéticas

Las Explicaciones Genéticas consisten en un modelo de explicación causal donde se

presenta una secuencia de eventos, y cuyo objetivo central gravita en indagar sobre el evento

primario, es decir, la génesis de toda la cadena de causas. Donde el último será verdadero si y

solo si, se demuestra que está unido al evento primario a través de eslabones consecutivos. El

lector no ha de confundirlo con la Explicación Genética en el sentido Mendeliano del término, o

162

A continuación un aporte de Hempel desde el punto de vista epistemológico hacia las Explicaciones Funcionales: <<La información que

típicamente nos proporciona el análisis funcional de un ítem i, no brinda un fundamento adecuado deductivo ni inductivo para preferir a “I” sobre cualquier otra de sus alternativas. La impresión de que el análisis funcional efectivamente proporciona este fundamento, y por tanto explica la ocurrencia de i, se debe sin duda, por lo menos en parte, al beneficio del conocimiento post facto: cuando tratamos de explicar un ítem i, ya sabemos presumiblemente que i ha ocurrido>>. Aparece en: Estany, Ana (2006, p.238). Introducción a la Filosofía de la Ciencia. Universidad Autónoma de Barcelona. Aparte referido a: La Explicación Científica. Véase. 163

Jerry Fodor y Zenon PyLyshyn, citados en: MIT Encyclopedia of Cognitive Sciences. (p. 186). Véase.

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

de

Inve

stig

ació

n E

xplic

ativ

os

Pu

ros.

Page 163: La investigación científica avanzada primera edición 2015

162

de Epigenómenos, enfermedades de origen genético. En una explicación genética, o de

consecución de la causa primaria164

, ha de mostrase y correctamente explicarse, el conjunto

lógico y completo de los componentes de relaciones causales. En vista de que este tipo de

explicación involucra causas, se pide al lector indagar sobre el asunto en el apartado referido a

los Programas de Investigación Explicativos Causales.

7.3.5.- Las 3 Condiciones de Inexplicabilidad165

En vista de que la irracionalidad tiene su lógica, la Inexplicabilidad también la tiene.

Denomínese Inexplicabilidad científica a aquellas situaciones donde los hechos no pueden ser

satisfechos por el conjunto de mecanismos usados para explicarlos, es decir, el Explanans es

insuficiente o no satisfactorio para explicar al Explanandum. Varias pueden ser las razones,

según Hempel, una baja probabilidad en eventos aleatorios es inexplicable, además, las

identidades en un sistema no merecen explicación. No obstante, en cada ciencia hay y existe

siempre algo inexplicable. Pero, ¿Qué es lo último que debe ser explicado?; ¿En qué consiste la

idea de Inexplicabilidad? Para Achinstein, las 3 condiciones de Inexplicabilidad se describen a

continuación:

Condición I: lo explicable puede ser formulado como una pregunta indirecta ―q‖ cuya forma

directa es ―Q‖. Y se iniciará con explicabilidad relativa al conjunto de instrucciones ―I‖.

Entendiéndose como Inexplicabilidad en la forma que cualquier satisfacción ―I‖ sea denegada.

Regla 1: Producto Visual de Explicación e Inexplicabilidad: [―q‖ es explicable en la forma

que satisface ―I‖ si y solo si, (Ǝx) (―x‖ es una explicación de ―q‖ que satisface ―I‖].

Condición II: Teoría del Par Ordenado: [―x‖ es una explicación de ―q‖ que satisface ―I‖ si

y solo si, ―x‖ es un par ordenado cuyo primer miembro es un contenido proposicional dado con

respecto a ―Q‖ que satisface ―I‖, y cuyo segundo miembro actúa como explicador] Por ejemplo:

a la pregunta del ¿Cómo fueron creadas las especies?, en el amplio sentido de explicabilidad

164

Posterior a haber llegado a algunas conclusiones respecto a la voluntad como causa, es posible afirmar: sólo lo conocido o, la única voluntad

que podemos lógicamente inferir que existe, no está, de ninguna manera, asociada a un poder arbitrario que origine, altere o detenga un movimiento. Esto pareciese ser sólo una causa secundaria, como un estado en una rutina, pero uno donde el lado cognoscible de la rutina cambia de lo físico a lo físico. Algo fuera de allí es imposible ser estudiado por la ciencia. En este accionar no yace poder alguno que origine tal secuencia de movimientos. Entonces es aquí donde nuestra ignorancia comienza. Por esta razón, no podemos inferir sobre la posibilidad de la existencia de una primera causa, pues no existe nada para soportarlo lógicamente en nuestra experiencia. Razón por la cual no es posible pasar de lo conocido hacia algo totalmente diferente en lo desconocido. La ciencia no sabe nada de las primeras causas, lo que marca un permanente o temporal límite a nuestro conocimiento. Pues, sería un error inferir algo más allá de nuestra impresión sensorial donde el conocimiento y la inferencia son palabras sin sentido. Para ello habría que estudiarse a la ignorancia dentro de la esfera del conocimiento. Entonces, en una causa genética, nuestra ignorancia comienza. Karl Pearson, The Grammar of Science. P.127 y ss. Adaptado y reinterpretado por el autor. Véase. 165

Los conceptos de este aparte son extraídos desde: Achinstein, Peter. (1983). The Nature of Explanations. Capítulo referido a: The Limits of

Explanations. Oxford University Press.

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

de

Inve

stig

ació

n E

xplic

ativ

os

Pu

ros.

Page 164: La investigación científica avanzada primera edición 2015

163

expresado en (I), Las especies fueron creadas por los deseos de Dios de la existencia. Esta

última frase representa la respuesta a cómo fueron creadas las especies. Así mismo, como

proposición, la explicativa, satisface al conjunto de instrucciones para la respuesta encontrada en

la biblia.

En otro sentido, [―q‖ es inexplicable en la forma que satisface ―I‖ si y solo si es posible, (Ǝa)(

Ǝs)( Ǝu)(―a‖ es un acto en el cual ―s‖ explica ―q‖ pronunciando ―u‖, y ―u‖ expresa una

proposición que satisface ―I‖] [―q‖ es correctamente explicable en la forma de satisfacer ―I‖,

si y solo si, ―x‖ es una explicación de ―q‖ que satisface ―I‖, y ―x‖ es correcta]En este caso,

cualquier proposición se tornará incorrecta siempre que sus proposiciones constituyentes sean

falsas.

Condición III: una explicabilidad podrá ser construida para significar no solo lo

correctamente explicable, sino también, lo apropiadamente explicado. Es decir, ha de ser

explicada de tal forma que sean satisfechas las instrucciones apropiadas. [―q‖ es (correcta y

apropiadamente) explicable en la forma que satisface ―I‖, si y solo si, (Ǝx) ―x‖ es una

explicación de ―q‖ que satisface ―I‖, y ―x‖ es correcta, e ―I‖ representa a un conjunto apropiado

de instrucciones a seguir para la explicación de ―q‖.

Existen diferentes razones para que ―q‖ pueda no ser explicada en la forma que satisfaga ―I‖.

Una posibilidad es que ―I‖ no es satisfacible por ninguna vía. Segundo, incluso si las

instrucciones han sido satisfechas, cualquier respuesta que satisfaga ―I‖ podría ser incorrecta; en

el caso de que ―q‖ pueda ser no explicable para las condiciones (II) y (III). Tercero, incluso si

―q‖ puede ser respondido correctamente en la forma que satisfaga ―I‖, lo siguiente podría no ser

un conjunto apropiado de instrucciones a seguir para explicar ―q‖; si es así, entonces ―q‖ es

inexplicable en el sentido de (III), incluso siendo explicable para (I) y (II).

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

de

Inve

stig

ació

n E

xplic

ativ

os

Pu

ros.

Page 165: La investigación científica avanzada primera edición 2015

164

7.4.- Los Programas de Investigación Explicativos – Causales

e denomina Programa de Investigación Explicativo Causal, a la acción científica

mediante la cual, el investigador describe y esclarece la conexión necesaria y suficiente

entre al menos dos cosas o eventos. Donde el segundo evento, denominado efecto, está

condicionado por el primero, llamado causa o agente causal, en tiempo y espacio. Es decir, no

existe más efecto que donde hay una causa <<Principio de Causalidad Universal>> Las

Explicaciones Causales, contrario a las puras, ameritan de leyes y teorías para hacer entender las

causas, desde ese punto de vista, el sujeto de conocimiento contiene carga teórica. En otras

palabras, dependen de una teoría o cadena de explicaciones sistemáticas que las ilustren. El fin

de toda Investigación Explicativa Causal es hacer efectivo el convencimiento de que tal causa,

produce determinado efecto. Para ello amerita de la eliminación, total y absoluta, de vacíos

explicativos.

Se concibe entonces como Explicación Causal, a aquella que subsume a la explicación

direccionada sobre alguna ley causal, y la cual pertenece a alguna teoría de causalidad. Será

entendida como Explicación Causal simple, si y solo si, con una sola ley o teoría es suficiente

para hacer entender el cómo determinado efecto es producto de determinada causa.

Contrariamente, si determinado efecto es producto de variados orígenes causales, no pudiendo

ser éste explicado con una sola ley o teoría, el investigador debe hacer gala de su destreza

optando por un Programa de Investigación Causal Explicativo de varios niveles.

Según explica Hegel, la verdad del fenómeno Causa - Efecto, consiste en una relación

esencial; hay algo que media entre la causa y su efecto. Una relación siempre tiene dos lados,

pues, hay una acción existente <<Causa>> y una acción reflejada <<Efecto>>, donde cada lado

representa un subsistema independiente. Esta relación esencial contiene la unión determinada de

ambas. Un efecto no es más que un reflejo de su causa, donde cada determinación representa un

lado. Entonces, una relación Causa - Efecto no podrá tratarse por separado, ambas son lo mismo

pero con polos opuestos. El efecto sólo existe porque su causa también existe, está unido él

S

Creo que todo lo que hacemos o vivimos tiene su causalidad, eso es bueno, sin embargo, no

podemos ver a través de ella.

Albert Einstein.

Page 166: La investigación científica avanzada primera edición 2015

165

mismo con su otro. Por eso, cada efecto tiene una existencia independiente y es reflexión

esencial de sí misma166

.

La Causa y el Efecto comparten una relación estricta de paralelismo o equivalencia. Según el

Principio de Identidad, un efecto comparte propiedades con su causa que los hacen parecer

iguales. Empero, hay independencia de acciones y sucesiones del uno con el otro. Toda fuerza es

una causa, la misma funciona como el agente causal que provoca cambios y hace mover

mecanismos. Cuando alguien pregunta por un suceso, no está sino haciendo referencia a sus

causas. Entonces, causa y explicación están separados únicamente por la dialéctica aplicada

sobre el hecho causal descrito.

En ese sentido, Hegel afirma que, en una relación Causa – Efecto, el segundo es producto del

primero, es decir, no existe un inmediato <<A menos que concurra contacto físico>>, sino, una

relación de independencia reflejada en el efecto, cuyo único origen es su opuesto, denominado

causa. Entonces, hay una relación entre el condicionado <<Efecto>> y su condición <<Causa>>,

que determina la sucedencia como acción recíproca. Como un efecto primario puede convertirse

en causa para un eslabón secundario, en una cadena infinita, entonces sólo existe una explicación

posible; Una Causa y su Efecto conforman una relación entre un todo y sus partes, es decir,

tienen vidas separadas pero pertenecen a un mismo sistema, donde cada parte está

recíprocamente condicionada. Entonces, y para propósitos de este aparte, el fin de una

investigación Explicativa Causal se fundamenta en identificar y clarificar, en qué consiste la

mediación <<Fuerza>> que hace posible un efecto posterior a su causa. Para ello Hegel afirma:

El efecto no contiene, por ende, en general nada, que la causa no contenga.

Inversamente la causa no contiene nada que no se halle en su efecto. La causa es

causa sólo porque produce un efecto, y la causa no es otra cosa que esta

determinación, la de tener un efecto, y el efecto no es otra cosa que el tener una

causa. En la causa misma como tal se halla su efecto, y en el efecto se halla la causa;

si la causa no actuara todavía, o si hubiese cesado de actuar, no sería causa, y el

efecto, cuando su causa ha desaparecido, ya no es efecto, sino una realidad

diferente167

.

En su formulación más simple, no deberá entenderse a la Causalidad igual al Principio de la

Razón Suficiente, causalidad es explicar qué fuerza media y se manifiesta entre ésta y su efecto.

La Razón Suficiente sólo se emplea para elaborar el argumento de causación o inferencia causal.

Según describe Hume (op, cit, p. 42); Si dos objetos, perfectamente parecidos entre sí, se dejan

ver en el mismo lugar a diferentes momentos, y coinciden en la dependencia de uno con respecto

al otro, es evidente que, entre ambos existe una relación y extraña fuerza denominada causa

166

Puede ampliarse el entendimiento de esta relación en la obra de: Hegel. La Ciencia de la Lógica. Capítulo III. “La Relación Esencial”: Véase. 167

Sobre la Relación de Causalidad: La Causalidad Formal. También en Hegel. Véase.

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

de

Inve

stig

ació

n E

xplic

ativ

os

- C

ausa

les.

Page 167: La investigación científica avanzada primera edición 2015

166

efecto. En consonancia con Abdus y Yen168

(2010), Causa y Efecto refiere a una relación entre

dos fenómenos, donde uno es la razón de ocurrencia del otro. Allí, normalmente el término

efecto puede ser estadísticamente explicado como resultado de una Regresión Lineal o un

Análisis de Correlación169

entre dos variables ―X‖, y ―Y‖, explicada como efecto.

7.4.1.- Causación Probabilística

Se manifiesta cuando el agente científico declara una generalización probabilista, donde el

cambio o transición que lleva al efecto, posterior a la causa, consiste en una medida enteramente

posible pero no garantizada. Una Causación Probabilista centra su accionar en un análisis

numérico de las relaciones observadas en el sistema donde interactúan un antecedente y un

consecuente, pudiendo derivarse desde regresiones lineales simples, múltiples o análisis de

correlación. En este tipo de estudios, el efecto no siempre ha de presentarse bajo la causa

adecuada, sobre todo, si existieren Multi agentes causales. Donde, un determinante causal no

siempre, probabilísticamente hablando, ha de ser suficiente para activar el efecto. El hecho de

que exista correlación, numéricamente hablando, entre ambos eventos, no implica bajo ningún

sentido, que una es la causa y la otra el efecto, hasta que el agente científico manifieste y/o

demuestre causalidad.

La existencia de correlación en un proceso causal, puede inducir al científico a derivar

inferencias basadas en la Falacia de la Causa Falsa170

: denominada en ocasiones post hoc, ergo

proter hoc <<Tras esto y, por tanto, a causa de esto>>: consiste en el error de sostener que

debido a la relación entre dos fenómenos, basada únicamente en una analogía numérica, donde

ambos varían conjuntamente <<Existe Concomitancia>>, uno ha de ser la causa del otro. Esta

magnitud numérica sólo aporta ciertos indicios no determinantes sobre la existencia de

causalidad real. El problema surge cuando se admite la evidencia de correlación, como hecho

cierto de causalidad no demostrada e indemostrable.

168

Abdus Wahed y Yen Chib Hsu. Encyclopedia of Research Design. Editada por Salkind, Neil. Concepto de: Cause and Effect. Véase. 169

La Regresión Lineal consiste en un procedimiento estadístico mediante el cual, se busca determinar la relación entre una variable

dependiente y una o más variables explicativas independientes. Se llamará lineal si la curva obtenida como respuesta, y derivada de los datos, se ajusta a una línea recta. Es decir, en su estructura, el comportamiento de la variable dependiente puede explicarse a través de un segundo conjunto de variables independientes. La regresión lineal amerita, en muchos casos, de un Análisis de Regresión: el cual consiste en un mecanismo estadístico basado en un modelo que describe el funcionamiento del evento o fenómeno bajo estudio. Allí es posible predecir los valores de la variable dependiente, pues, está sujeta a cambios, propios de su intrínseca interacción con el sistema donde actúa. Donde, las variables <<Causales>> o independientes, ejercen cierta fuerza o influencia sobre la variable Efectora, de esa manera es posible predecir el comportamiento del efecto conociendo el proceso que da origen a la causa. La correlación por su lado, consiste en un procedimiento mediante el cual, los cambios en una variable se hacen corresponder con cambios en otra. No implicando para nada, la existencia de una extraña fuerza conectora que medie entre ellas. Por lo que habrá de prestarse suma atención a las explicaciones derivadas desde este tipo de análisis. 170

Diccionario Akal de Filosofía (1999), Robert Audi Editor. Cambridge University Press. Falacia de la Causa Falsa, Concepto de: Véase.

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

de

Inve

stig

ació

n E

xplic

ativ

os

- C

ausa

les.

Page 168: La investigación científica avanzada primera edición 2015

167

En estadística, una correlación espuria es aquella en la cual dos acontecimientos carecen de

toda conexión lógica y se evidencia la omisión de un tercer factor no tomado en cuenta. Es decir,

el equilibrio causal presenta alteraciones, existiendo la presencia, denotada en su ausencia, de al

menos un factor determinante causal que discrecionalmente fue omitido, y el cual es

absolutamente necesario para explicar el consecuente. El factor omitido podrá pertenecer a la

cadena causal o transcausalidad, y como explicar consiste en concatenar conceptos, y allí se ha

roto el orden relacional, entonces la correlación espuria hace errónea cualquier explicación del

hecho.

Es posible la detección de una relación espuria a simple vista considerando violación de la

siguiente secuencia lógica: a) Todo evento ―x‖ debe preceder al evento ―y‖, seguimiento de la

cadena causal: b) Si ―y‖ no ocurre entonces ―x‖ nunca ocurrió, relación lógica entre eslabones

transcausales: c) ―y‖ debe ocurrir cada vez que ocurra ―x‖, relación de verdad y conexión lógica

transcausal. Existe y puede darse también el caso de una Correlación Parcial171

. Es decir, se

conoce como correlación parcial entre dos variables a aquella, cuyo coeficiente de correlación

depende de una tercera no tomada en cuenta en las consecuencias relacionales lineales. La

correlación parcial ―X‖; ―Y‖ dado ―Z‖, sirve para identificar en qué escala de medida de la

variación lineal entre ―X‖ y ―Y‖, puede deberse a la correlación de ambas con ―Z‖.

Es bueno recalcar que cuando ―X‖ y ―Y‖ no están correlacionadas con ―Z‖, se obtendrá un

coeficiente de correlación igual al coeficiente de correlación parcial. Evidenciándose que el valor

de la correlación, atribuible y medible en la escala, no se debe en este caso, a la presencia de ―Z‖.

Las Explicaciones Causales probabilista presentan su límite, es decir, existe una demarcación

donde el proceso explicativo debe detenerse, de allí en lo adelante, sólo se admite

experimentación para dilucidar si realmente la magnitud numérica que la identifica se cumple o

no. Esto hace que determinados eventos efectores, o cambios sucedidos en la transcausalidad, no

puedan explicarse si la probabilidad es baja, muchos eventos quedarán a expensas de

demostraciones experimentales puntuales. Entonces, Causalidad no es igual a correlación… la

correlación es solo un concepto estadístico para relaciones lineales, pero fenomenológicamente

medibles, la causa y el efecto son interpretaciones sobre una relación determinística.

171

Tomado de: Dodge, Yadolah (2008). The Consice Encyclopedia of Statistic. Editorial Springer. Concepto de: Partial Correlation, Véase.

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

de

Inve

stig

ació

n E

xplic

ativ

os

- C

ausa

les.

Page 169: La investigación científica avanzada primera edición 2015

168

7.4.2.- Causación Hacia Abajo: Downward Causation

En este aparte se presenta una nueva fuente de causación, la causación hacia abajo, Downward

Causation. Consiste en un proceso explicativo de la causa basada en el Principio Reduccionista:

donde el comportamiento de todo un sistema está determinado, por entero, en base al

comportamiento de sus partes, elementos o subsistema. En este tipo de explicaciones, necesario

es hacer entender, el por qué el todo y sus partes interactúan de esa manera. El proceso causal

hacia abajo involucra, en mayor o menor cuantía, a los conceptos de tiempo, espacio y

causalidad como categorías172

.

En la causación hacia abajo, es menester estratificar un árbol jerárquico por niveles de los

eventos, de manera de poder asociarlos a un determinado eslabón de la cadena transcausal. Allí,

han de explicarse las interacciones en el nivel y los interniveles. Donde la cadena explicativa

debe contener la misma cantidad de eslabones que la cadena causal, es decir, ningún eslabón ha

de exceptuarse del proceso explicativo. Para cada eslabón una explicación, para una cadena, un

conjunto de explicaciones.

7.4.3.- Causación hacia Arriba: Upward Causation

La causación hacia abajo refiere a los efectos que se ejercen desde los niveles altos hacia los

bajos en determinados fenómenos. Contrariamente, la causación hacia arriba, obedece a los

efectos desde los niveles bajos hacia los altos. Ambos podrán coexistir en presencia de la teoría

del mecanismo. Donde se explica el porqué, los eventos percibidos en un fenómeno presentan

determinado orden, incluyendo el por qué se repiten y el cómo éstos ocupan un lugar en un

tiempo específico. Se dice que hay causación, hacia arriba o hacia abajo, cuando un evento en un

momento acciona y ejecuta fuerza sobre otro, de mayor o menor jerarquía. Al primero se le

acepta como primer movimiento mecánico o agente causal, y al segundo, como agente efector y

sobre el cual recae la fuerza aplicada, de allí lo importante no son los movimientos, sino el cómo

es producido por esa fuerza.

En las sociedades democráticas, el poder del pueblo sirve para elegir presidentes. A su vez, el

presidente decreta leyes que han de ser cumplidas por el pueblo, esto es un ejemplo de causación

172

Heylighen (1995). Citado en: Logic and Reality (2008): Sección 8.6.1. Downward Causation: por Joseph Brenner. Editorial Springer.

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

de

Inve

stig

ació

n E

xplic

ativ

os

- C

ausa

les.

Page 170: La investigación científica avanzada primera edición 2015

169

bidireccional, donde cada estudio amerita separación. Toda fuerza es una causa que produce un

movimiento. Si la dinámica de acción entre niveles, hacia abajo o hacia arriba, pero sólo una a la

vez se presenta, se dice que es unidireccional. No obstante, en la interacción interniveles, podrán

presentarse efectos nuevos denominados efectos emergentes. Quiere decir, se producen

únicamente por el estudio Internivel, pudiendo no estar presentes cuando la explicación se

orienta en una sola dirección. Caso muy común en sistemas jerárquicos y asimétricos de

organización.

Un evento en un nivel podrá presentarse también en un nivel superior o inferior. Se

denominará Causación Lateral si existiere dependencia fáctica o contra-fáctica, y manipulación

de energía sobre variables efectoras al mismo nivel. No surtiendo efecto hacia niveles superiores

o inferiores. Toda causación lateral involucra explicación sobre 2 cosas: la fuente de causación y

el por qué no afecta otros niveles. Haciendo entender que la realidad efectora sólo actúa allí.

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

de

Inve

stig

ació

n E

xplic

ativ

os

- C

ausa

les.

Page 171: La investigación científica avanzada primera edición 2015

170

7.5.- Los Programas Exploratorios de Investigación

xplorar significa indagar sobre algo con el fin de descubrir. Es cuando una penumbra

de ignorancia envuelve al fenómeno impidiendo la actuación sobre él. Allí, el

conocimiento se altera cuando el entendimiento se incrementa una vez disipada la nube

que obstaculizaba la observancia del hecho. Toda Investigación Exploratoria produce una

parálisis intelectual al primer acercamiento, entonces el científico, paciente y asertivo,

planificará un ciclo de observaciones intelectualmente rigurosas con las cuales desarrollará un

entendimiento básico. Posteriormente, con una visión integradora y coherente, compilará

pequeñas cantidades de información y se apreciarán nóveles descubrimientos. Es así como la

Investigación Exploratoria consiste en un eslabón intermedio entre la investigación básica y la

aplicada para el desarrollo de un conjunto de actividades prioritarias en áreas específicas.

La Investigación Exploratoria se fundamenta en un procedimiento mediante el cual, el

científico obtiene los primeros vestigios de entendimiento sobre el fenómeno. Observa, compara

y discierne pero no actúa precipitadamente. Observa patrones, compara intervalos de sucedencia

entre eventos y discierne sobre la cercanía o lejanía de ciertas unidades fenoménicas con

respecto a un evento común. Allí agrega unidades de razón a determinada cantidad de

proposiciones, y al concatenarlas construye conceptos, incrementando el entendimiento y

alterando el conocimiento.

Los estudios exploratorios son interesantes cuando existe la ausencia absoluta de

conocimiento… la nada, o simplemente se especula sobre el funcionamiento de algo. En estos

estudios, enfrenta al fenómeno sólo a través de la intuición y los conocimientos a priori. Esta

secuencia bien definida de pasos le admitirá extraer conocimiento máximo. Sin ninguna otra

herramienta, se adentra en el fenómeno buscando vulnerarlo e intentando extraer de él,

comprensión de sus causas haciendo observancia de sus efectos, develando así, el misterioso

mecanismo bajo el cual opera. En un primer acercamiento necesitará excavar hasta la

profundidad de la data con respecto a sus capas de abstracción.

E

Yo nunca hice ninguno de mis descubrimientos a través del proceso de pensamiento racional.

Albert Einstein.

Page 172: La investigación científica avanzada primera edición 2015

171

7.5.1.- Estadio 1: La Mente Exploratoria del Científico

Es en el estadio de abstracción donde un efecto encuentra su causa173

, el científico entrará

en un período de concentración donde captará flashes perceptivos, allí podrá crear y explicarse

sus primeros conceptos para luego concatenar hechos usando únicamente para este primer

estadio, el conocimiento inmediato. No obstante, ameritará del conocimiento mediato, de la

razón, para probar. Como un científico nunca sabe, solo supone a través de medias verdades, ha

de plantearse hipótesis por conjeturas, recogiendo errores por el camino y abriendo paso a

descubrimientos, abstrayendo, comparando y discerniendo, es así como logrará construir ciencia

y él lo sabe. Esto le atrae, si la ciencia fuese fácil no valdría la pena intentarlo.

Cuando el científico, a través de intrincados protocolos operacionales basados en intuición y

deducción, logra establecer un mecanismo audaz de aprendizaje, se sobrevendrán acciones

mentales coercitivas y fundamente informativas que lo guiarán hacia experiencias nuevas. Será

entonces cuando dirija su artillería analítica inscripta en el marco científico de la mente, sobre

todo aquel comportamiento emergente que pueda ser manejado por los mecanismos de la razón.

En la Investigación Exploratoria, este escalamiento razonado consiste en el preámbulo, o

estructura generatriz que el científico pone en marcha cuando aborda un fenómeno nuevo y del

cual no sabe, a ciencia cierta, qué resultados esperar.

Obtenida la primera pequeña cantidad de información, evitará en lo posible toda temeraria

generalización y callará con prudencia hasta que su disciplinada imaginación organice las ideas y

dé paso de lo menos formado a lo más formado. Es entonces cuando el pensamiento produce un

cambio sobre aquello que ha sido pensado. El pensamiento produce el cambio, y la materia,

objeto o cosa pensada lo recibe, dando el primer barniz de entendimiento a un evento

primariamente obscuro. Todo acto de entendimiento concurre con un orden jerárquico de las

propiedades que afloran cuando lo menos formado adquiere una nueva forma, al contrastarse,

deriva en un saber cierto, denomínese a ello, una potencia mental aplicada a un acto exploratorio

que ya ha arrojado su primera evidencia.

173

1628. William Harvey descubre cómo funciona el sistema circulatorio humano. Para la fecha, muchos pensaban que el sonido dentro del

pecho (latidos) eran la voz de la conciencia. Otros creían que la sangre era creada en el hígado para ser consumida por los músculos, y que las arterias sólo contenían aire. Se pensaba también que la sangre de las arterias y las venas era distinta. Harvey mientras más pensaba más dudaba, entonces, dio inicio a una estrategia de pensamiento análisis con cierto toque de disciplina. Experimentó con animales uniéndoles arterias y venas a ver qué pasaba. Trababa la circulación y luego la soltaba para observar hacia donde se dirigía la sangre en cada caso. De allí comprobó que tanto arterias como venas estaban conectadas en un sistema circulatorio simple. Afirmando que la sangre siempre fluye de las arterias a las venas. Detalló que el corazón y sus latidos, actuaba únicamente como músculo que bombeaba sangre a pulmones y arterias. Demostró que la sangre no era consumida, como para la época se pensaba, sino que circulaba continuamente por el cuerpo llevando oxígeno y nutrientes. Harvey es considerado hasta ahora, el padre de la Fisiología Moderna. Kendall Haven (2007). 100 Greatest Science Discoveries of All Time. Véase.

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

Exp

lora

tori

os

de

Inve

stig

ació

n.

Page 173: La investigación científica avanzada primera edición 2015

172

Como esta primera evidencia fue capturada netamente a través de la intuición, no

interviniendo ningún instrumento científico más que su propia mente, y fue su potencia mental la

que le dio forma, no podrá garantizarse verdad sobre el hecho hasta no ser sometido a medios

formales de demostración y/o experimentación. En los primeros estadios de una Investigación

Exploratoria, el científico ha de estar claro, y puesto que es su mente la que está operando, ha de

saber diferenciar entre fantasía e imaginación.

Como una actividad exploratoria requiere básicamente de ejercicios cerebrales, liar ambos

conceptos puede inducir al error. La fantasía es una sucesiva representación de imágenes

mentales, lo que la diferencia de la imaginación, que también produce el mismo efecto, es que la

fantasía no admite razón y evoca felicidad. Contrariamente, cuando la razón actúa, separa y junta

cosas, crea clases y relaciones, eso es netamente imaginación, algo imposible con las fantasías.

Es la imaginación la que produce sensaciones, aprehensiones y dudas dignas de exploración,

dilucidación y demostración.

7.5.2.- Estadio 2: La Descomposición del Problema

Es bien conocida la cercana e inseparable relación entre la estructura del problema y su

dificultad para resolverlo. En este estadio ya el científico ha de haber esquematizado una

problemática más específica en base a los primeros descubrimientos. Cuando se subdivide a un

objetivo general en varios específicos se está ejecutando la descomposición de un problema en

varios sub-problemas. Cualquier solución hallada a un sub-problema específico, que coincida

con cualquier solución para el problema general, será asimilada como válida y directamente

relacionada. Contrariamente, podrá haber soluciones particulares no coincidentes con el

problema general, entonces, ello implica la creación de sub-problemas independientes, y se

podrá, a partir de ellos, crearse un nuevo mecanismo exploratorio sobre tal evento, hasta

encontrar, si es que existieren, elementos componentes directamente conectados.

La solución de un problema es medible a través de un rendimiento, éste último se constituye

de al menos 3 componentes: La Completud Procedimental; Optimizabilidad del Mecanismo

y del Tiempo. La completud se refiere a la esquematización mental y físicamente procedimental,

que garantizará la misma solución, siempre que el mismo problema se repita. La Optimizabilidad

del mecanismo abarca el aspecto y pregunta sobre si será posible ejecutar la completud

procedimental con menos pasos. Por último, el tiempo, la segunda opción será válida si y solo si,

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

Exp

lora

tori

os

de

Inve

stig

ació

n.

Page 174: La investigación científica avanzada primera edición 2015

173

el tiempo requerido, posterior a la optimización del mecanismo, es inferior al tiempo de

completud procedimental y arroja los mismos resultados.

7.5.3.- Estadio 3: El Diseño de Investigación Exploratoria

Las tareas que involucra una investigación exploratoria dependerán del tipo de ciencia y

necesidades de información. Básicamente, los pasos son los que se siguen a continuación:

1) Definición de la Información necesaria;

2) Establecer las Fases Intermedias del Diseño;

3) Caracterización de medidas, valores, escalas y sus procedimientos de interpretación;

4) Especificación de/los Tipo/s de Instrumentos;

5) Aplicación de Mecanismos Estadísticos;

6) Desarrollo de un Plan de Análisis de Datos;

7) Ensayo de una Primera teoría sobre lo encontrado;

De la lista anterior sólo se especificarán algunos elementos. Como la Investigación

Exploratoria consiste en un mecanismo flexible y no estructurado174

, la información necesaria

para el inicio será siempre vaga y no determinante. A menos de que, por las características

propias de la ciencia a la que haga referencia, se amerite de un conocimiento específico, y la

búsqueda se centre en ello y no en otra cosa. En el caso especial de un Diseño de Investigación

Exploratoria Internivel, este primer aparte compilará dos vertientes: datos de una teoría de

nivel inferior y de una teoría de nivel superior, ya que el diseño es intermedio, entonces se harán

las correlaciones respectivas, directas y cruzadas de lo tenido contra lo hallado, intentando

establecer un vector de regresión lineal que coincida y una a la teoría baja con la alta.

174

Bien vale la pena citar el procedimiento de exploración y posterior verificación experimental que dio origen al termómetro por parte de 3

grandes científicos, y la exploración ejecutada por George Beadle sobre los genes. El termómetro, instrumento usado para medir temperatura y basado en mercurio <<metal líquido que se dilata con el calor y contrae con el frio>>. Fue objeto de varias observaciones. Primero, Galileo Galilei diseñó un tubo de vidrio que en su parte inferior contenía una esfera que al llenarse con agua y calentarse, este líquido subía. Por problemas obvios de congelamiento y evaporación, se hicieron nuevos intentos con alcohol y una escala numérica. Posteriormente, Anders Celsius, introdujo una nueva escala cuya referencia eran los puntos exactos de ebullición y congelamiento del agua divididos entre cien. La indagación exploratoria se centró en observar los puntos donde el agua cambia de estado, en el de calor máximo se produce la ebullición y en el mínimo el congelamiento, es decir, cambia de líquido a gaseoso y de líquido a sólido. Este intervalo fue dividido en cien partes llamados grados Celsius. Lo mismo sucedió con la escala de grados Kelvin usadas para medir temperaturas absolutas (-273,15 grados Centígrados). Una serie de observaciones exploratorias también fueron ejecutadas por George Beadle en 1934 con el descubrimiento de la Función de los Genes. Los genes están encordados a lo largo de los cromosomas y contienen especificaciones para la operación y crecimiento de células individuales. Beadle descubrió que cada GEN <<Molécula de Ácido Nucleico>>, dirige la formación de una enzima en particular y ésta actúa sobre las células. Beadle eligió una pequeña hogaza de pan que contenía Neuroesporas, una simple estructura genética de la cual estaba bien documentado. Separó a las colonias en bandejas para que crecieran en medios comunes y luego bombardeó cada colonia con rayos “x”, conocidos por acelerar mutaciones genéticas. A las 12 horas, la mayoría de las colonias continuaron su crecimiento normal, sin efecto alguno. Solo unas pocas habían muerto y otras vivían sin lograr prosperar, la mutación genética les impedía crecer, pues la información original contenida en el gen, había sido modificada. Aparece en: Kendall Haven (2007). 100 Greatest Science Discoveries of All Time.

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

Exp

lora

tori

os

de

Inve

stig

ació

n.

Page 175: La investigación científica avanzada primera edición 2015

174

Las fases intermedias podrán variar dependiendo del tipo de evento a estudiar, del cómo sus

unidades fenoménicas se manifiestan, y qué se desea conocer. Es cuando el investigador

comienza a darse cuenta de qué puede conocer y que no. Con frecuencia se harán presente

eventos serendépicos <<Descubrimientos netamente basados en azar y comúnmente más

importantes que el objetivo perseguido>> que direccionarán la investigación por otros senderos.

7.5.4.- Estadio 4.- Exploración y Mecanismos Estadísticos

Este estadio da inicio con el denominado Análisis Exploratorio de Datos, consiste en un

enfoque de estudio donde los datos son analizados sin intentar aplicar cualquier modelo

particular. Se utiliza cuando el investigador tiene el primer contacto con los datos. También sirve

para encontrar desviaciones cuando ya existen modelos comunes ya definidos175

. Toda

Investigación Exploratoria se limita a examinar el problema pero no ofrece soluciones

conclusivas, solo pretende mejorar ostensiblemente el entendimiento de su naturaleza. Para

lograr inferencias conclusivas convincentes, se debe acudir a dos secuencias primarias de suma

importancia, para en segunda instancia, dar paso a magnitudes numéricas a través de procesos

estadísticos. Inicialmente se adopta una secuencia descriptiva – causal y una explicativa – causal.

La primera ejecuta operaciones con conceptos de significancia lingüística que brindan cierta

belleza simbólica y adhiere atributos a lo explicado.

Es en la segunda, en la etapa explicativa – causal, donde se hacen presente un conjunto de

adjetivos que engalanan a las ecuaciones matemáticas, tornando sobrios y audaces, a aquellos

atributos invisibles pensados, pues, comienza a formarse el Status Nascendi <<Estado naciente,

de surgimiento de algo>>. Es cuando la explicación convence y satisface. Cuyos demoledores

efectos son apreciados a través de un descubrimiento nuevo. Este estadio es jerárquico, se

identifica primero el mínimo nivel efectivo para lo que se desea, y de allí es dividido entonces en

sub áreas buscando aprendizaje. Todo proceso de aprendizaje envuelve actividades exploratorias

y la observación detallada de consecuencias. Se dice que un proceso exploratorio está asociado

con las propiedades del objeto o fenómeno, y a cada propiedad típicamente se le denomina

información.

Es en el estadio exploratorio de la investigación donde el científico centra sus esfuerzos en la

175

Concepto extraído desde: Dodge, Yadolah (2008). The Consice Encyclopedia of Statistic. Editorial Springer. Concepto de: Exploratory Data

Analysis, Véase.

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

Exp

lora

tori

os

de

Inve

stig

ació

n.

Page 176: La investigación científica avanzada primera edición 2015

175

construcción de la existencia de prueba <<Nervus Probandi>>. Allí perfecciona la observación

sobre los mecanismos que envuelven al fenómeno, permitiéndole la captación de patrones y

lenguaje dentro de un contexto muy limitado. Este proceso influenciará en el desarrollo y

progresivo crecimiento de las acciones dentro del sistema, asimilando patrones de aprendizaje

por experiencia. En vista de que el científico no necesita de todo lo que observa, activará un

proceso selectivo de información bajo varios cánones: un ajuste de conformidad sobre lo

observado, es decir, la utilidad de la prueba; y todo aquello que lo lleve a reducir la

incertidumbre.

Tal secuencia procedimental también tiene fines inherentes propios, la maximización de la

información y la generación de hipótesis. Toda interpretación científica es una hipótesis. El

encadenamiento de hechos, el establecimiento de coherencia, el proceso de discernir para

constituir relaciones y el intento de esquematizar una demostración por conclusión, son el origen

del razonamiento hipotético. Si dos evidencias no están conectadas, entonces se utilizará una

conjetura para saber si existe o no relación posible. Es aquí donde entran en juego las siguientes

herramientas estadísticas para el análisis multivariado de datos.

7.5.4.1.- Análisis de Componentes Principales

En la investigación exploratoria se emplea el análisis multivariado de datos posterior a la

compilación, minuciosa y basta, de pequeñas cantidades de información. El objetivo del análisis

de Componentes Principales consiste en descomponer tales datos extraídos de observaciones,

para con ello proceder a detectar un modelo o mecanismo operativo escondido en el fenómeno.

En estos modelos estadísticos el concepto de varianza es de suma importancia176

. El análisis

inicia cuando se crea una matriz ―A‖ denominada matriz de datos, con ―v‖ variables y ―n‖

objetos, éstos últimos se corresponden con observaciones, muestras o experimentos. Mientras

que las variables se corresponden con medidas ejecutadas sobre cada objeto.

Todo ello permitirá conocer mejor el fenómeno y tomar decisiones con respecto al conjunto

de parámetros estudiados. Este análisis de componentes principales estudia medidas múltiples de

cada unidad de análisis sometida a investigación. Allí se podrán observar las interrelaciones

entre variables y explicarlas en términos de sus dimensiones. Los procedimientos estadísticos

explicados en esta sección se corresponden con una aplicación muy moderna de la lógica de

176

El Análisis de la Varianza consiste en una técnica para separar la variación total de la data en un conjunto de componentes lógicos asociados

con una fuente de variación específica. Ello con el fin de comparar la media de varias poblaciones. Esta fuente de variación conforma un nuevo parámetro denominado <<Error de Varianza>>. El investigador ha de estar claro de que esta técnica sólo puede ser usada bajo las siguientes condiciones: las muestras tomadas al azar son independientes; la distribución de la población es aproximadamente normal; y, todas las muestras tienen la misma varianza. Tomado de: Dodge, Yadolah (2008). The Consice Encyclopedia of Statistic. Editorial Springer. Concepto de: Analysis of Variance, Véase.

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

Exp

lora

tori

os

de

Inve

stig

ació

n.

Page 177: La investigación científica avanzada primera edición 2015

176

clases. Es en esta etapa de la investigación cuando el científico comienza a ver los frutos de su

trabajo, pues ya ha agrupado elementos dentro de una misma categoría y comienza a verificar la

relación de una cosa con otra, pues, afloran las similitudes, diferencias o dependencias

jerárquicas invisibles en el primer estadio. Ya el árbol relacional buscado está tomando forma.

7.5.4.2.- Análisis Factorial de Correspondencia y Confirmatorio

El análisis de componentes principales previo, le permitirá al investigador reducir la cantidad

de variables presentes en una dimensión minimizando la perdida de información. El Análisis

Factorial177

de Correspondencia, consiste en un proceso analítico de transformación de data

estadística (medidas), hacia una combinación lineal de variables independientes. En el proceso,

se buscan grupos de variables (factores) que entre sí, presenten una alta correlación. Entonces, al

verse reducido el fenómeno se facilita su explicación. Allí se usan tablas de contingencia o tablas

de valores cruzados, obteniéndose una representación gráfica de la asociación y correspondencia

para factores (variables) entre filas y columnas.

Una de sus aplicaciones básicas consiste en determinar la contribución de las variables

originales a los nuevos factores obtenidos. El resultado ha de ser nuevo para el científico, pues se

deriva de una investigación exploratoria libre de los conocimientos a priori. Un segundo análisis

a ejecutar subyace en el Análisis Factorial Confirmatorio178

, de hecho, una investigación

exploratoria consta de dos partes, la exploración en sí, y la confirmación de lo hallado. El

análisis factorial confirmatorio amerita un proceso donde se estudia y evalúa, qué cantidad de

factores, organizados en su conjunto, se corresponden con la teoría admitida para explicar el

fenómeno. Es decir, el investigador opta por el análisis factorial exploratorio cuando aún, con el

conjunto de datos presentes, se le imposibilita la acción de plantear una hipótesis, pues, el

modelo no presenta una estructura subyacente clara. Caso contrario, si el investigador logra

confirmar una estructura teórica subyacente, entonces estará en capacidad de estructurar las

hipótesis necesarias para dilucidar los aspectos más importantes del fenómeno explorado. Para

ambos casos, análisis factorial exploratorio o confirmatorio, se recomienda al investigador,

indagar sobre los supuestos de aplicación para cada caso, ambos, están fuera de los alcances de

este texto179

.

177

Un Análisis Factorial consiste en una serie de métodos que permiten reducir un conjunto de variables a un número menor y más manejable,

donde cada una es función de una o más de sus variables originales. 178

Confirmatory Data Analysis. Evalúa y prueba resultados analíticos usando para ello la estimación de parámetros y pruebas de hipótesis. 179

Para más información sobre la Estadística Multivariada y el Diseño de Experimentos Véase: Kim Esbensen (2002). Multivariate Data Analysis

and Practice: An Introduction to Multivariate Data Analysis and Experimental Design.

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

Exp

lora

tori

os

de

Inve

stig

ació

n.

Page 178: La investigación científica avanzada primera edición 2015

177

7.5.4.3.- Análisis de Correspondencia Múltiple

Primeramente, un análisis de correspondencia consiste en una técnica exploratoria de la

Estadística Multivariada para análisis gráficos y numéricos de casi cualquier matriz de datos,

trata principalmente tablas de frecuencia. Puede ser usado también para estudiar la presencia o

ausencia de datos, clasificaciones y preferencias, así como comparación de datos emparejados,

entre otros, Blasius y Greenacre (2006). Básicamente, un análisis de correspondencia múltiple se

utiliza cuando existe más de una variable cualitativa, en las cuales se presentan más de una

categoría. Allí se proyecta estudiar las relaciones de dependencia o independencia de un

conjunto de estas variables. Su objetivo es transformar una tabla de contingencia en perfiles de

fila y columna normalmente representados por números enteros.

Se hace uso de un Análisis de Correspondencia Múltiple en Investigación Exploratoria

cuando, se pretende visualizar o describir cierto conjunto de acciones que indiquen la presencia o

ausencia de asociación entre dos o más variables. Para ello se crea una matriz de filas por

columnas, se denota entonces como ―I‖ al conjunto de ―n‖ individuos, y como ―Q‖ al conjunto

de preguntas de un cuestionario180

. Se crea entonces una tabla [I x Q] tal que, se genere una celda

(fila x columna) contentiva de [i; q] elementos; a esto se le denomina categoría de una pregunta

―q‖ seleccionada por un individuo ―i‖.

El número de categorías de preguntas ―q‖ se denota como Kq, y todo el conjunto de

categorías se denota como ―K‖. El número de individuos que han seleccionado una categoría k

es entendido como nk, con la condición: [nk >0]. Entonces se procede a identificar [Fk=nk/n],

como la frecuencia relativa de individuos que han seleccionado la categoría k. El Análisis de

Correspondencia Múltiple arroja entonces dos nubes de puntos, una para individuos y otra para

categorías. La distancia entre dos puntos de individuos se puede interpretar de la siguiente

manera: si la distancia es pequeña, su contribución al fenómeno es similar; si es muy grande sus

contribuciones son diferentes. Asumiéndose errónea la comparación entre dos puntos que

emerjan de categorías diferentes.

En fin, la Investigación Exploratoria resulta grandemente satisfactoria cuando sus

procedimientos se han ejecutado de manera impecable y además, se ha evidenciado un

descubrimiento nuevo. Pues, el científico se ha impuesto sobre lo desconocido, ha escudriñado,

separado, juntado y hecho inferencias sobre aquello que en un primer momento no entendía. ―El

180

Es de recalcar que la palabra cuestionario es común en investigación social, allí se le asocia con personas que responden a un conjunto de

preguntas. No obstante, en otros tipos de investigación, un individuo o cosa, posee características inherentes propias que lo describen, y basados en esos datos, se procede a llenar la tabla mencionada denominada cuestionario.

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

Exp

lora

tori

os

de

Inve

stig

ació

n.

Page 179: La investigación científica avanzada primera edición 2015

178

hombre no puede descubrir nuevos océanos a menos que tenga el coraje de adentrarse en él y

perder de vista la costa‖. André Gide181

.

181

André Gide. Escritor Francés y Premio Nobel de Literatura 1947.

Ro

iman

Val

bu

ena:

Lo

s P

rogr

amas

Exp

lora

tori

os

de

Inve

stig

ació

n.

Page 180: La investigación científica avanzada primera edición 2015

179

CONTENIDO DEL CAPÍTULO

8.1- Las Teorías Científicas Puras

8.2.- El Método Teórico

8.3.- Las Teorías en los Modelos Cuantitativos y Cualitativos

8.4.- Criterios Lógicos para Estructurar Teorías Científicas

8.5.- El Método Axiomático o Método Demostrativo

8.6.- Introducción a los Métodos Mixtos de Investigación

8.6.1.- Diseños Mixtos Paralelos

8.6.2.- Diseños Mixtos Secuenciales

8.6.3.- Diseño Mixto de Conversión

8.6.4.- Diseño Mixto Multinivel

8.6.5.- Diseño Completamente Integrado

8.7.- La Teoría en los Modelos Mixtos

8.8.- Las Teorías Científicas en la Investigación Tecnológica.

8.8.1.- Las Teorías Tecnológicas Sustantivas

8.8.2.- Las Teorías Tecnológicas Operativas

8.9.- El Conocimiento Tecnológico y sus Tipos

8.10.- Las Ingenierías y La Investigación Tecnológica

La Investigación Científica Avanzada

C

A

P

Í

T

U

L

O

VII

I

Las Teorías Científicas y las Teorías Tecnológicas

Los que se enamoran de la práctica sin la teoría, son como los pilotos sin timón ni

brújula, que nunca podrán saber a dónde van.

Leonardo Da Vinci.

Page 181: La investigación científica avanzada primera edición 2015

180

8.1- Las Teorías Científicas Puras

na teoría científica es una construcción humana, y desde el nacimiento de la ciencia

siempre ha sido la base del conocimiento científico. En este aparte del texto se intenta

adentrar al lector en la naturaleza y proceso de concepción de teorías científicas

explicativas sostenidas sobre unidades fundamentales estructuradas en la mente humana; la

razón, la intuición, la demostración y la experiencia. En perfecta conexión con sus

correspondientes técnicas matemáticas. Éstas últimas son las que justifican, clarifican y hacen

entendibles las ideas. Una teoría bien formulada es aquellas que es capaz de revelar en

completitud y exhaustividad el fenómeno, en otras palabras, es aquella conjetura cuyo enfoque se

centra en el fenómeno. Sólo entendiendo los basamentos teoréticos puros, es posible derivar los

operacionales, y con ello comprender, el cómo se conciben y ponen en funcionamiento las

grandes tecnologías.

Una teoría es una cadena de deducciones, postulados o enunciados lógicos, orientados a

determinada área científica. Se construye a través de un conjunto de hipótesis o supuestos182

que

sirven para revelar el problema planteado, todo apoyado en observaciones previas. Se dice

también que, cuando aquello observado o percibido depende de una teoría y de su interpretación,

el fenómeno presenta cierta carga teórica, no pudiendo este desprenderse de ella. En ese sentido,

existen tantos tipos de teorías como campos científicos tiene la ciencia. Ellas permiten hacer

inferencias y se les usa para dar explicaciones. Sin embargo, poseen un conjunto de

características propias definidas dependiendo del teórico que se estudie. En un primer momento

es posible clasificar a las teorías como de dos tipos; las científicas y las no científicas.

182

Supuesto, premisa e hipótesis. Los supuestos no necesitan conocerse para ser verdaderos; pueden ponerse en consideración de un

argumento, es decir, para hallar sus consecuencias lógicas y así evaluarlas. Tomado de: Bunge Mario; Diccionario de Filosofía.

U

Si se pudiera demostrar que existió un órgano complejo, que no pudo haber sido formado por modificaciones pequeñas, numerosas y sucesivas, mi teoría se destruiría por completo.

Charles Darwin.

Usted puede hacer observaciones… desarrollar teorías para adaptarlas a ellas… puede incluso intentar la experimentación para refutar tales teorías… si no logra nada… entonces tiene algo…

Kary Mullis.

Page 182: La investigación científica avanzada primera edición 2015

181

Las primeras son aquellas que permiten colectar un grupo de datos u observaciones,

procesarlos para encontrar significados, y posteriormente desarrollar un conjunto de

explicaciones por asociaciones entre sus constructos183

con el fin de solidificar o refutar otra

teoría. Las teorías científicas184

se asocian con hipótesis científicas y se manejan con la

rigurosidad que le es inherente. Las teorías denominadas no científicas185

son aquellas que, por

originarse de hipótesis no científicas o pseudocientíficas, no es posible comprobar su nivel de

verdad o falsedad.

A una teoría por el sólo hecho de suponérsele pseudocientífica para nada implica el que se le

estime falsa, lo que realmente importa, es que como no presenta los atributos que la hagan

pertenecer a una ciencia, entonces, como parámetro incuestionable, no ha de formar parte de

ninguna estructura científica. Una teoría es meramente una herramienta la cual se somete a

contraste aplicándola, de sus resultados dependerá el si es o no apropiada. Considérese también

que es totalmente imposible teorizar antes de haber ejecutado observaciones y obtenido datos

suficientes para su autorefutación, es así como, una teoría fácil de refutar nunca fue realmente

una teoría. Para Popper (1972), Siempre que una teoría se te aparece como la única posible,

toma esto como una señal de que no has entendido ni la teoría, ni el problema que se pretende

resolver.

Una teoría es una visión, un tanto racional o construcción intelectual del científico que lo

incita a dar sus primeros pasos en el abordaje de un problema. Puede presentarse como un

conjunto de descripciones de la realidad percibidas a través de los sentidos. Se le asume como

una explicación verdadera de los hechos. Para Ferrater Mora (2000), Consiste en un sistema

deductivo en el cual ciertas consecuencias observables se siguen de la conjunción de hechos

observados y la serie de hipótesis fundamentales del sistema.

Se pide al lector, no confundir teoría con tesis. Muchos investigadores principiantes tienden

a liar ambas terminologías, cuestión que de hecho es un error. Mientras que teoría hasta este

aparte ha sido un término suficientemente conceptualizado <<así como se hará en los

subsiguientes párrafos>> una tesis es entendida como una proposición que es mantenida como

argumento en determinado tema. Un avance de una disertación cuyo punto de vista originario es

183

Término empleado por los Sicologistas para referirse a las Variables. Para Dimmer y Dominick (2006, p. 44). Un constructo es un concepto

que tiene tres características distintivas: a) Es una idea abstracta que puede ser representada por conceptos de niveles más bajos, en otras palabras, un constructo es una combinación de conceptos. B) Debido a su abstracción un constructo no puede ser observado directamente. C) Los constructos son comúnmente utilizados sobre investigaciones con propósitos particulares, en función de ello, su significado exacto se relaciona sólo con el contexto donde es encontrado. 184

Como ejemplo de teorías científicamente aceptadas: La Teoría de la Gravedad de Newton; La Teoría de la Mecánica Cuántica; y La Teoría

del Electromagnetismo de Maxwell. 185

La Teoría de la Evolución Darwiniana, a pesar de ser una teoría científica, se contrapone a la Teoría del Creacionismo, ésta última

considerada como pseudocientífica.

Ro

iman

Val

bu

ena:

Las

Teo

rías

Cie

ntí

fica

s P

ura

s.

Page 183: La investigación científica avanzada primera edición 2015

182

producto de una investigación, muy usado como requerimiento para la obtención de un grado

académico. Desde la óptica de la investigación social y la educación, se le entiende como un

sujeto de discusión. Para la filosofía y la lógica, consiste en una afirmación no demostrada

especialmente cuando se presenta como premisa en un argumento y ni siquiera llega a ocupar el

rango de teorema186

.

Una tesis sirve de argumento para soportar la candidatura a un grado académico, en los

doctorados suele denominarse disertación, y en filosofía se le asume como sinónimo de tratado.

Una tesis es producto de un profundo análisis de teorías, y aunque puede derivar en alguna teoría

científica, su denominador común es que ésta no se presenta axiomatizada, ni tampoco han sido

sometidas a experimentos sus hipótesis o demostrado sus teoremas. Por constituirse en un

documento original y único que no ha sido leído por nadie más, carecerá entonces de teorías

subsiguientes que se le contrapongan. Para Aristóteles en Ferrater Mora (2000, Véase concepto

de Axioma), una tesis no puede demostrarse y no es indispensable, forma parte de uno de los

principios inmediatos del silogismo y es usado como base en las demostraciones. Aunque en

apariencia está al mismo nivel que un axioma, una tesis no es un principio a todas luces evidente.

Es sólo un juicio planteado en oposición a la corriente del pensamiento de un filósofo

importante. De una tesis no necesariamente se obtiene conocimiento, pero de una teoría

axiomatizada sí.

Cuando una tesis se estructura se convierte en una hipótesis, y estas conforman el esqueleto

de una teoría, es decir, una tesis está implícita en una teoría pero no hay teorías en una tesis, sólo

supuestos. La redacción de una tesis difiere en gran medida de la secuencia lógica de una teoría.

Mientras que la tesis presenta relación estricta y coherente entre ella y su discurso, una teoría

adquiere un orden lógico y experimentalmente demostrable de explicación causal.

Una tesis envuelve la idea central que será desarrollada en el estudio, orientada siempre a la

construcción de hipótesis que permitan contestar asertivamente la pregunta de investigación

previa organización metodológica. Contrariamente, las teorías se organizan por sus

consecuencias y relaciones lógicas y no por procesos. Aclarado el asunto, se continúa con el

tema de las teorías científicas explicativas.

Kerlinger (1979), citado en Creswell (2009, p. 51) expone, una teoría es un conjunto de

definiciones y proposiciones interrelacionadas, que presentan una vista sistemática del

fenómeno, especificando relaciones entre variables. Su propósito, explicar el fenómeno. Bajo

186

Un teorema consiste en una verdad lógica y matemática. Radica en una proposición que el teorista estructura y deriva de ella

consecuencias lógicas demostrables.

Ro

iman

Val

bu

ena:

Las

Teo

rías

Cie

ntí

fica

s P

ura

s.

Page 184: La investigación científica avanzada primera edición 2015

183

este concepto a una teoría se le asume como un conjunto de variables conexas, formadas por

proposiciones o hipótesis, que expliquen la relación entre variables en términos de magnitud y

dirección.

No obstante, cada disciplina científica maneja su estructura teórica de manera diferente, unas

hacen énfasis en la epistemología y otras en su poder explicativo. Con respecto al enfoque

epistemológico, disciplinas como la sicología y la sociología, han sido las que en épocas

recientes han jugado un rol preponderante en la generación de teorías epistemológicas en sus

respectivas áreas, aunque tal aseveración tiene sus detractores187

.

Para Newton, una teoría consiste en un sistema en el cual un fenómeno empírico particular es

explicado, relacionándolo a un pequeño número de definiciones y principios generales. Una

teoría es comúnmente asociada con una construcción intelectual, ciertamente es así. En

ocasiones podrá tomar la forma de un enunciado causa-efecto, es decir, cuando ―X‖ cambia, ―Y‖

cambia. Empero, planteada de esta manera no concurre con las condiciones mínimas necesarias

para serlo. Una teoría generalmente relaciona e involucra, principios abstractos inobservables,

pero que al explicar parte de la naturaleza observable, son tomados en cuenta.

Uno de los aspectos más resaltantes del ciclo de indagación científica consiste en admitir

errores cuando algo no anda bien. Las teorías están expuestas a constantes cambios, nuevos

científicos y métodos de investigación agregan procedimientos tecno operativos que hacen

desviar la dirección científica en cuestión, lo que ocasiona, el que a una teoría se le considere

inaplicable o se le admita desde otra perspectiva. Estas variaciones periódicas van en beneficio

del acervo científico y del enriquecimiento de la Honestidad Científica.

En ese sentido y según Lakatos (1989), el contexto del siglo XVII cuando nace la ciencia, a

ningún científico digno de ese nombre se le podían permitir conjeturas; tenía que probar con

hechos cada frase que pronunciara <<al parecer en estos días eso se ha perdido>>, las teorías no

probadas por los hechos eran consideradas pseudociencia pecaminosa. Una herejía al seno de la

comunidad científica. La Honestidad Científica exigía que no se afirmara nada carente de

187

La sicología y la sociología, a pesar de su enorme acervo de datos empíricos y generalizaciones de bajo nivel, siguen considerándose aún, en

un estadio subdesarrollado. Porque no abundan en teorías lo suficientemente amplias y profundas como para dar razón del material empírico disponible. Bunge, Mario (2004, p. 334). Al respecto Kuhn argumenta: hay hombres que sostienen que la sicología, por ejemplo, es una ciencia porque posee sus características. Otros responden que tales características no existen o son insuficientes para hacer de ese campo una ciencia. Sin embargo, habrá de revisarse lo que se entiende por ciencia para una actividad específica, y para la comunidad que la práctica. Véase: The Structure of Scientific Revolutions. Cap. XIII. Progress through Revolutions. (P. 160-163). Según Popper, el acto de concebir o inventar una teoría, no me parece que exija un análisis lógico ni sea susceptible de él. La cuestión acerca de cómo se le ocurre una idea nueva a una persona —ya sea un tema musical, un conflicto dramático o una teoría científica— puede ser de gran interés para la psicología empírica, pero carece de importancia para el análisis lógico del conocimiento científico, puesto que la lógica del conocimiento se contrapone a la sicología del mismo. Refiérase a: La Lógica de la Investigación Científica. La Eliminación del sicologismo. (p. 30-31). J. B. Watson por su lado afirmaba; <<Para que la psicología sea científica debe seguir el ejemplo de las ciencias físicas. Es decir, materialista, mecanicista, objetiva y determinista>>

Ro

iman

Val

bu

ena:

Las

Teo

rías

Cie

ntí

fica

s P

ura

s.

Page 185: La investigación científica avanzada primera edición 2015

184

prueba. Se fundamenta en expresar solamente teorías muy probables, o incluso, en especificar

para cada teoría científica, la probabilidad de la teoría a la luz de la evidencia. Entonces, la

Honestidad Científica consiste en188

especificar por adelantado un experimento tal, que si el

resultado contradice la teoría, esta debe ser abandonada, (p. 17).

En ciencia es imposible probar que una explicación elaborada a través de una teoría sea con

toda certeza la final y única, todo queda en manos del probabilismo, éste no solamente facilita la

distinción entre dos términos o conceptos contrapuestos, sino que suministra una escala continua

desde las teorías débiles de probabilidad baja, hasta las teorías poderosas de probabilidad

elevada. Lakatos op. Cit, explica que en 1934 Karl Popper defendió que la probabilidad

matemática de las teorías científicas o pseudocientíficas, no importa la magnitud y nivel de

evidencia, es cero.

Si Popper tiene razón las teorías científicas no sólo son igualmente incapaces de ser

probadas, sino que son también igualmente improbables. Se requería un nuevo

criterio de demarcación y Popper propuso uno magnífico. Una teoría puede ser

científica incluso si no cuenta ni con la sombra de una evidencia favorable, y puede

ser pseudocientífica aunque toda la evidencia disponible le sea favorable. Esto es, el

carácter científico o no científico de una teoría puede ser determinado con

independencia de los hechos. Una teoría es «científica» si podemos especificar por

adelantado un experimento crucial (o una observación) que pueda falsarla, y es

pseudocientífica si nos negamos a especificar tal «falsador potencial». (p. 7).

Una teoría siempre persigue una dirección cognoscitiva y se le usa para explicar todo aquello

que es, o pasa en esa dirección. Basta con formular una explicación conformando un cuerpo

detallado de conocimientos sobre el fenómeno para que ésta se convierta en teoría. Popper

(1980) es de opinión… no hay ninguna teoría a la cual no se pueda cuestionar…una teoría no

solo debe poder ser sometida a prueba a través de experimento y expuesta al criterio de

falsabilidad, sino que ha de ser escrita de manera tal que pueda admitir posibilidad de

Falsación189

. Según Kosso (2011, p. 8), una teoría es verdadera si describe cosas inobservables

que realmente existen, y lo hace de forma exacta, de otra manera considérese falsa.

En su razonamiento sobre la Teoría Estática, Bunge (2004, pp. 332 y ss.), afirma que la

actividad científica debe centrase en torno a teorías, su construcción, desarrollo, contraste y

verificación; y no en torno a la recolección y clasificación de datos sin sentido, o sin

188

Este último comentario, aunque aparece en escritos de Lakatos (p. 6 y ss. Versión en PDF), consiste en un extracto de “Los Criterios de

Refutación” Popperianos. Para más detalles Véase: Popper, K. (1963a). 189

Para el autor, los dos enunciados, Falsabilidad y Falsación son diferentes. Falsabilidad es un criterio de carácter empírico de un sistema de

enunciados, es decir, una teoría ha de poseer la característica de poder ser contrastada por la experiencia. Mientras, la Falsación tiene que ver con reglas especiales que determinen en qué condiciones es posible considerar falsado un sistema, y se refiere más a los Modus de la Lógica. Véase: Popper Karl (1980), Falsabilidad y Falsación, (p. 82-83).

Ro

iman

Val

bu

ena:

Las

Teo

rías

Cie

ntí

fica

s P

ura

s.

Page 186: La investigación científica avanzada primera edición 2015

185

posibilidades de discrepancia contra alguna teoría, esto generará inferencias inaplicables y

efímeras. En su desarrollo expositivo explica… en una teoría debe hacerse distinción entre su

forma y su contenido, entre su estructura lógica y la interpretación. Basta con simples

esqueletos con ciertas propiedades puramente lógicas para tener teorías. Donde la semántica y la

sintaxis van de la mano. Continúa el autor;

La estructura gramatical con la cual se conforman enunciados teoréticos, contiene

elementos suficientes como para convertirla en un arma de doble filo, un lado puede

hacer tambalear su nivel argumentativo. El otro, si ofrece soporte al constructo,

ubicándolo en el contexto, lo solidifica, asignándole características y apariencia de

irrefutabilidad. Los sistemas de hipótesis son sistemas que incluyen lo conocido, lo

meramente sospechado, y lo que puede producirse acerca de un tema dado. Las

teorías científicas tratan de modelos ideales que se suponen representan, de un modo

más o menos simbólico y con alguna aproximación, ciertos aspectos de los sistemas

reales, y jamás todos sus aspectos. Las teorías por lo general son entes abstractos que

no pueden verse, sin embargo, los materiales reales se comportan de un modo muy

distinto del prescrito para sus modelos teoréticos, pero éstos son indispensables.

Ningún científico podrá hacer rechazo sobre determinada teoría por el simple hecho

de no representar en completitud a su objeto. Todas las teorías científicas son

primeramente imparciales, en el sentido de que tratan sólo algunos aspectos de sus

correlatos190

; y aproximadas, puesto que no están libres de errores. En tal sentido, la

teoría científica perfecta no existe ni existirá nunca.

Gimbel191

(2011) aporta nuevos elementos a la discusión sobre las teorías científicas, el autor

hace referencia a 3 modelos teoréticos en especial: Los Sintácticos; los Holísticos y los

Semánticos. El primer modelo corresponde a teorías científicas compuestas por un conjunto de

sentencias, con posibilidades de ser verdaderas o falsas, y que pueden ser probadas usando para

ello una combinación entre el razonamiento lógico y la observación empírica. Apuntan a

establecer un conjunto completo de leyes naturales conformadas por enunciados universales,

agrupándolas de manera que expliquen los fenómenos de la naturaleza.

Las teorías Holísticas son aquellas en donde las teorías científicas conforman redes e

interrelacionan enunciados, cada uno interconectado con el otro. Los holistas argumentan que no

es posible aislar una pieza de una teoría y probarla sin hacerlo con todas las demás

simultáneamente. Por otro lado y de acuerdo a las teorías Semánticas, las teorías científicas son

mucho más que mapas. En este caso, no solo representan un set de proposiciones verdaderas o

falsas, sino modelos teoréticos completos.

190

Para una comprensión más profunda sobre los correlatos y su clasificación, Refiérase al apartado dedicado a las Hipótesis; SIGNIFICADO DE

LAS HIPÓTESIS. en Bunge Mario Op, Cit. (pp. 194 y ss.) 191

Véase: los Capítulos referidos a: Syntactic View of Theory (pp. 1 y ss.); Holistic View of Theory (pp. 171 y ss.), y Semantic View of Theory (pp.

231 y ss.). En: Gimbel, Steven. (2011, Compilador). Exploring the Scientific Method: A New Approach to Teaching and Learning Philosophy of Science. The University Chicago Press.

Ro

iman

Val

bu

ena:

Las

Teo

rías

Cie

ntí

fica

s P

ura

s.

Page 187: La investigación científica avanzada primera edición 2015

186

8.2.- El Método Teórico

l método para la estructuración y creación de teorías científicas podrá variar

dependiendo del área y científico en cuestión. Así como podrán combinarse teorías

desde diferentes enfoques científicos, ello es totalmente válido y se usa para hacerse de

una visual más amplia del fenómeno. Para ello se siguen esquemas mentales, algoritmos o

estructuras usadas en la investigación científica, la teoría que pueda concebirse adoptará valores

obedeciendo a su nivel de abstracción192

o complejidad, y sobre la base de su poder explicativo.

Todo procedimiento, técnica, regla, o incluso, acto de relajación mental que le lleve a un estado

idóneo de concentración y análisis, será denominado método para engendrar teorías.

No ha de confundirse con la metodología, esta es sólo la adopción de una estrategia

sistemática orientada a resolver un problema, haciendo uso de un método. Las teorías se usan

para resolver problemas, pero al concebírselas, se crean otros. Así mismo, el método teórico ha

de ser neutral y estrictamente planificado, incluirá elementos del proceso teorizador y estará en

capacidad de enlazar tanto ideas como estructuras mentales aisladas193

.

Las ideas científicas están compuestas por dos elementos básicos e irreductibles anclados en

la mente humana, la experiencia y la razón. Éstas ayudan a construir teorías a través de

asociaciones lógicas entre constructos y supuestos. Estos últimos se relacionan a manera de que

lleven a alianzas de interdependencia o dependencia. Podrán demostrarse a través de

deducciones puramente lógicas, sin embargo, la lógica en sí no necesariamente forma parte de

192

Abstracción, según Aristóteles: Operación Cognoscitiva mediante la cual, a partir de los datos sensibles que nos suministran nuestros

sentidos, el entendimiento obtiene las esencias universales contenidas en las cosas. Rosental-Iudin (2004) la consideran una de las facetas o formas de conocimiento que consistente en la separación mental de varias propiedades de los objetos y de sus relaciones, con delimitación o desmembramiento de una propiedad o relación determinada. Bajo la concepción de Ferrater Mora (2000), debe distinguirse entre la abstracción, lo abstracto y lo abstraído. La abstracción implica el proceso de abstraer, significa “poner aparte”, lo abstraído es “lo puesto aparte”. Y la entidad abstraída consiste en una disminución de la realidad. Se sugiere al lector referirse al diccionario filosófico del autor para conocer en profundidad los 3 grados de abstracción planteados por los escolásticos actuales. 193

Nota del Autor: Entiéndase que existe una marcada diferencia entre idea y estructura mental. Una idea representa sólo un concepto, es

decir, una única unidad de pensamiento. Mientras que una estructura mental está compuesta enteramente de ideas, en el caso de las teorías, una idea aislada no aporta significado ni mucho menos conocimiento, a menos que pertenezca a un gran sistema mentalmente estructurado, y orientado a explicar un fenómeno dentro de cierto campo factual.

E

Un sistema teórico no se limita solo a los hechos que han sido observados… y cuyas relaciones lógicas son deducibles de otros factores que también han sido observados… ha de procurarse especial énfasis en la interrelación íntima de sus enunciados generales sobre hechos empíricos, con los elementos lógicos y la estructura del sistema…

Talcott Parsons…

Page 188: La investigación científica avanzada primera edición 2015

187

una teoría sino que es un componente fundamental para su prueba o refutación194

. Si la

teoría es en extremo abstracta, necesitará reducirse y simplificarse al máximo para dar paso a la

demostración experimental, y en ocasiones habrá de usarse el Método Axiomático para

descomponerla en sus mínimos componentes.

Normalmente forman parte del método y su entorno, los estudios experimentales y la

estadística. Se les utiliza para recolectar muestras y armar un conjunto de datos que servirán de

apoyo en la explicación de un problema. Mientras mejor argumente el científico su teoría de bajo

nivel más compleja resultará su refutación, mientras más abstracto y menos concreto sea su

axioma de nivel alto, mejor. El método que se utilice para la construcción de una teoría, ha de

subjetivamente sugerir también, el método a usar para su Falsación. El método teórico significa

partir de la base de postulados generales, bien sea hipótesis, supuestos o principios, para deducir

de ellos conclusiones, es decir, el trabajo habrá de dividirse en dos partes.

En primer lugar, se descubren sus principios. Posteriormente, se tendrán que extraer

conclusiones, éstas, han de ser de menor generalidad que cualquiera de sus premisas. Para esta

segunda parte, necesaria es una excelente preparación académica y por supuesto una base

empírica del método científico. La tarea de establecer principios que servirán como puntos de

partida para sus deducciones se relaciona mucho con la intuición de cada científico.

El afirmar que existe un método teórico específico, con posibilidades de usarse y aplicarse de

manera sistemática para conseguir el objetivo planteado, sería por demás absurdo y fuera de toda

realidad. Al investigador le corresponde hilvanar tales principios, percibiéndolos a través de un

ciclo de indagaciones profundas sobre hechos empíricos u observaciones directas e incluso

aplicando el abstraccionismo, cuyos rasgos generales le permitirán adquirir el conocimiento

suficiente como para fundar de manera lógica y coherente, su primer supuesto.

Una vez establecida con éxito la primera formulación a través de la deducción lógica, las

subsiguientes se formarán concatenándolas. Por lo que la primera deducción debe conducir a la

segunda, éstas a una tercera, y así sucesivamente. Hasta lograr conformar una estructura arbórea

194

Nota del Autor: Los enunciados sintéticos son aquellos que necesariamente deben ser contrastados a través de investigaciones empíricas o

deducciones lógicas, en un primer momento pueden considerarse falsos o verdaderos. En contraste, un enunciado analítico desde el mismo momento en que se concibe se le estima verdadero, bastará sólo hacer una simple revisión del mismo para corroborar su nivel argumentativo de verdad. La lógica es necesaria para los sintéticos pero no para los analíticos. Para comprender mejor esta analogía se recomienda al lector referirse al estudio de los enunciados sintéticos y analíticos. Véase Popper Karl (1980); Enunciados Universales y Existenciales (pp. 66 y ss.). Refiérase también a: Immanuel Kant (1962) Cap. IV, Distinción entre los Juicios Analíticos y Sintéticos. (pp. 32 y ss.). Indáguese sobre los tres tipos de juicios que el autor argumenta existen en la ciencia: Los Juicios Analíticos a Priori; Los Juicios Sintéticos a Priori y Los Juicios Sintéticos a Posteriori. Bunge (2004), trata el tema de los enunciados a través del análisis de conceptos, ofreciendo detallada visión acerca de la sintaxis y la semántica que debe componer a una teoría bien explicitada. Véase el Cap. II Concepto (pp. 41 y ss.).

Ro

iman

Val

bu

ena:

El M

éto

do

Teó

rico

.

Page 189: La investigación científica avanzada primera edición 2015

188

compuesta por enunciados universales, particulares y singulares195

.

Es indiscutible que las teorías científicas desde el mundo antiguo hasta ahora, han sido

sometidas a cambios continuos y permanentes para el bien de la humanidad. Algo para nada

cuestionable ni mucho menos producto de asombro, la ciencia simplemente es y seguirá siendo

así. Ésta cambia a consecuencia de la temporalidad de las ideas científicas, y cuando nuevos

supuestos entran con la fuerza suficiente como para pasar a formar parte de nuevos axiomas,

conformando entonces un sistema teórico sólido y desarrollado.

Popper (1980), indica que un sistema teórico es desarrollado cuando está formulado de un

modo tan claro y definido, que sea posible el reconocer con facilidad que cualquier nuevo

supuesto, es una modificación, y, por ello, una revisión del mismo, (p.64). Los axiomas se eligen

de modo tal que todos los demás enunciados pertenecientes al sistema teórico puedan deducirse

de ellos por medio de transformaciones puramente lógicas o matemáticas, (p. 69).

Para que un sistema teórico esté completamente axiomatizado, desde la óptica Popperiana,

han de haberse formulado un conjunto de enunciados que satisfagan los siguientes 4 requisitos

fundamentales:

a) El sistema de axiomas está exento de contradicción196

(ya sea contradicción interna de

ellos o de unos con otros); lo cual equivale a que no es deductible del sistema un enunciado

arbitrario cualquiera;

b) El sistema es independiente, es decir, no contiene ningún axioma deductible de los

restantes (o sea, que solamente se llamará axioma a un enunciado si no es posible deducirle del

resto del sistema);

Estas dos condiciones se refieren al sistema axiomático como tal; en lo que se refiere a las

relaciones del mismo con el conjunto de la teoría, los axiomas han de ser:

c) Suficientes para deducir todos los enunciados pertenecientes a la teoría que se trata de

195

La lógica clásica (y de modo análogo la lógica simbólica o logística) distingue entre enunciados universales, particulares y singulares.

Enunciado universal es el que se refiere a todos los elementos de una clase determinada; particular es el que lo hace a algunos de los elementos de ella, y singular el que hace mención de un elemento dado, un individuo. Esta clasificación no está basada en razones concernientes a la lógica del conocimiento, sino que fue elaborada con vistas a la técnica de la inferencia. Todas las aplicaciones de la ciencia se apoyan en inferencias que partiendo de hipótesis científicas (que son universales) llegan a casos singulares; o sea, en la deducción de

predicciones singulares. Más, en todo enunciado singular es menester que aparezcan conceptos —o nombres— individuales. Refiérase a

Popper Karl (1980), Cap. 13; Universalidad Estricta y Numérica, y Cap. 14: Conceptos Universales y Conceptos Individuales. 196

De acuerdo a: Miaja de la Peña (2001, p. 147). Una proposición contradictoria es una proposición compuesta que es falsa en todos los

casos, cualquiera que sea el valor de verdad de sus proposiciones simples. Por su lado, Popper con ello indirectamente sugiere evitar la

formulación de proposiciones indeterminadas o contingentes <<como las usadas ocasionalmente por los Justificacionistas>>, las cuales son proposiciones verdaderas en algunos casos y falsas en otros, todo dependerá del valor de verdad de sus proposiciones simples componentes. Esto evitaría la correcta axiomatización del sistema.

Ro

iman

Val

bu

ena:

El M

éto

do

Teó

rico

.

Page 190: La investigación científica avanzada primera edición 2015

189

axiomatizar;

d) Necesarios para el mismo fin : lo cual quiere decir que no deben contener supuestos

superfluos;

Popper explica… dentro de un sistema teórico es posible hacer distinción entre enunciados

pertenecientes a diferentes niveles de universalidad. Donde los axiomas se encontrarán en el

nivel más alto, y de ellos será posible deducir otros, situados en niveles inferiores. Los

enunciados empíricos de elevado nivel tienen siempre el carácter de hipótesis con respecto a los

enunciados de nivel inferior deductibles de ellos, (p. 72). Del mismo modo advierte, estos

enunciados axiomáticos de elevado nivel podrán ser falsados cuando se falsen los enunciados

menos universales. Es de esta manera como la ciencia es posible, y se desarrolla gracias al

método de conjeturas y refutaciones.

Popper ha sido calificado hasta el presente, como uno de los mejores del pasado siglo XX, en

relación a sus teorías de racionalidad científica y criterios demarcatorios. Mediante los cuales

siempre intentó fundar unas bases racionales, reflexionando… todo aquel que desee dedicarse a

la ciencia, deberá conocer muy bien las reglas del juego científico… Se considerará científico

sólo a aquel que genere y refute teorías científicas. Reglas bajo las cuales en su filosofía

científica sostuvo que la corroboración, o grado de verificabilidad de verdad o falsedad de una

hipótesis, no es una medida definible, y sobre la cual la evidencia la confirma.

Contrariamente, argumentaba que el grado de corroboración de una hipótesis por la evidencia,

se convierte en una función del rigor que provee la prueba, y por tanto, una medida de su éxito.

Dentro de la estructura axiomática, las hipótesis representan los eslabones que unen

determinados supuestos con otros, Ferrater Mora Op. Cit, argumenta que una hipótesis ―es algo

puesto debajo‖. Lo que se pone debajo es un enunciado, y lo que se coloca ―encima‖ de él es otro

enunciado o serie de enunciados. La hipótesis es pues, un enunciado (o serie articulada de

enunciados) que antecede a otros constituyendo sus fundamentos. Es así como una hipótesis se

convierte en el eslabón de una cadena de deducciones que han de ser sometidas a prueba.

Son las hipótesis las que permiten y abren paso al conocimiento científico, estas ayudan a

reformular aquello que no se ajuste a la realidad. Y el perfeccionamiento de teorías a través de su

continuo sometimiento a prueba, es condición necesaria y el precio que ha de pagarse por el

progreso científico. Si se pretende un resultado diferente al de una teoría previa, entonces no

habrá de hacerse siempre lo mismo y es menester refutarla.

Ro

iman

Val

bu

ena:

El M

éto

do

Teó

rico

.

Page 191: La investigación científica avanzada primera edición 2015

190

Aunque el criterio de falsabilidad Popperiano basado en la lógica deductiva es bastante

efectivo a la hora de someter a prueba enunciados, esta no es la única herramienta197

. Para ello

el investigador está en su derecho de elegir libremente su método de prueba. Teniendo en cuenta

siempre que el científico y el experimentador por lo general son personas distintas.

En el sentido estricto del pensamiento de Mario Bunge, surgen deferencias acerca del método

para la construcción de una teoría, para ello, han de tomarse en cuenta los siguientes aspectos

básicos:

a) Sistematizar el conocimiento estableciendo relaciones lógicas entre entidades antes

inconexas….en particular, explicar las generalizaciones empíricas derivándolas de hipótesis

de nivel superior…

b) Explicar los hechos por medio de hipótesis que impliquen las proposiciones que expresaban

dichos hechos…

c) Incrementar el conocimiento derivando nuevas proposiciones (por ejemplo previsiones) de

las premisas, en conjunción con información relevante…

d) Reforzar la contrastabilidad de las hipótesis sometiéndolas al control de las demás hipótesis

del sistema…

Estas 4 proposiciones son aproximaciones metódicas a la teorización científica. No obstante,

Bunge aporta una artillería analítica al respecto; Ningún conjunto de conjeturas se considerará

como una teoría científica factual a menos que forme parte de un sistema hipotético-deductivo

propiamente dicho, si no suministra explicación y previsión, y si no es contrastable, (p. 335). Así

mismo, unas cuantas teorías científicas no solo satisfacen estas cuatro desideratas básicas, sino

otros dos adicionales:

e) Orientar la investigación;

i. Mediante el planteamiento o reformulación de problemas científicos fecundos

ii. Mediante sugerencias sobre la recolección de nuevos datos que serían inimaginables sin

la inspiración de la teoría

iii. Inspirando nuevas líneas de investigación

197

El Falibilismo es estimado como la versión sofisticada del Falsacionismo según Lakatos. Esta nueva estrategia de sometimiento a prueba de

enunciados universales, deja entrever la posibilidad de que una teoría refutada a través del Falsacionismo, habiéndosele encontrado falsa, su

conocimiento puede en principio considerarse erróneo, y sabiéndolo, todavía se le juzgue como una teoría con posibilidades de uso. Allí se

introducen las diferencias entre justificación y Falsación. De acuerdo a los Justificacionistas, el conocimiento científico siempre ha consistido en proposiciones probadas. Sin embargo, argumentan la necesidad de pruebas extralógicas. Es decir, <<La teoría es falsa, pero parte de su contenido es utilizable>> separándola de toda validez formal y justificándola en la afirmación: “Las Teorías Científicas están en constante Revisión”. No obstante, basta hacer revisión de los escritos Popperianos para encontrar que la teoría falibilista ya había sido por él considerada. A lo cual manifestó refiriéndose a la invalidez de la justificaciones inductivistas <<cuando una teoría se refuta, también se puede refutar el método que la produjo. Cuando un método se refuta, también se refuta el principio en el que se basó>> Popper (1985b). Véase También: Imre Lakatos (2001). The Methodology of Scientific Research Programmes: Philosophical Papers, Volume 1. Especialmente el Capítulo referido al: Falibilism Versus Falsificationism. (p. 10).

Ro

iman

Val

bu

ena:

El M

éto

do

Teó

rico

.

Page 192: La investigación científica avanzada primera edición 2015

191

f) Ofrecer un mapa de un sector de la realidad, esto es, una representación o modelo

(generalmente simbólico, no icónico o imaginativo) de objetos reales, y no un mero sumario

de datos, además de un procedimiento para producir nuevos datos (previsiones)

Todas las teorías que satisfagan estas 6 desideratas, por lo general son vistas como grandes

teorías científicas. Sobre todo, si generan un nuevo modo de pensar. La complejidad de la

relación teoría – realidad, además del hecho que la teoría es mucho más que recolección e

interpretación de datos, hace sugerir que mientras más próximo esté el planteamiento y

construcción de sistemas teóricos en determinado campo científico, más rápidamente se podrán

obtener beneficios cognitivos de él.

Para Creswell y Clark (2011), en la investigación científica una teoría puede parecerse a un

argumento, discusión, o a un acto meramente racional, que ayude a explicar o predecir el

fenómeno. Por otro lado afirma, el proceso de revisión de la literatura debe ser empleado para

determinar qué teorías podrían ser usadas durante la ejecución del estudio. Esto motivado a que

los diversos manejos de las teorías por parte de los investigadores, desde los modelos

cuantitativos, cualitativos y mixtos198

, son en esencia, diferentes.

198

Debido al extenso contenido y múltiples enfoques en estos modelos no se abordarán todos en profundidad. Para una mejor comprensión

de los Métodos Mixtos y el cómo se genera teoría a partir de sus diseños Refiérase a: Advances in Mixed Methods Research: Theories and Applications. Editado por: Manfred Max Bergman (2008). Designing and Conducting Mixed Methods Research. Creswell, John; Clark, Vicky. (2011). Y, Mixed Methods research: Merging Theory with Practice. Hesse, Biber; Sharlene, Nagy. (2010).

Ro

iman

Val

bu

ena:

El M

éto

do

Teó

rico

.

Page 193: La investigación científica avanzada primera edición 2015

192

8.3.- Las Teorías en los Modelos Cuantitativos y Cualitativos

os investigadores cuantitativos usan la teoría basada en la lógica deductiva,

colocándola comúnmente al inicio de la propuesta de estudio. Esto, teniendo en mente

su prueba y verificación, en lugar de su desarrollo. El proceso consiste en un primer

momento en presentar su teoría, armarse de una artillería de medios que le permitan colectar

datos para probarla, y por último, orientar intervención analítica para reflexionar sobre el mejor

proceso para someterla a confirmación. Dependiendo del contraste, la teoría se convertirá en sólo

un extracto del estudio entero, donde ha de destacar, la estructura organizativa del trabajo para la

pregunta de investigación, o la/s hipótesis planteada/s, y por supuesto, el procedimiento de

recolección de datos.

Creswell Op. Cit (p. 57), recomienda enclavar la teoría muy temprano en el estudio, es decir,

en la introducción, en la sección de revisión de la literatura, inmediatamente después de las

hipótesis o pregunta de investigación, en su defecto, en sección separada dedicada

exclusivamente a ella y su Operacionalización. No obstante, hace énfasis en esta última opción,

con el fin de que los lectores puedan claramente identificar la teoría y diferenciarla de los demás

componentes. Advierte sobre el hecho… no importa el lugar donde se coloque, éste tendrá sus

ventajas y desventajas, como detrimento a esta opción, es de considerar que el aislamiento de la

teoría en sección aparte, puede llevar al lector a no identificarse con los demás elementos que la

componen.

Los investigadores cualitativos por su lado, usan la lógica inductiva y se diferencian de los

cuantitativos a raíz de los siguientes procedimientos: el investigador colecta información a través

de diversos instrumentos, entrevistas u observaciones; realiza preguntas abiertas a los

participantes, o graba notas de campo; posteriormente analiza la data para conformar temas o

categorías; acto seguido, busca patrones generales, o teorías provenientes de los temas o

L

Usted puede utilizar todos los datos cuantitativos que pueda conseguir, pero todavía tiene que desconfiar de ellos y utilizar su propia inteligencia y juicio…

Alvin Toffler…

No todo aquello que pueda ser contado cuenta… y no todo lo que cuenta puede ser contado…

Albert Einstein…

Page 194: La investigación científica avanzada primera edición 2015

193

categorías; y por último, plantea generalizaciones o teorías de pasadas experiencias, soportadas

en la literatura. Creswell Op. Cit, (p. 63-64).

Obsérvese que para este caso, la teoría es lo último que se plantea. Sin embargo, en una

investigación cualitativa de diseño emergente, la teoría podrá aparecer al inicio del estudio,

siendo posible su modificación o ajuste, según se haga observación sobre los participantes. Es

menester recordar que las teorías del tipo inductivista presentan problemas con respecto a sus

contrapartes deductivas, su Falsación. Creswell ofrece su recomendación acerca del uso de

teorías en investigaciones cualitativas: el primer paso consiste en dilucidar si la teoría puede ser

usada con propósitos cualitativos; si es posible, entonces identifique cómo será aplicada en su

estudio, puede practicarse con explicaciones por adelantado; para finalizar, ubique la teoría

según el propósito, de manera que sea consistente con su uso.

Una teoría diferirá de otra no únicamente por su estructura, sino por su complejidad. Sin

embargo, esa no será su distinción esencial. Su diferencia radicará en los principios explicativos

que ésta sea capaz de ilustrar, en cuyos contextos han de subyacer las posibilidades de creación

de nuevos conceptos, perspectivas o visiones del mundo. Al respecto, Edwin Hung (2006, p. 19-

21) referencia a Kuhn y su forma de Categorización de Sistemas, cuya actividad clasificatoria se

efectúa en dos pasos. En el primero se construye un sistema de categorías, constituido por un

conjunto de símbolos, en acto seguido, la agrupación de objetos en tal sistema.

Es así como la actividad científica Kuhniana consiste en dos pasos: el primero se avoca a la

construcción de una teoría conceptual; el segundo consiste en la descripción del fenómeno de

acuerdo a tal teoría. A este primer paso se llama ciencia teorética, y al segundo, ciencia aplicada,

o simplemente ciencia descriptiva.

Ro

iman

Val

bu

ena:

Las

Teo

rías

en

los

Mo

del

os

Cu

anti

tati

vos

y C

ual

itat

ivo

s.

Page 195: La investigación científica avanzada primera edición 2015

194

8.4.- Criterios Lógicos para Estructurar Teorías Científicas

A continuación se presentan una serie de consideraciones a tomar en cuenta a la hora de

estructurar debidamente una Teoría Científica Explicativa. Primeramente se requiere que la

teoría a la que se haga referencia explique amplia y exhaustivamente el fenómeno, es decir,

expóngase todos los antecedentes de los hechos que dan origen al suceso investigado, hágase

corresponder con una explicación causal del tipo deductiva y explíquese enteramente la historia,

tanto del fenómeno abordado como el origen y adecuación de la teoría que lo explica.

Defínase científicamente, todo término o concepto contenido en el sistema teórico,

bosquéjese un mapa, bien sea real o mental de toda entidad abstracta que una tercera persona no

pueda visualizar, hágase visualizable y de ser posible diseñe un experimento mental. La etapa

descriptiva ha de evidenciar al menos una descripción estática y dinámica de lo que acontece;

sepárense todas aquellas secciones que correlacionan una variable con otra siempre que se

originen de axiomas diferentes; verifíquese que en las relaciones causales se ocurra primero la

causa y luego el efecto y; cerciórese que ha tomado en cuenta y eliminado cualquier tercer factor

extraño al sistema. Posteriormente, ante el conjunto de preguntas subsiguientes, la respuesta debe

ser positiva para todas ellas, de serlo, entonces usted tiene potencialmente una teoría científica,

caso contrario, revise y reintente:

- ¿Los axiomas de nivel alto son suficientemente abstractos…?

- ¿El sistema sigue la secuencia: Axioma – Definición - Teorema…?

- ¿La teoría se soporta sobre un sistema deductivo compuesto por silogismos…?

- ¿En la conclusión el sujeto es el mismo que el de la premisa mayor…?

- ¿El sujeto de la premisa menor se corresponde con el predicado de la conclusión…?

- ¿Ninguna de las conclusiones arroja o admite la aparición de una paradoja…?

- ¿Las conclusiones se corresponden sólo con estados altamente probables y no se constituyen

en la palabra final…?

- ¿Los teoremas del sistema son demostrables…?

- ¿Resultaron negativas todas las pruebas de reducción al absurdo aplicadas al sistema…?

- ¿Las Hipótesis unen a los supuestos…?

- ¿Afirmaría usted que el Sistema está exento de contradicciones…?

- ¿El sistema admite demostración experimental…?

- ¿El sistema es Lógicamente Falseable…? Es decir, ¿Podrá presentarse determinada situación

teórica, o demostración empírica en la cual la teoría pueda invalidarse…?

Ro

iman

Val

bu

ena:

Las

Teo

rías

en

los

Mo

del

os

Cu

anti

tati

vos

y C

ual

itat

ivo

s.

Page 196: La investigación científica avanzada primera edición 2015

195

8.5.- El Método Axiomático o Método Demostrativo

l Método Axiomático consiste en el procedimiento mediante el cual se modela una

teoría sobre sus mínimos bloques estructurales a partir de una serie de enunciados. Se

basa en las mismas secuencias en las que se erigen la matemática y la lógica formal y

que permite concatenar supuestos, teoremas, postulados e hipótesis, tendente a la demostración

lógica de los elementos cognoscitivos a los que haga referencia199

. Se diferencia del Método

Teórico en razón de que la axiomatización permite transformar cualquier cadena de supuestos o

postulados en ecuaciones matemáticas. Mientras el Método Teórico permite construir teorías

tanto sintáctica como semánticamente, el axiomático las modela abstracta, formal y

matemáticamente. De una observación abstracta y minuciosa se derivan teorías, y de allí no salen

más que preguntas inteligentes, y es el método axiomático el encargado de responderlas

haciendo uso de demostraciones.

Bajo criterios de Cohen y Nagel (1934); una teoría se divide en dos conjuntos de enunciados:

los llamados primitivos o postulados, y los derivados, denominados comúnmente teoremas. En la

axiomática, se plantean tanto los primitivos como los teoremas, todo bajo las reglas que dicta

para ello la lógica de inferencia deductiva. Un teorema se constituye en una proposición que

199

En la investigación científica avanzada se intenta crear agentes inteligentes basados en lógica, estos son capaces de ejecutar

encadenamientos de raciocinios tanto hacia adelante como hacia atrás, usando motores de inferencia progresiva. Allí cada inferencia ha de cumplir con los criterios de equivalencia, validez y satisfacibilidad. Dos sentencias son equivalentes si ambas poseen los mismos valores de verdad. Será válida si es verdadera en todos los modelos. Y, se considerará satisfactoria si es verdadera para al menos un modelo. Esta secuencia de pasos abren el camino para embeber la Ingeniería del Conocimiento en un Agente Inteligente. Un ingeniero de conocimiento es alguien que investiga un dominio concreto, aprende qué conceptos son importantes en ese dominio, y crea una representación formal de los objetos y relaciones del dominio. La ventaja de este modelo respecto al tradicional radica en la capacidad de hacer frente a la completud, pudiendo penetrar más capas de abstracción que el cerebro humano común. Para ello hacen uso de demostradores de teoremas, razonadores automáticos basados en lógica de primer orden. Estos eligen un conjunto de cláusulas y axiomas utilizables externos a los primeros. Posteriormente, derivan un conjunto de ecuaciones conocidas como rescritores o demoduladores. De hecho, Natarajan Shakar, utilizó uno para ejecutar una demostración formal y rigurosa del Teorema de Incompletud de Gödel. Una relación más estrecha entre el Método Axiomático y los Demostradores de Teoremas se abordará en una próxima edición de este texto. Parte del contenido de esta cita fue extraído de: Russell, Stuart y Norvig, Peter. (2004, p. 295). Inteligencia Artificial: Un Enfoque Moderno. Véase.

E

El gran objetivo de toda ciencia es cubrir el mayor número de hechos empíricos por deducción lógica a

partir de la menor cantidad de hipótesis o axiomas…

Creo en la intuición y la inspiración. La imaginación es más importante que el conocimiento. Porque el

conocimiento es limitado, mientras que la imaginación abraza el mundo entero, estimulando el

progreso, dando a luz a la evolución. Es, estrictamente hablando, un factor real en la investigación

científica…

Albert Einstein…

Page 197: La investigación científica avanzada primera edición 2015

196

puede ser demostrada, mientras que los enunciados primitivos los definen las reglas de juego de

la teoría axiomatizada. Axiomatizar implica la acción de demostrar, a partir de los axiomas de

determinada teoría, que sus proposiciones son consistentes y están libres de contradicciones a la

luz de la matemática y la lógica formal. Se hace necesario antes de la aplicación del Método

Axiomático, el que la teoría se encuentre ya suficientemente argumentada, axiomatizar no es otra

cosa que matematizar el sistema, se usa para reproducir desde cualquier investigación científica,

un modelo matemático capaz de traducirse a lenguaje computacional y usarse en la predicción

automatizada.

Este proceso parte de los postulados de la lógica formal tradicional, donde se acepta al

principio de no contradicción como el axioma supremo. Para el método se asume que todo

conocimiento implícito en determinada conclusión científica es derivado natural obtenido

demostrativamente a partir de unos principios, en donde todo el sistema ha de estar exento de

contradicciones200

. Es allí donde el proceso se convierte en una herramienta para la

construcción intelectual de conocimiento. Para Elí de Gortari (1988): axioma es…cualquier

proposición no susceptible de demostración ni de refutación lógica, pero que se presume será

aceptada como válida por cualquier persona capaz de comprender su significado.

Según el diccionario de la RAE Axioma significa: Proposición tan clara y evidente que se

admite sin necesidad de demostración. Cada uno de los principios fundamentales e

indemostrables sobre los que se construye una teoría. Para Aristóteles en Ferrater Mora (2000);

los axiomas son principios evidentes que constituyen el fundamento de toda ciencia. Se

constituyen en proposiciones irreductibles, principios generales a los que se reducen todas las

demás proposiciones y en las cuales estas se apoyan. Por sus características, en ningún axioma su

predicado se considera verdadero. En consideraciones de Bunge (2001), Axioma;

Su concepto contemporáneo no incluye la idea de una proposición evidente o

intuitiva. De hecho, los axiomas <<postulados>> de las teorías científicas son en alto

grado contraintuitivos: tampoco se requiere que sean verdaderos. Los axiomas no son

demostrables pero son justificables201

por sus consecuencias.

En cuanto al Método Axiomático, éste se centra en conocer qué papel juega el método en las

matemáticas, no obstante, según Rosental-Iudin (2004), presenta las siguientes características:

200

Requisito presentado en cualquier teoría axiomática; según dicho requisito, en el marco de la teoría dada no pueden ser al mismo tiempo

inferibles cierta proposición P y su negación ˉP. Dada la diferencia que existe en entre los aspectos sintáctico y semántico de las teorías axiomáticas esta exigencia de no contradicción se formula de dos maneras: la teoría no es sintácticamente contradictoria si en ella no resultan al mismo tiempo inferibles cierta proposición y la que la niegue; la teoría no es semánticamente contradictoria si posee por lo menos un modelo, es decir, cierta zona de objetos que satisfaga la teoría en cuestión. Véase Rosental –Iudin (2004), CARÁCTER NO CONTRADICTORIO DE LA TEORÍA AXIOMÁTICA. 201

Se agradece al lector para una mejor comprensión del término remítase a la Teoría Justificacionista.

Ro

iman

Val

bu

ena:

El M

éto

do

Axi

om

átic

o o

Mét

od

o D

emo

stra

tivo

.

Page 198: La investigación científica avanzada primera edición 2015

197

Es uno de los procedimientos de estructuración deductiva de las teorías científicas,

mediante el cual: 1) Se elige cierto conjunto de proposiciones de una determinada

teoría y estas se admiten sin demostración (Axiomas); 2) los conceptos en ellas

contenidos no son claramente determinados en el marco de la teoría dada; 3) se fijan

las reglas de la deducción y las reglas de la definición en la teoría dada, reglas que

permiten correspondientemente, pasar de unas proposiciones a otras e introducir

nuevos términos (conceptos) en la teoría; 4) todas las demás proposiciones de la

teoría dada se deducen de (1) sobre la base de (3).

En física y en matemáticas, un sistema axiomático es consistente si no son deducibles de él

conclusiones contradictorias. La teoría axiomática es un sistema formal que establece

correlaciones directas entre sus elementos (signos), y que está en capacidad de describir

cualquier multiplicidad de objetos que la satisfagan. El Método Axiomático es eficaz, persigue la

obtención de características que permitan establecer el perfil no contradictorio del sistema, su

completitud e independencia entre sus axiomas.

Según Gödel en Rosental-Iudin Op, Cit. Es imposible estructurar un sistema axiomático

universal202

, entonces, la axiomatización se constituye sólo en uno de los métodos con que se

organiza el saber científico. Desde el punto de vista del contenido, la teoría se encuentra ya

suficientemente estructurada, y es cuando permite obtener de sí misma una representación más

exacta, en particular, una deducción más rigurosa de todas las conclusiones que se desprenden de

las afirmaciones admitidas.

En escritos de Carnap (2002, p. 271), un sistema axiomático es comúnmente conocido como

un sistema de sentencias, también llamadas axiomas, desde los cuales, cualquier otra sentencia

<<también llamadas teoremas o conclusiones>> pueden ser deducidas. Todo sistema

axiomático se estructura lógicamente a partir de silogismos. En ese orden, Randall (1992, pp.

240 y ss.) argumenta, método y silogismo son los mismo, puesto que la definición de uno no es

diferente a la del otro, donde el silogismo es, de hecho, el género común de todos los métodos e

instrumentos lógicos. Es así como el silogismo se convierte entonces en la más poderosa

herramienta en la que se soportan los sistemas deductivos.

No importa el tipo de ciencia, el método usado ha de ir desde las causas a sus efectos, o

contrariamente, desde sus efectos hacia sus causas. Desde este punto de vista hay sólo dos

202

Se refiere al Teorema de Incompletud de Godel. Este teorema se explica mejor en Moreno Villa (2003); Gödel sostiene lo siguiente…en

cualquier sistema formal, llámese lógico o matemático, que sea consistente y en cuyo interior se pretenda desarrollar acabadamente la lógica o la matemática, existen proposiciones de dicho sistema que son indecidibles, esto es que, ni su afirmación ni su negación son demostrables. Siendo una de ellas precisamente, la que afirma que el sistema es consistente (sostiene que en su interior no existen contradicciones). Dicho de otra manera, no se puede demostrar la no contrariedad de un sistema matemático formalizado dentro del mismo sistema. Gödel afirma entonces que en cualquier sistema lógico o matemático, por exhaustivo que este sea, existe al menos un teorema o proposición que no es decidible; es decir, que aunque sea verdadero, no puede deducirse del mismo sistema, y por ser imposible de probar, ha de apoyarse en otros sistemas externos a este.

Ro

iman

Val

bu

ena:

El M

éto

do

Axi

om

átic

o o

Mét

od

o D

emo

stra

tivo

.

Page 199: La investigación científica avanzada primera edición 2015

198

métodos posibles; el de la Composición <<axiomático>> y el de la Resolución203

.

Randall op, cit, alega… todo progreso científico implica partir de lo conocido hasta lo

desconocido, consiste bien desde las causas en dirección a sus efectos o en disposición

contraria. Cuando se hace uso del primero se dice que se opera con el Método Demostrativo o

Método Axiomático, denominado Método de Composición. El otro es el Método Resolutivo. No

hay otro procedimiento que provea al científico de cierto conocimiento de las cosas.

Queda claro entonces que no existe otro método científico más que el Demostrativo y el

Resolutivo. El método demostrativo se construye a partir de silogismos que van desde

proposiciones necesarias e intermedias, mejor conocidas como las causas de la conclusión. Por

otro lado, el método resolutivo, es un silogismo contentivo de proposiciones necesarias, las

cuales conducen desde las cosas posteriores hacia el descubrimiento de las cosas anteriores a las

causas.

Bunge (2001), conceptualiza Axiomática como a cualquier teoría, razonablemente clara y

estructurada que pueda axiomatizarse, implica la secuencia Axioma- Definición- Teorema. La

axiomatización bajo ningún concepto se ocupa del contenido o tema al que haga referencia la

teoría, sólo se circunscribe a darle justa estructuración organizativa, de manera que de ella

puedan extraerse la mayor cantidad de conclusiones posibles. Las características principales de la

axiomática son su rigor y sistematicidad; el rigor exige mostrar la lógica pertinente e implícita en

sus enunciados, distinguiendo los definidos de los no definidos.

Así como, las presuposiciones deducidas de las supuestas. La sistematicidad implica la

anulación de todo aquello considerado no pertinente porque se requiere que todos los predicados

sean co-referenciales. En donde los enunciados han de ser coherentes, por lo que se asume que

presentan nexos de unidad, en virtud de la relación de implicación (Revísese: Lógica de

Enunciados: Cap. I). La axiomatización conlleva rigidez, contrariamente, al mostrar los

supuestos explícitos y ordenadamente, la axiomática facilita la corrección y profundización. A

continuación se muestra la estructura del método axiomático.

203

El Método de Resolución consiste en una regla de inferencia deductiva aplicada tanto en lógica como en matemáticas, allí se toman dos

premisas y se reproduce una conclusión lógica de ellas. Úsese el ejemplo de un sistema de 2 ecuaciones con 2 incógnitas “X” y “Y”. Ambas incógnitas aparecen en ambas ecuaciones, al resolver el sistema manualmente por el método matemático de resolución de ecuaciones <<hay 3 maneras>> se podrá conocer el valor de una. Para indagar sobre el valor de la otra, basta con sustituir el valor encontrado en la ecuación contraria y despejar. Si el sistema es consistente y verdadero habrá de cumplirse la igualdad para ambas ecuaciones. De presentarse una clausula cero, o clausula vacía, implica esto que al menos uno de los teoremas en que se basó una de las ecuaciones es falso, alterando así todo el sistema axiomático. Se aplica entonces el proceso denominado Derivación por Refutación, el cual sólo pretende demostrar que tanto las premisas como las conclusiones son inconsistentes. Todo método de resolución siempre ha de ir acompañado de su respectivo método de demostración. Así como se aplica en matemáticas, también puede ser usado en cualquier sistema de enunciados no matemáticos, bastará sólo con transformarlo al sistema apropiado usándose las reglas de la axiomática. Popper argumenta que un sistema axiomático y un sistema de ecuaciones son análogos, por lo que no habrá de parecerle complicado al científico.

Ro

iman

Val

bu

ena:

El M

éto

do

Axi

om

átic

o o

Mét

od

o D

emo

stra

tivo

.

Page 200: La investigación científica avanzada primera edición 2015

199

La Estructura Científica Basada en el Método Axiomático

Nivel Abstracto Grandes Teorías Científicas Postulados Método Axiomático Matematización Postulados Enunciados Universales Correlación Correlación Premisa Mayor Premisa Menor Supuestos Conclusión

Regresiones Múltiples Ley de Causa y efecto Enunciados Particulares

Para construir una teoría científica soportada sobre el Método Axiomático, en un primer

momento se plantean los axiomas de nivel alto de la teoría de referencia. Estos han de ser los

más abstractos y lo menos concreto que se puedan. Luego se toman postulados soportados en

enunciados universales, se crean conceptos, se les define y se plantean hipótesis demostrables

que subsiguientemente serán llamados teoremas. Allí comienza el proceso de proyectar tantas

columnas de hipótesis como se considere con el fin de dar explicación exhaustiva al fenómeno.

Preste atención a la coherencia, consistencia y no contradicción interna del sistema axiomático,

recuerde que debe construirse a partir de la menor cantidad de axiomas posibles.

Axioma

Medio

Axioma

Medio

AXIOMA DE NIVEL ALTO

Hipótesis Hipótesis Hipótesis

Hipótesis Hipótesis

Hipótesis

Teorías Sustantivas y Operativas Enunciados Singulares

Tecnología

DESCRIPCIÓN SOCIEDAD

INVESTIGACION SOCIAL

No Hay Estructura Teorías Axiomáticas Diferente

Axioma

Medio

Ro

iman

Val

bu

ena:

El M

éto

do

Axi

om

átic

o o

Mét

od

o D

emo

stra

tivo

.

Page 201: La investigación científica avanzada primera edición 2015

200

Si existe una ley, ésta ha de estar presente desde el nivel alto hasta el pie del modelo

axiomático. No olvide que es posible explicar leyes por teoría o teorías por leyes. Si va a

conectar teorías con leyes, como ornamento a su discurso, esto es posible sólo si, se presenta una

condición sistemática de interacción, donde sus niveles jerárquicos y sus intervalos temporales

de sucedencia, aportan magnitudes invariantes fenomenológicamente, y, la denominada ley es

anterior a la teoría. Para ello es necesario que la ley reduzca a la teoría y no a la inversa. Si hay

más de una ley actuante, óptese por el uso del principio de correspondencia lógica (Ver Cap. I.

Sección 1.10.- Principio de Correspondencia).

Partiendo desde el axioma de alto nivel, se procede a generar hipótesis a través de supuestos y

premisas hasta llegar a conclusiones. Este último paso debe conducir a proposiciones verdadera e

indemostrables llamadas axiomas, pero en este caso, de nivel medio. El científico ha de estar

claro que todo axioma medio debe ser de menor generalidad que los axiomas universales, allí

han de usarse proposiciones con enunciados particulares, y, ningún axioma del sistema, en

ninguno de sus niveles, es deducible de otro. Es decir, el sistema de axiomas no es

intradeducible. Preste atención a que en este nivel medio, cualquier vínculo que exista entre

columnas explicativas, ameritará de correlación y verificación a través de leyes causales y

efectoras actuantes en el evento.

Cualquier cosa que acontezca en un nivel, podrá ser explicada desde otro nivel por su, o sus

columnas vecinas. Si operan en la misma instancia, entonces presentan eventos simultáneos que

podrán ser explicados a través de causaciones laterales. Si se desea demostrar, secuencia lineal

para una misma columna, ha de usarse los mecanismos denominados regresiones lineales o

múltiples. Para ello debe corroborarse la existencia de causalidades hacia arriba y hacia abajo.

Cuando se ha llegado a la base de la teoría explicativa, se encontrarán hipótesis de nivel bajo

que conformaran la acción social en sí, pues es donde se hacen presentes todos los eventos y se

les estudia, es el mundo real donde el ser humano interacciona. Las teorías sustantivas son

aquellas que se basan en las ciencias puras, y a través de ellas, se crean tecnologías para el

dominio de las masas sociales.

No es necesario llegar a la base del proceso teorizador para hacer uso de una teoría sustantiva,

en la telecomunicaciones, por ejemplo, se opta por el empleo de la Teoría Electromagnética de

James Clerk Maxwell, con sus cuatro leyes asociadas, para diseñar productos. En oposición, las

teorías operativas son las que se derivan de la técnica y son usadas en el diseño de tecnología.

Éstas si deben ser de nivel bajo, pues es donde opera el hombre sin ningún rasgo o distingo de

Ro

iman

Val

bu

ena:

El M

éto

do

Axi

om

átic

o o

Mét

od

o D

emo

stra

tivo

.

Page 202: La investigación científica avanzada primera edición 2015

201

abstracción. No ha de olvidarse, a medida que se desciende los niveles de abstracción

desaparecen. En el tope se opera en lo abstracto, pero en la base se sumariza y hace entendible en

lo concreto.

Es en la base donde maniobran las ciencias sociales, allí entra en juego la descripción, se

crean conceptos basados en creencias y opiniones, compuestos de enunciados singulares

producto de inducciones. En este estadio se presenta una estructura científica diferente, no se

estudia la naturaleza en sí, sino, a los actores sociales que participan en determinados eventos y

hacen que se conformen conflictos que han de dilucidarse por medio de investigaciones

científicas. Como no existen leyes en tal nivel, la operacionalización de la investigación social

difiere grandemente de las investigaciones en ciencias naturales. Finalizada la explicación de la

estructura científica basada en el método axiomático, continuemos con la disertación sobre los

axiomas científicos.

Bajo la consideración de Carnap op, cit, los axiomas se componen en una parte por símbolos

cuyo significado se le asume ya conocido, normalmente símbolos lógicos. Y otra parte de

símbolos que son introducidos por primera vez al sistema axiomático, éstos últimos

denominados símbolos primitivos. En el Método Axiomático, a la simbología primitiva no se le

presupone significado puesto que le corresponde al sistema axiomático el determinárselo. En ese

sentido, una teoría axiomática se considerará medianamente construida si antes han sido

definidos cada término en función del área cognoscitiva a que haga referencia. Y en vista que la

función de un modelo axiomático es demostrar, podría haber confusión entre ambas

terminologías: Definir y Demostrar. Pues sólo es posible demostrar todo aquello que ha sido

definido.

Según Aristóteles204

:

La definición explica lo que es la cosa, y todo lo que explica lo que es la cosa es

universal y afirmativo. Además, la definición puede ser muy bien una manera de

conocer la sustancia; pero es evidente que las cosas demostrables no son sustancias.

Luego es claro de que no hay definición de aquello de que hay demostración. No hay

demostración respecto de aquello de que hay definición, la definición en efecto, se

refiere a lo que es la cosa, a la esencia, mientras que es evidente que todas las

demostraciones, sin excepción, suponen y admiten la esencia de las cosas. Por lo que

se constituye diferente mostrar lo que es la cosa, y demostrar que la cosa es tal cosa.

La definición muestra lo que es la cosa, mientras que la demostración prueba solamente que

tal cosa es o no tal cosa. La demostración como proceso se conforma como el fin ulterior de toda

204

Véase, Aristóteles, El Organon. Libro Segundo. Sección Primera. Cap. III.

Ro

iman

Val

bu

ena:

El M

éto

do

Axi

om

átic

o o

Mét

od

o D

emo

stra

tivo

.

Page 203: La investigación científica avanzada primera edición 2015

202

actividad científica, es superior a la simple definición, no es investigación científica aquella que

simplemente define o describe sin definir, sino aquella que demuestra, estableciendo relaciones

principio – consecuencia, que una cosa es lo que es, de manera que se haga imposible el refutar

que la cosa es diferente de aquello que realmente es.

A continuación se presentan una serie de consideraciones de Andrés Piquer205

(1781) sobre

la Demostración y los Silogismos con algunos elementos agregados;

Cuando las verdades fundamentales, o las máximas que se deducen de ellas, sirven

de premisas en un silogismo bien dispuesto, el consiguiente es cierto y evidente, y a

tal silogismo se le llama Demostración. El cual no es otra cosa que un conocimiento

cierto y evidente de las cosas, deducido de premisas evidentes y ciertas. La

demostración se ha de componer de verdades primeras o máximas que tengan

conexión con ellas. Si se hace patente esta conexión en el proceso se dice entonces

que se ha demostrado. Si no se ha llegado a ello, habrá de procurársele mediante el

proceso de ordenación de verdades de silogismo en silogismo, hasta encontrar el

enlace de lo que se intenta probar con las verdades fundamentales. Toda

demostración ha de tener por objeto las cosas universales, porque de las

singulares no puede haberla206

. Las singulares es posible conocerlas por mera

aplicación de los sentidos a las cosas, pero no se demuestran… ni mucho menos lo

necesitan. Por eso las definiciones y divisiones lógicas presentes en un sistema

axiomático y sus silogismos son los medios más a propósito que hay para las

demostraciones. Es así como existen dos tipos de demostraciones; una prueba las

cosas por sus causas y se les llaman a priori. Otras describen las causas por sus

efectos y se les llama a posteriori. Detállese el siguiente ejemplo de demostración a

priori:

Lo justo y lo honesto son verdaderos bienes; <<Premisa Mayor>>

Todo bien verdadero es digno de ser estimado; <<Premisa Menor>>

Luego, lo justo y lo honesto es digno de ser estimado; <<Conclusión>>

Para las demostraciones a posteriori conviene saber que hay ciertas causas que obran

en la naturaleza ocultamente, que no se presentan a los sentidos por sí mismas, pues

sólo se llegan a percibir sus efectos. Más los efectos que se sobrevienen de causas

ocultas lo hacen de dos maneras: unas son totalmente inseparables de su modo de

obrar porque emanan inmediatamente del poder de la causa, y que dejaría de serlo si

no lo produjese, llámese a estos Epifenómenos <<Que se Manifiestan junto con la

causa>>. Otros son contingentes, Epigenómenos <<que viene después>> como que

para su producción se requiere de ciertas circunstancias en el sujeto en el que obran

<<como enfermedades de origen genético>>, las cuales por ser varias hacen

diversidad en la producción. Los lógicos dicen, y conviene confesarlo, que las

demostraciones a posteriori nunca son tan exactas y tan finas como las que se hacen a

priori.

De acuerdo a Elí de Gortari op, cit, un sistema axiomático debe cumplir con las siguientes

205

Tomado de su Libro Lógica: Véase Capítulo XIV: La Demostración. 206

Al respecto…No es ni nunca será posible inferir enunciados universales desde enunciados particulares. Popper Karl (1980), Conceptos

Universales y Conceptos Individuales pp. 62 y ss. Véase.

Ro

iman

Val

bu

ena:

El M

éto

do

Axi

om

átic

o o

Mét

od

o D

emo

stra

tivo

.

Page 204: La investigación científica avanzada primera edición 2015

203

condiciones: la consistencia; la completitud y la independencia, además, se debe procurar que los

axiomas sean el menor número posible, pues la axiomatización aporta información acerca de la

coherencia interna y del rigor de las demostraciones. Con respecto a esto último Einstein siempre

sostuvo; El gran objetivo de toda ciencia es cubrir el mayor número de hechos empíricos por

deducción lógica a partir de la menor cantidad de hipótesis o axiomas.

Consistencia se refiere al carácter no contradictorio del sistema, en donde no es posible

deducir de este, al menos un teorema que contradiga o haga referencia inversa a otro teorema o

axioma del sistema. La completud, o completitud, según Torres (1999, p. 16), un conjunto de

axiomas es completo cuando no se le puede agregar ningún otro axioma independiente sin

incurrir en inconsistencia. Para Moreno Villa (2003);

La completud de un sistema de axiomas es completo en el sentido de que dos

proposiciones contradictorias formuladas correctamente en los términos del sistema,

una debe poder ser demostrada. Esto quiere decir que en presencia de cualquier

proposición del sistema, esta se puede demostrar en cualquier momento o impugnar

y, por tanto, decidir acerca de la verdad o falsedad en relación con el sistema de los

postulados. En este caso, el sistema se denomina decidible207

, (p. 234).

En cuanto a la independencia: se considera que una proposición que pertenezca a un conjunto

de axiomas es independiente, cuando no es consecuencia directa o lógica de ningún axioma del

sistema. Según Bunge (2000), la independencia es una propiedad de las teorías perfectas, en su

libro se corresponde con la cuarta propiedad. El autor afirma… un sistema axiomático es

independiente si y sólo si, sus miembros no son intradeducibles, es decir, ninguno de los

axiomas de la teoría es derivable de los demás, (p. 388).

Cuando se aplica sobre la geometría, y según consideraciones de Cavaillés (1992); la

independencia entre los axiomas de un sistema importa tanto para la elegancia de la

presentación, como para la eficiencia de la teoría a la que haga referencia. Permite descubrir

relaciones lógicas profundamente ocultas… (p. 83). Continúa el autor… en la axiomática se

hace distinción entre la independencia de sentido y la independencia de afirmación de un

axioma. Un axioma siempre puede ser puesto en forma de proposición hipotética, la

independencia de sentido tiene que ver con la hipótesis, la de afirmación se corresponde con la

conclusión.

207

Aunque Moreno Villa no hace mención directa al tema, realmente se refiere al Teorema de Incompletud de Gödel. Si el lector lo desea, y le

interesa profundizar sobre el tópico, se recomienda Véase: Gödel: Paradoja y Vida por Rebecca Goldstein. Si desea profundizar acerca del conflicto eterno entre filósofos y matemáticos surgidos entre Gödel y Hilbert, sobre el método correcto de seleccionar pruebas. Refiérase al excelente preparado que hizo como editor: Detlefsen, Michael. (1992). En: Proof, Logic and Formalization. Capítulo 8, pp. 88 y ss.

Ro

iman

Val

bu

ena:

El M

éto

do

Axi

om

átic

o o

Mét

od

o D

emo

stra

tivo

.

Page 205: La investigación científica avanzada primera edición 2015

204

8.6.- Introducción a los Métodos Mixtos de Investigación

uando en el proceso de investigación convergen diferentes equipos de investigadores,

y estos a su vez, acuerdan estrategias separadas de trabajo para dar respuesta a la/s

pregunta/s de investigación, se dice que se ejecuta entonces una investigación mixta o

un proceso de indagación Multi - Estratégico. Como epítome a los modelos mixtos, conviene

partir de su conceptualización, es importante señalar que se hace introducción a los métodos

mixtos puesto que muy pocos libros de metodología de investigación editados en el país hacen

mención a ellos;

Los métodos mixtos representan un conjunto de procesos sistemáticos, empíricos y

críticos de investigación, e implican la recolección y análisis de datos cuantitativos y

cualitativos, así como su integración y discusión conjunta para realizar inferencias

producto de toda la información recabada (Metainferencias), y lograr un mayor

entendimiento del fenómeno bajo estudio, Hernández et al (2010, p. 546).

Según Creswell (2009, p. 4);

Los métodos de investigación mixta son un enfoque de investigación que combinan o

asocian a los modelos cualitativo y cuantitativo. Envuelven enfoques filosóficos del

que hacen uso de ambos modelos en un mismo estudio. El método mixto va más allá

de una simple recolección de datos.

Desde el punto de vista de su enfoque utilitario, Yin (2009, p. 63);

Los métodos mixtos de investigación permiten a los investigadores direccionar sus

esfuerzos hacia preguntas de investigación más complicadas, y colectar un rico y

fuerte arreglo de evidencias que algún método por sí solo no pueda lograr.

La definición que aporta este texto: al proceso de combinar más de un tipo de método de

investigación como alternativa del investigador en su búsqueda continua de una mejor estrategia

que le permita conducir la investigación, se denomina métodos mixtos de investigación o

investigación mixta. Implica el manejo de diferentes tipos de datos, colectados a través de

diversos instrumentos, para cuyos casos podrán converger una variedad de investigadores con

paradigmas contrapuestos. La investigación mixta es un enfoque en el cual se asume que la

mixtura de los métodos cualitativo y cuantitativo admite la capitalización de esfuerzos,

C

La Investigación Mixta implica la combinación de la hermosa locura por el descubrimiento… con el misterio de lo oculto que espera por ser conocido…. Todo dentro del amplio contexto de la convergencia paradigmática y la lucidez de la naturaleza…

Roiman Valbuena.

Page 206: La investigación científica avanzada primera edición 2015

205

orientándolos a solventar la dificultad que representa la debilidad de cada uno.

El método mixto permite tanto el legitimar el uso de una táctica Multi-Estratégica, como el

examen en profundidad de un fenómeno desde diferentes aristas, proporcionando inferencia a

partir de variados orígenes. En investigación mixta es común encontrar múltiples preguntas que

orienten el accionar científico en determinada dirección, a las cuales es imposible responder

desde un único enfoque de estudio. En función de ello, es importante hacer distinción entre

Estudios o Investigaciones Multimétodos y Métodos Mixtos de Estudio o Investigación Mixta.

Las Investigaciones multimetódicas se caracterizan por la recolección y análisis de data

diversa, pero sus investigadores comparten un único paradigma, lo que provoca una

convergencia Inferencial desde el punto de vista paradigmático y filosófico del problema.

Contrariamente, los métodos mixtos de estudio aceptan la convergencia multimetódica, en donde

el grupo investigador posiblemente difiera en sus paradigmas, y a pesar de sus diferencias

inferenciales, aceptan los resultados del estudio tal como el grupo entero converja.

Un diseño de investigación mixta implica la combinación de estrategias metodológicas tanto

cualitativas como cuantitativas en un solo diseño, involucra además la asociación entre los

razonamientos inductivos y deductivos con los pros y contras que esto conlleva. Tanto los

métodos mixtos como la investigación tecnológica planteada en este texto, basan su sustento

filosófico bajo el enfoque pragmatista. Los pragmáticos son investigadores que admiten

cualquier modelo de investigación siempre que éste se adecúe a la lógica.

Las dimensiones de los diseños de investigación mixta tienden a variar conforme lo hacen los

propósitos y los paradigmas que en ellos se ven envueltos. En primer lugar, el grupo de

investigadores ha de estar claro del porqué de la mixtura, transformándola en una argumentación

razonable mediante la cual sea posible dilucidar cuál o cuáles, dentro de los diferentes tipos de

mixtura, va más acorde con sus objetivos. En segundo lugar, sopesar los grados de profundidad

necesarios que lleven a una correcta interacción entre procesos.

Cuya secuencia temporal orientará el accionar del grupo científico, tendente a la

minimización del uso de recursos y la maximización de resultados. La topología del diseño ha de

estar acorde con las etapas en las cuales se divida el proceso indagatorio. En la investigación

mixta los diseños se planifican y ejecutan según su topología, tales diseños presentan

comúnmente las siguientes familias de implementación, Teddlie y Tashakkori (2009, p. 151) y

Creswell (2009, p. 95 y ss.), a continuación se especifica cada uno;

Ro

iman

Val

bu

ena:

Intr

od

ucc

ión

a lo

s M

éto

do

s M

ixto

s d

e In

vest

igac

ión

.

Page 207: La investigación científica avanzada primera edición 2015

206

8.6.1.- Diseños Mixtos Paralelos

n Diseño Mixto Paralelo del tipo convergente, busca recoger datos cualitativos y

cuantitativos de manera simétrica en el tiempo, usando los instrumentos propios de

cada enfoque. Sin embargo, ambos tipos de datos se procesan de manera separada

para luego mezclarlos en el estudio con el objeto de obtener inferencias convergentes y

divergentes. El muestreo en estos modelos se ocupa de seleccionar unidades de análisis mixtas

para el estudio a través de su uso recíproco y simultáneo. Aplicándose sobre estas unidades tanto

estrategias probabilísticas para prueba de hipótesis, como de muestreo por propósito no

probabilístico. En el estudio han de analizarse ambos datos simultáneamente, tanto el cualitativo

como el cuantitativo, puesto que de hacerlo con uno solo no se cumpliría con los criterios del

diseño paralelo.

El problema con los diseños mixtos paralelos se presenta cuando se hace procesamiento

conjunto y simétrico de la data, pues, en ocasiones es necesaria una inferencia de la etapa previa

para proceder a cotejar si los instrumentos utilizados en cada enfoque arrojan tendencias

similares, si convergen o no. Si no convergen surge la pregunta: ¿Cuál de los instrumentos no

está haciendo bien su trabajo? En ambos casos se introduce la interrogante, ¿cómo determinar si

hay convergencia o divergencia si se utilizan dos modelos cuyo procesamiento estadístico es

diametralmente opuesto? Como en este diseño no es posible un patrón escalonado de recolección

de datos, por tratarse netamente de un estudio del tipo transversal, entonces puede presentarse

una coherencia anómala derivada del proceso de muestreo intencional no probabilístico.

Derivando en cierta manera, en una parálisis intelectual como resultado de la no visualización,

clara y explícita, de la mecánica de la mente sobre el evento estudiado.

8.6.2.- Diseños Mixtos Secuenciales

n el diseño mixto secuencial la mezcla se produce a través de fases planificadas

cronológicamente en el estudio (QUAL—QUAN), las preguntas o procedimientos de

una fase dependen de los eslabones de la cadena anterior. Estos diseños implican una

etapa cualitativa y una cuantitativa, o viceversa sin orden estricto, recalcando que cada etapa

genera su propia pregunta de investigación, éstas se fusionan y evolucionan hacia la solución

conforme avanza el estudio. En el proceso de muestreo se usan tanto las estrategias

probabilísticas como las orientada por propósito, solo que las secuencialidad del diseño conlleva

U

E

Ro

iman

Val

bu

ena:

Intr

od

ucc

ión

a lo

s M

éto

do

s M

ixto

s d

e In

vest

igac

ión

.

Page 208: La investigación científica avanzada primera edición 2015

207

el aplicar uno y posteriormente el otro, este segundo se operacionalizará en funciones de las

necesidades de datos proyectadas por el primero.

8.6.3.- Diseño Mixto de Conversión

l Diseño Mixto de Conversión es también un modelo de diseño paralelo, la mixtura

ocurre cuando un tipo de data es transformada y analizada tanto cualitativa como

cuantitativamente. Este diseño suministra respuestas a aspectos relacionados a la

misma pregunta de investigación desde dos ópticas diferentes. Un ejemplo interesante resulta

cuando se opta por el caso de un diseño factorial mixto, allí, por tratarse de un diseño mixto con

enfoque experimental, son combinados diversos factores de tratamiento con una o más variables

cada uno. Éstas podrán derivarse de elementos Intersujetos e Intrasujetos208

, y podrá el estudio

ser abordado por investigadores de ramas diferentes. Por ejemplo, docentes y sicólogos en busca

de respuestas a varios estímulos experimentales. Donde la data será analizada desde ambos

enfoques, cualitativo y cuantitativo. Esto proporciona una visual más amplia y comprensible de

aquello estudiado.

8.6.4.- Diseño Mixto Multinivel

estos diseños se les considera tanto paralelos como secuenciales, la mixtura sucede

luego de someter la data a múltiples niveles de análisis. Tanto la data cualitativa

como la cuantitativa de cada uno de los diversos niveles son sometidas a análisis e

integrada para dar respuesta a ciertos aspectos inherentes a la misma pregunta de investigación o

aquellas relacionadas. El muestreo multinivel utiliza una estrategia más general y común, se opta

por el modelo probabilístico o el orientado con propósito dependiendo de los niveles de análisis a

usar. Aquí se combinan convenientemente tanto las técnicas de muestreo paralelas como las

secuenciales. Se usa cuando en el diseño se amerita concatenar diversas unidades de análisis.

208

Para un entendimiento más amplios de estos diseños Refiérase a: Capítulo X: Introducción a la Investigación Experimental. Sección 10.9:

Diseños Intrasujetos – Diseños Intersujetos – Diseños Factoriales.

E

A

Ro

iman

Val

bu

ena:

Intr

od

ucc

ión

a lo

s M

éto

do

s M

ixto

s d

e In

vest

igac

ión

.

Page 209: La investigación científica avanzada primera edición 2015

208

8.6.5.- Diseño Completamente Integrado

n estos diseños la mixtura ocurre de manera interactiva durante todas las etapas del

estudio. En cada una, un enfoque afecta la formulación del otro, lo que ocasiona el que

múltiples tipos de implementación ocurran durante el proceso. Creswell y Plano Clark

(2001, p. 69), explican que con respecto a los objetivos planteados los investigadores se obligan

a tomar decisiones sobre la elección de sus diseños de manera tal que reflejen interacción,

prioridad, sincronización y mixtura, orientado a ello pueden concebirse hasta 6 diseños

principales, bastante similares a los anteriormente citados:

1. El Diseño Exploratorio Secuencial

2. El Diseño Explicativo Secuencial

3. El Diseño Transformativo Secuencial

4. El Diseño de Triangulación Recurrente

5. El Diseño Anidado o Incrustado Concurrente de Modelo Dominante

6. El Diseño Anidado Concurrente de Varios Niveles

E

Ro

iman

Val

bu

ena:

Intr

od

ucc

ión

a lo

s M

éto

do

s M

ixto

s d

e In

vest

igac

ión

.

Page 210: La investigación científica avanzada primera edición 2015

209

8.7.- La Teoría en los Modelos Mixtos

os modelos mixtos proporcionan flexibilidad al investigador, el método de análisis e

interpretación de datos permite un mejor entendimiento del problema de investigación.

Sin embargo, surge un gran inconveniente cuando convergen investigadores de

diferentes paradigmas sobre un diseño mixto. El mezclar métodos implica una rigurosa selección

de las teorías a usar e hipótesis a contrastar, aún más compleja que con los enfoques

individuales. Donde el proceso de selección de teorías nunca debe asemejarse al mero acto de

encerrar un conjunto de supuestos mixtos en una caja, elegir teorías de ambos enfoques y

mezclarlas a ver que sale.

Los métodos mixtos se avocan a la solución de problemas intrincados, se interesan por las

circunstancias que son difíciles y adversas, su estructura multifacética permite hacer inferencias

derivadas de ambos enfoques. Estos modelos usan al proceso de triangulación como su

fundamento, uno de los retos de la investigación mixta se sostiene sobre el hecho de conjugar

dos modelos, donde muchas veces se pone en duda su validez. Por las características propias de

cada diseño, el muestreo se torna en extremo complejo209

, a razón de que convergen diferentes

tipos de instrumentos de recolección de datos para una población variada.

El uso, aplicación, contraste y generación de teorías en los modelos mixtos es tan diverso

como cada uno de sus diseños. En la investigación cuantitativa se elige primero una teoría y a

través de ella se identifican nudos críticos de la problemática, entonces, se concibe la pregunta de

investigación y otras hipótesis para probarla. En el positivismo comúnmente se hace uso de la

teoría en paralelo al diseño de investigación, puesto que aporta explicación a las variables que

han de explotar en el proceso. Domina la cuantificación numérica del fenómeno mediante el uso

209

Nota: Hernández et, al (2010), sólo hace una propuesta tentativa y abierta a sugerencias sobre el proceso de muestreo. Véase: Muestreo

para Estudios Mixtos (Ampliación de Conceptos). Cap. 12. Ampliación y Fundamentación de los Métodos Mixtos. Muestra Estratificada Guiada por Propósito. (p. 18). En CD anexo que acompaña la obra. Así mismo, Teddlie y Tashakkori ofrecen una lista de tipos de muestreo con aplicabilidad en investigación mixta con sus respectivos ejemplos: el aleatorio; el aleatorio estratificado; por clusters y el muestreo probabilístico múltiple. Del mismo modo, ejemplifica la técnica de muestreo para lograr representatividad y comparabilidad, además del muestreo especial sobre caso único. Para un compendio más detallado Refiérase a: Teddlie y Tashakkori. (2009). Foundations of Mixed Methods Research: Integrating Quantitative and Qualitative Approaches in the Social and Behavioral Sciences. Cap. 8 Sampling Strategies for Mixed Method Research. (pp. 169-195).

L

Creo, sin excepción, que la teoría sigue la práctica. Siempre que hay un conflicto entre la teoría y la

práctica, la teoría es incorrecta. En lo que a mí respecta, hacemos teorías de lo que la gente ha hecho…

David Baker…

Page 211: La investigación científica avanzada primera edición 2015

210

de instrumentos como la observación empírica y la medición. El investigador marca distancia del

objeto y asume imparcialidad, se orienta a la verificación de teorías bajo las discreciones de la

lógica deductiva.

Contrariamente, en la investigación cualitativa el investigador podrá concebir una teoría que

explique el fenómeno en el transcurso del estudio. En este tipo de enfoque se da prioridad a la

participación, el investigador se convierte en su propio instrumento y se sumerge en el proceso

sin distanciarse. La investigación se torna parcial y negociada, abordando múltiples realidades, y

en ella se genera teoría sustentada sobre la lógica inductiva. Sin embargo, en Etnografía, el

investigador comúnmente coloca la teoría al inicio de su estudio, esta le proporciona un marco

orientatorio mientras obtiene conocimiento profundo del fenómeno.

Uno de los problemas radicales que ha caracterizado a los diseños de investigación mixtos

desde sus inicios ha sido precisamente el de la convivencia investigativa bajo pensamientos

diferentes por parte de los participantes. Determinado grupo científico siempre necesitará ver

para poder creer; y en efecto, sus contrarios deberán creer primero para poder ver. A lo que se

recomienda la adopción, al menos momentáneamente de los supuestos del pragmatismo y el

paradigma socio crítico o transformador, ambos paradigmas dominantes en los diseños mixtos y

en la investigación tecnológica desde el punto de vista social.

El pragmatismo se orienta a la solución de problemas presentes y actuantes en el mundo real,

pero que en su esencia sean problemas prácticos, donde el resultado se pueda juzgar por su

utilidad, tal como en el utilitarismo científico de Stuart Mill. Aquí se abordan múltiples

realidades, combinándose enfoques pluralistas que usan sólo aquello que trabaja, funciona u

opera en la dirección deseada. Para Creswell y Plano Clark (2007); el paradigma socio crítico o

transformador ha logrado irrumpir con fuerza en la investigación mixta. Bajo este enfoque se

facilita la comprensión de la realidad a través de la praxis, y orienta la acción cognoscitiva hacia

la liberación social, de manera que pueda usarse para su transformación desde su interior. En ese

orden, los métodos mixtos son culturalmente competentes, donde los enfoques cualitativos dan a

conocer los procesos, y los cuantitativos permiten describir los resultados.

La revisión de la literatura es relevante no importa el enfoque de indagación, se usa para

determinar cuáles teorías servirán de soporte en la respuesta a la pregunta de investigación,

representa también la búsqueda e interpretación de datos en relación a variables, dimensiones,

indicadores, categoría o sub categorías a emplear durante el proyecto. Consiste en el paso previo

al planteamiento del problema, e indica el estado del arte referenciando elementos para la

Ro

iman

Val

bu

ena:

La

Teo

ría

en l

os

Mo

del

os

Mix

tos.

Page 212: La investigación científica avanzada primera edición 2015

211

interpretación de resultados. Una buena revisión de la literatura ofrece ventajas a los

investigadores, permitiéndoles conocer de antemano el terreno por el que han de transitar para

probar o generar su teoría.

El investigador cuantitativo persigue probar su teoría para posteriormente sustentar bajo

cuantificación numérica, una explicación lógica que dé respuesta a su pregunta de investigación.

De igual manera, el cualitativo podrá formarse una teoría a medida que avanza el estudio, esto le

permitirá perfeccionarla y colocarla al final del mismo, como resultado de su interacción con el

fenómeno, su fin último, generar otra. En cambio, en investigación mixta se ejecutan ambos

procesos, se prueban y generan teorías simultáneamente.

Según Creswell (2009) y Mertens (2008); en estudios mixtos una teoría posee las propiedades

suficientes que la califican para ser aprovechada por ambos enfoques. La incorporación de una

perspectiva teórica es negociable por el grupo científico en ciertos diseños. Aun cuando en los

secuenciales del tipo exploratorio, explicativo y transformativo, cada grupo puede proceder

separadamente. Lo que realmente importa aquí es el análisis que se ejecute al final de cada etapa

(inferencias), ya que de este dependerá el inicio de la siguiente. La adopción de una perspectiva

teórica en etapa temprana del diseño mixto es de suma importancia, su construcción se

recomienda a través de las siguientes acciones:

Primeramente, en la introducción es recomendable que aparezca parte de la perspectiva

teórica indicando, cuál o cuáles grupos de teorías planean los investigadores ingresar al estudio;

identifíquense la hipótesis más relevante del sistema teorético, esto podrá visualizarse bajo la

forma de mapa con la ruta a seguir; explíquese de manera precisa, cómo se hará uso de las

teorías, con especial énfasis en la dirección que serán medidas las variables; si es posible

diséñese un mapa que interrelacione esquemas mentales del tipo teorético, de manera que sean

visibles las hipótesis y sus relaciones gráficamente. En segundo lugar, ingrese dentro de la

estructura del estudio, una sección especialmente dedicada a la perspectiva teórica, donde haga

descripción de las debilidades encontradas en las teorías a usar y justificación del porqué se

adoptan.

No confunda Marco Teórico con Perspectiva Teórica, en nada se asemejan. El marco

teórico está compuesto por 3 elementos; el marco teórico en sí, el marco de referencias y el

marco de conceptos a utilizar durante el estudio. Su función es encuadrar la investigación en

determinada dirección, pero no aborda el historial teorético bajo el cual se encierra el proyecto,

no especifica el nivel de sus axiomas ni su relación con otros del sistema. De él se extraen

Ro

iman

Val

bu

ena:

La

Teo

ría

en l

os

Mo

del

os

Mix

tos.

Page 213: La investigación científica avanzada primera edición 2015

212

elementos que han de comparase con los antecedentes a la investigación posterior al

planteamiento de conclusiones e inferencias estadísticas, apoyando con ello el razonamiento

deductivo. Si bien es cierto, allí se esbozan las hipótesis de trabajo, su área se circunscribe sólo a

los supuestos para ese estudio. La operacionalización de la variable es diferente a la

operacionalización de las teorías, e incluso disímil a la operacionalización de las hipótesis. La

primera trata de la investigación actual, la segunda, trata la longitunalidad de los modelos

teoréticos, incluyendo al presente.

En cambio, una Perspectiva Teórica incluye un árbol relacional entre axiomas, hipótesis y

supuestos, <<no se confunda con dimensiones e indicadores>> incluyendo sus niveles de

universalidad. Se relaciona directamente con la estructura teorética. Aquí se hace mención a

enunciados universales, singulares y particulares, sometiéndolos al escrutinio semántico y

sintáctico debido en función de encontrar discrepancias lógicas y praxeológicas entre ellos. La

perspectiva teórica engloba un gran número de supuestos e hipótesis interrelacionadas que no

siempre están presentes en el marco teórico.

Incluye y describe un nivel de abstracción en sus axiomas, en donde al científico le es

imposible operar con los instrumentos que posee. Sus enunciados particulares se modelan con la

estadística descriptiva. La relación entre teorías de nivel medio se hace a través de correlaciones

estadísticas. Permite someter a razonamiento deductivo enunciados propios de los axiomas de

nivel alto. Provee los medios necesarios para exponer las hipótesis o supuestos a los criterios de

falibilidad y Falsación haciendo uso de la heurística positiva o negativa de los programas de

investigación de Lakatos, o a los Modus Tollens – Pollens del modelo Popperiano. Hechas las

consideraciones previas, si el marco teórico no contiene al menos una gran cantidad de estos

últimos elementos, es mejor denominarlo Marco Referencial de la Investigación y no Perspectiva

Teórica.

A continuación nueve pasos para la organización de un estudio mixto, Creswell (2009):

1. Determine si el método mixto es necesario para resolver la problemática;

2. Considere la factibilidad del estudio mixto;

3. Escriba preguntas de investigación tanto para el enfoque cualitativo como para el cuantitativo;

4. Haga revisión sobre qué tipos de datos colectar;

5. Asigne un peso relativo y una estrategia de implementación para cada diseño;

6. Presente el modelo visual;

7. Determine el cómo será analizada la data;

Ro

iman

Val

bu

ena:

La

Teo

ría

en l

os

Mo

del

os

Mix

tos.

Page 214: La investigación científica avanzada primera edición 2015

213

8. Asigne un criterio para la evaluación del estudio, y;

9. Desarrolle su plan de trabajo;

En torno a las teorías científicas antes expuestas, hay quienes esgrimen opiniones críticas

desfavorables pero de consideración. Gimbel (2011), hace síntesis al respecto. Los enfoques

examinados210

hasta aquí presentan similitudes, todos comienzan con la premisa de que no

existe cosa tal que la ciencia, a través del método científico, no pueda resolver o explicar. Todos

los enfoques comparten la presunción de que el universo es un lugar razonable, y el

razonamiento humano es suficiente para proyectar un entendimiento sobre él.

A tal postura la denomina Modernismo. Los modernistas colocan a la racionalidad en un

lugar especial, expresando así el hecho de que es posible por esa vía, obtener un conocimiento

del mundo superior a los que accionan de diferente manera. Al revisarse el pasado reciente de la

ciencia, bajo una orientación histórica, no se observará un proceso ordenado de avance científico

tal como los descritos en los libros, contrariamente, es distinguible un marcado caos intelectual

que produce cosas maravillosas.

210

Se refiere a los enfoques sintáctico, holístico y semántico, todos previamente descritos.

Ro

iman

Val

bu

ena:

La

Teo

ría

en l

os

Mo

del

os

Mix

tos.

Page 215: La investigación científica avanzada primera edición 2015

214

8.8.- Las Teorías Científicas en la Investigación Tecnológica.

oda investigación científica debe terminar con la proposición de una teoría que

explique el problema a través de un hecho científico. Bien afirmaba Aristóteles… un

hecho científico es el conocimiento de la realidad a través de sus causas y sus

efectos…Una teoría no es más que una hipótesis respaldada por evidencias del cómo un

fenómeno tiene sus causas y efectos. En este aparte del texto, se intenta adentrar al lector en la

filosofía de la tecnología y sus procesos de investigación. La actividad científica con orientación

práctica y operativa da origen a la tecnología, esta apunta hacia un cambio de la realidad, una

forma de hacerlo es analizando los hechos que el conocimiento tecnológico y la ingeniería son

capaces de abordar. Perfilando cambios deliberados y estrictamente planificados que sirvan a

propósitos prácticos… recuérdese…la ciencia hasta el momento no ha podido lograr que los

procesos ni los artefactos crezcan en los árboles.

Para Bunge211

(1985), en el proceso de investigación y desarrollo de tecnología se presentan

únicamente dos tipos de teorías, las sustantivas y las operativas. En la técnica, se las asume como

la regla de oro que guía la acción práctica, aquí son sólo instrumentos, su función no es la misma

que en las ciencias puras, y únicamente se toman aquellos postulados mentales que están en

contacto pleno con la acción. Una de sus dificultades, su contrastación a través de operaciones

racionales no podrá ser tan rigurosa como las ejecutadas sobre sus contrapartes, lo que las ha

convertido en blanco de críticas por parte de científicos puros.

La Investigación Tecnológica proyecta alcanzar resultados de utilidad práctica para ser

aplicados sobre el mejoramiento o diseño de un producto o proceso, así como la concepción y

prueba de prototipos tendentes a satisfacer necesidades del tipo social. No por perseguir

objetivos distintos a los de las ciencias puras ha de carecer de legitimidad científica. Para

211

Tanto las Teorías Tecnológicas Operativas como las Sustantivas son extraídas y adaptadas a partir de las interpretaciones de Mario Bunge.

T

En toda ciencia, sea pura o aplicada, la teoría es a la vez la culminación de un ciclo de investigación y

una guía para investigación ulterior… Sólo las consecuencias de nivel bajo de las teorías pueden estar

en contacto con la acción, son esos resultados finales de las teorías los que atraen la atención del

hombre práctico…

Mario Bunge

Page 216: La investigación científica avanzada primera edición 2015

215

lograrlo, hace uso de teorías sustantivas y operativas, pero no de teorías científicas puras. En

función de estas características se contrapone a los paradigmas dominantes en los centros de

investigación universitarios, representados por investigadores formados bajo uno u otro enfoque.

Tal posición dificulta la adopción de un método dirigido exclusivamente hacia el desarrollo

de productos tecnológicos y procesos patentables. Este dualismo ha llevado a la investigación

científica a un estancamiento, y cuyos aportes sociales evidentemente no están proveyendo los

resultados esperados, por lo que otra opción que contribuya con el desarrollo de productos

comercializables, tendente a facilitar las labores cotidianas a las masas sociales es absolutamente

necesaria. Sin embargo, el secuestro del método científico para ser utilizado sólo por esta

dualidad paradigmática, y atribuible a un pequeño grupo de investigadores, ha dado pié a la

propuesta de un modelo de investigación disímil, pero inexcusable, el tecnológico a través de sus

teorías.

8.8.1.- Las Teorías Tecnológicas Sustantivas

Éstas siempre están respaldadas por teorías científicas. Se las considera, básicamente,

aplicaciones de teorías científicas a situaciones aproximadamente reales, así por ejemplo, una

teoría sobre comunicaciones inalámbricas no será más que la aplicación de las teorías

electromagnéticas, dado que la primera está más cerca de la acción práctica que la segunda. Las

teorías sustantivas hacen observancia a modos mediante los cuales, los sistemas o estructuras

tecnológicas, proveen un impacto sustantivo sobre la sociedad en la que actúan. Este impacto

podrá ser positivo o negativo, eso dependerá de la inclinación observacional del sustantivista

teórico.

Las Teorías Tecnológicas Sustantivas son por sí mismas, teorías científicas puras, sirven para

proveer de los instrumentos necesarios para planear y hacer, al que toma las decisiones. Estas

teorías también forman parte de los métodos mixtos de la investigación social, en donde tanto la

teoría formal, como la sustantiva, convendrán estar basadas en datos. A la teoría sustantiva se le

concibe como dato fiel de una situación empírica, sumida en una bruma de dudas, en función de

ello, los supuestos se formularán simplemente a través de la concepción de un conjunto de ideas,

que permitan establecer una teoría formal hacia el área sustantiva de interés.

Una Teoría Sustantiva forjada a partir de una recopilación sistemática de datos, acordará ser

primero formulada, en función de discriminar, a cuál de los diversos entes formales de teoría

Ro

iman

Val

bu

ena:

Las

Teo

rías

Cie

ntí

fica

s en

la In

vest

igac

ión

Tec

no

lógi

ca.

Page 217: La investigación científica avanzada primera edición 2015

216

pertenece. La Teoría Sustantiva ha ayudado a generar nueva teoría fundamentada, no solo eso, ha

permitido reformular otras ya establecidas. Blaikie (2010), es de opinión que en la investigación

social, los esquemas de estas teorías permiten el desarrollo de supuestos sobre relaciones entre

conceptos, y se les intenta aplicar a un amplio rango de situaciones. Los esquemas teóricos

brindan en su conjunto combinaciones de taxonomías y marcos conceptuales que permiten su

transformación a argumentos teoréticos.

Sin embargo, estos sistemas teoréticos tienden a tornarse bastante abstractos, en parte debido

a la naturaleza de los datos que la originan, y raras veces se presentan en una forma que puedan

ser utilizados directamente en la investigación. Para ello ha de seguirse otro paso, el

establecimiento de un esquema empírico – teórico que sea formulado de un modo preciso y

claro, a manera de hacer plausible su contrastación o refutación a través de experimento. Esta es

la única forma de enlazar la teoría con la investigación. Es menester recordar, como se

argumentó en apartados previos, que la investigación tecnológica está atada a condicionamientos

sociales, y de esta forma se asocia a la teoría sustantiva de la investigación social con la

tecnológica.

8.8.2.- Las Teorías Tecnológicas Operativas

Se refieren a operaciones, en donde interactúa el hombre y su máquina en situaciones

aproximadamente reales. La adopción de teorías científicas puras en la solución de problemas

prácticos resulta en extremo compleja y económicamente inviable para ciertos proyectos, sus

motivos radican en el nivel de abstracción de éstas, aunado a la imposibilidad de acción a ese

nivel por parte del tecnólogo. Sin embargo, en ocasiones será necesaria la adopción de una teoría

científica sólida para resolver determinados inconvenientes <<Considerablemente Especiales>>

que han de presentarse durante el accionar práctico.

Es posible concebir Teorías Operativas al buscar y obtener la solución más simple al

problema, cabe agregar que simple no es sinónimo de eficaz, en efecto, la solución óptima se

consigue mezclando la simplificación operacional del proceso con la observancia práctica y

directa de los múltiples modelos de factibilidad técnica existentes. En las empresas de alta

tecnología, los pensadores tecnológicos a veces se agrupan, por voluntad propia y según

convicciones, en estos dos grandes grupos, en ocasiones llamados instrumentalistas y

sustantivistas, tal como ocurre con la investigación cualitativa y su subjetivismo, en contraste

Ro

iman

Val

bu

ena:

Las

Teo

rías

Cie

ntí

fica

s en

la In

vest

igac

ión

Tec

no

lógi

ca.

Page 218: La investigación científica avanzada primera edición 2015

217

con la investigación cuantitativa con su objetivismo. La Teoría Instrumental212

es otro nombre

asignado a las Teorías de las Tecnologías, que describen tanto a la ciencia como a la tecnología,

como herramientas neutrales que pueden ser usadas para el bien o para el mal.

Ciertamente, para ambos extremos hay consideraciones de importancia que convienen tomarse

en cuenta. Las teorías, no importa el modelo, se basan en explicaciones, ellas, a través de

argumentaciones razonadas y desarrollo expositivo, aumentan la comprensión sobre determinada

realidad. Sin embargo, ha existido siempre una relación causa efecto en la acción operativa de

<<Explicar>>. Se asume que después de cierta explicación debe aumentar, o al menos

presentarse un cambio de perspectiva, con respecto al fenómeno que origina el problema de

investigación. No obstante, no hay una definición sicológica definida sobre el término

<<Comprensión>>, semánticamente hay una contraposición a la hora de arrojar resultados sobre

el conocimiento, por lo que la explicación debe ser sólo una, pero la comprensión variará

dependiendo del individuo.

Siguiendo el mismo orden, las Teorías Operativas no hacen uso del conocimiento científico

sustantivo, sino del método de la ciencia. Serán entonces teorías científicas pero dirigidas al tema

de la acción. Son Teorías Tecnológicas respecto del objetivo, el cual por naturaleza es más

práctico que cognoscitivo. Es ésta, una de las diferencias más notables entre Investigación

Científica e Investigación Tecnológica. La Teoría Operativa se ocupa directamente de las

acciones del manufacturador de decisiones, dicho de otra manera, del actor. Reflejan también

creencias, valores y expectativas de los tecnólogos. Bunge afirma, que toda buena Teoría

Operativa se constituye de al menos, los siguientes rasgos característicos de las teorías

científicas:

a) No hacen referencia a piezas de la realidad, sino a modelos idealizados de la misma;

b) Han de utilizar conceptos teoréticos, como consecuencia del primer rasgo;

c) Han de poder absorber información empírica, enriqueciendo con ello la experiencia, a

través del suministro de predicciones o retrodicciones;

d) Podrán ser entonces, empíricamente contrastables, pero no con la rigurosidad a la que se

someten las teorías científicas;

Las Teorías Tecnológicas se ocupan de averiguar lo que hay que hacer para conseguir, evitar,

212

Teoría de la Tecnología (Teoría Instrumental). Los problemas de la realidad, o aquellos que necesitan ser abordados mediante la acción

práctica, podrán ser resueltos bajo los siguientes niveles: 1) Con base en teorías profundas (formales o factuales); 2) Apoyándose en teorías tecnológicas sustantivas o semi científicas (sobre las bases de teorías científicas); 3) A partir de teorías tecnológicas de la acción (las cuales descansan sobre teorías tecnológicas sustantivas); 4) Adoptando conocimientos técnicos especializados (no basados en teorías, o bien, solo con base en partes periféricas de teorías tecnológicas de la acción). Tomado de: De la Vega, Miguel (2002). Problemas de Ingeniería de Puesta a Tierra. (pp. 23 – 25).

Ro

iman

Val

bu

ena:

Las

Teo

rías

Cie

ntí

fica

s en

la In

vest

igac

ión

Tec

no

lógi

ca.

Page 219: La investigación científica avanzada primera edición 2015

218

o simplemente cambiar, el ritmo de los acontecimientos de un modo predeterminado. Al

Investigador Tecnológico le corresponde manejar teorías de gran eficiencia, que ofrezcan mucho

por poco. Es decir, el tecnólogo manipula en su proceso entradas/inputs y salidas/outputs, bajo la

condición de que si un producto/output, derivado de su diseño, ha de ser técnicamente utilizable

para al menos dos teorías rivales, y con ambas el resultado es el mismo, ha de optar por la más

eficiente. En pocas palabras, si es posible obtener el producto de dos maneras, óptese por la más

eficaz.

Explica Bunge, si una teoría es verdadera, podrá utilizarse con éxito en las investigaciones

aplicadas y tecnológicas, y hasta en la práctica misma, pero ha de ser relevante para ambas. No

obstante acota… las teorías fundamentales no se comportan de esa forma, puesto que sus

problemas se alejan en demasía, de la práctica. La verdad de una teoría para nada implica un

éxito en la práctica. Tal éxito o fracaso práctico de una teoría no representa un índice para medir

su valor veritativo. Por lo que una teoría podrá tener éxito siendo falsa, y a su vez, podrá tener un

fracaso práctico, siendo verdadera.

La eficiencia de una teoría falsa podrá sustentarse en varias razones: en primera instancia,

<<una teoría puede tener un gramo de verdad que sea lo único utilizado en sus aplicaciones213

>>.

Por estar constituida una teoría por un sistema de hipótesis, bastará con que sean verdaderas o

aproximadamente verdaderas sólo unas pocas, para generar las consecuencias adecuadas,

considerándose la inocuidad de sus ingredientes falsos, y su no uso en la deducción.

Una segunda razón del posible éxito práctico de una teoría falsa, descansará sobre los

requisitos de precisión propios de las ciencias aplicadas, los cuales son inferiores a los de la

investigación pura. Así entonces, sólo bastará con aportar estimaciones, mediciones y parámetros

exactos, tanto en orden como en magnitud. Los coeficientes de seguridad, que harán exitosa a

una teoría falsa, ocultarán los detalles más finos predichos por una teoría más precisa y profunda,

tales coeficientes son característicos de la teoría tecnológica, puesto que ésta ha de adaptarse, y

podrá variar dentro de un amplio rango.

La tercera razón se sostiene sobre la base de la carencia de interés de las teorías

fundamentales en la práctica, los actos prácticos del hombre se producen, en mayor parte, a su

propio nivel. Aunque éste descanse sobre sus niveles inferiores, pero goza de autonomía respecto

del resto, puesto que no todos los cambios producidos en ellos habrán de afectarlo. De producirse

cambios ha de apelarse no más allá de sus niveles vecinos, lo que le permitirá cierto margen de

213

Esta premisa es la base del accionar de los Justificacionistas.

Ro

iman

Val

bu

ena:

Las

Teo

rías

Cie

ntí

fica

s en

la In

vest

igac

ión

Tec

no

lógi

ca.

Page 220: La investigación científica avanzada primera edición 2015

219

juego entre nivel y nivel. Para fines prácticos, con una teoría de un solo nivel será suficiente, sin

embargo, si se exigiese un conocimiento de las relaciones entre niveles, se acudirá entonces, a

teorías de varios niveles, de manera de poder controlar los sucesos de un nivel desde otro.

La última razón aduce la irrelevancia de las prácticas para la convalidación de teorías, incluso

de teorías operativas que traten de las prácticas mismas, puesto que las variables de relevancia no

suelen conocerse adecuadamente, ni controlarse con precisión, debido a la premura del diseño.

Esta urgencia imposibilita el estudio detallado de tales variables, aunado a que las situaciones

reales complejizan el proceso. Dicho brevemente, la práctica no tiene fuerza convalidadora, sólo

la investigación pura y aplicada pueden estimar el valor veritativo de las teorías y la eficiencia de

la regla tecnológica. A diferencia del científico, el técnico y el práctico no contrastan teorías,

sino que las usan con finalidades no cognoscitivas. Solo distinguiendo claramente entre el

conocimiento científico y el instrumental, será posible la explicación de la coexistencia del

conocimiento práctico con la ignorancia teorética, y del conocimiento teorético con su ignorancia

práctica.

Ro

iman

Val

bu

ena:

Las

Teo

rías

Cie

ntí

fica

s en

la In

vest

igac

ión

Tec

no

lógi

ca.

Page 221: La investigación científica avanzada primera edición 2015

220

8.9.- El Conocimiento Tecnológico y sus Tipos

na controversia importante es la creada cuando la investigación no aporta

conocimiento científico puro, tal caso se presenta en algunos diseños de

Investigaciones Tecnológicas en la Ingeniería, donde se genera tanto ciencia básica

como aplicada, esta última, esencialmente utilitarista. Sin embargo, no por ello carecería de

lógica y racionalidad. Establecer una estimación cuantitativa de ciencia básica de manera

apriorística para una Investigación Tecnológica en este mundo globalizado, no sólo originaría

una discusión bizantina, sería un total absurdo.

Dentro del proceso de investigación tecnológica es posible concebir alguno, o varios de estos

tipos de conocimiento: el Know That <<Saber que>>; el Know – How214

<<Saber cómo>>; el

Conocimiento Declarativo; el Conocimiento Funcional y el Conocimiento Procedimental. Sin

embargo, es común observar el cómo mucha de la bibliografía especializada separa al

conocimiento científico del tecnológico puesto que sus objetivos no son los mismos. Una acción

racional dentro de la investigación tecnológica no es un objetivo por sí mismo, es un instrumento

para un resultado.

El conocimiento tecnológico forma parte inseparable de la verdad humana, puesto que es el

que establece el cómo funcionan las cosas. La tecnología, desde sus inicios, ha sido capaz de

crear nuevas realidades en su accionar, a través de su diseño. Hoy día, es innegable que el

progreso tecnológico ha estado avanzando más rápido que el conocimiento científico. Este

último, aborda la realidad formulando leyes naturales, por lo que no debe confundirse, la verdad

214

Se le entiende también como una forma de transferencia de tecnología a través de procederes cognitivos.

U

La misión del conocimiento no es iluminar a un alma que es oscura de por sí ni hacer ver a un ciego.

Su misión no es descubrir los ojos del hombre, sino guiarlo, gobernarlo y dirigir sus pasos a

condición de que tenga piernas y pies para caminar.

Montaigne.

Cuando el método se impone sobre el pensamiento ingenieril, no solo se trastoca la creatividad

misma del ingeniero, con ello se socavan severamente las bases en las que se funda el desarrollo

tecnológico de una nación.

Roiman Valbuena.

Page 222: La investigación científica avanzada primera edición 2015

221

del conocimiento puro, con la efectividad, eficiencia y eficacia del tecnológico, ambos son

lógicos, pero diferentes.

El conocimiento tecnológico215

es un tipo de conocimiento con características de

aplicabilidad, se le asume operativo y es practicable en esencia, no por ello deja de ser

tautológico (analítico). Se origina, en muchos casos, a través del pensamiento ingenieril y tiene

estrecha vinculación con las actividades humanas. Se le concibe como una acción intencionada

sobre una materia prima con el fin de producir un bien tangible o un servicio, cuya intervención

se orienta al beneficio social y el cual se considerará explotable por determinado sector

económico dependiendo de la novedad de sus asertos216

.

Para Valderrama (2000), el conocimiento tecnológico se adscribe al estudio de cursos de

acción. También es denominado conocimiento praxeológico; su objetivo es estudiar procesos

para así mejorar sus efectos o resultados (P. 177). En oposición, el conocimiento científico217

es

condicionado, pues requiere de validez en sus postulados. Se obtiene mediante la reflexión y la

contrastación empírica; necesita ser expresado mediante razonamientos lógicos. Este tipo de

conocimiento busca captar la estructura de los hechos para posteriormente elaborar modelos o

teorías explicativas que permitan su interpretación.

El conocimiento científico tiene características de racionalidad; ya que es obtenible a través

del uso de la razón <<supone que cualquier problema puede ser solventado por medio de

razonamiento>> concatenada con la capacidad cognitiva del investigador. Es metódico en

esencia, puesto que se basa en pasos procedimentales lógicos, estos son los que le

proporcionarán características de validez. Se le asume sistemático, en consonancia con los

momentos metodológicos que deberán articularse. Y es falible, en vista de que no se le considera

dueño de la verdad absoluta.

Por otro lado, el conocimiento tecnológico presenta ciertas variantes. Muchos de los

supuestos aplicados en el diseño de ciertas tecnologías son del dominio público, debido a que

posterior a su utilización, sus fracciones cognoscitivas se dispersan en la población y son

utilizadas por terceros. Otro tipo de conocimiento tecnológico se mantiene bajo absoluta

confidencialidad, tales son los casos de la millonaria industria del armamento bélico, o de

laboratorios tantos farmacológicos, como de bioingeniería. Así como hay tecnologías a las que se

215

Al conocimiento tecnológico también es posible describírsele como proceso <<conocimiento práctico>>, y como producto <<conocimiento

operativo>>. 216

En la industria tecnológica se considera <<aserto>> a aquellos productos que poco tiempo después de diseñados logran posicionarse en los

primeros lugares en las listas de consumo. Aserto Tecnológico. 217

El conocimiento científico solo puede ser una ampliación del correspondiente al sentido común. Frase de Popper Karl op. Cit (p. 19).

Ro

iman

Val

bu

ena:

El C

on

oci

mie

nto

Tec

no

lógi

co y

su

s Ti

po

s.

Page 223: La investigación científica avanzada primera edición 2015

222

les asigna una propiedad cortoplacista, es el caso práctico de algunas patentes.

El nivel de vida de cualquier sociedad, según la teoría del crecimiento económico, dependerá

de su habilidad para producir bienes y servicios, y esto será posible, en mayor o menor cuantía,

si existe una política pública sostenida orientada a la generación de conocimiento tecnológico

por parte del estado, con intervención oportuna de las universidades y sus centros de

investigación. Es menester recordar que la investigación tecnológica es política, porque conlleva

condicionamientos sociales.

Antes de entrar en profundidad a describir cada uno de los ejemplos de conocimiento arriba

mencionados, como poiesis218

a la investigación tecnológica, se argumentará en diferentes

niveles, tanto la conceptualización de conocimiento, como sus tipos, sustentado sobre algunas

deferencias filosóficas. Sanguinetti (2005, p. 54-55), argumenta que el conocimiento es un acto

inminentemente contemplativo, no una modificación de la realidad. Se le asume como una

actividad psíquica <<inmaterial>> irreductible a los fenómenos físicos. Las vías del

conocimiento comienzan por los sentidos, cada sentido externo está constituido por una parte

orgánica periférica y por recorridos nerviosos que acaban en los centros cerebrales.

El conocimiento implica vivencias y experiencias, por lo que se le supone derivado

fundamental de la investigación, este adiestra a los individuos para la ejecución de acciones

basado en el acto de pensar. La investigación se convierte en el núcleo a partir del cual deben

inspirarse y promoverse la formación de todo individuo socialmente responsable. Las sociedades

han dejado la terea de producción de conocimientos a las universidades, se espera que ellas lo

creen, lo transmitan, lo desarrollen y lo incorporen universalmente de forma productiva y

competitiva.

Para efectos de este aparte del texto, el establecer una conceptualización única de

<<conocimiento219

>> resultaría en esencia compleja y fuera de la realidad. Sin embargo, podría

entendérsele como: El proceso mediante el cual, una persona percibe una información externa y

es capaz de adaptarla para sí, usando para ello la memoria, asociándola con otras

informaciones del mismo origen con tendencia al enriquecimiento de su acervo en el tema. Se

traduce en la capacidad que tendrá esa persona de captar y procesar información del entorno

que lo rodea.

El conocimiento es asimilable mediante la modificación paulatina de los hábitos culturales,

218

Nota del autor: Se entiende como Poiesis a toda acción que conlleve sistemáticamente a la creación de sabiduría y conocimiento. 219

Este concepto difiere un poco del descrito en el capítulo II como conocimiento lógico y asociado a las ideas científicas.

Ro

iman

Val

bu

ena:

El C

on

oci

mie

nto

Tec

no

lógi

co y

su

s Ti

po

s.

Page 224: La investigación científica avanzada primera edición 2015

223

sin embargo, la generación formal de éste, se produce a través de la investigación básica, la

aplicada, los estudios sobre ciencias humanas y el análisis de tecnologías. Esta última conlleva la

aplicación directa del conocimiento adquirido, y se le asocia a la corriente pragmatista. En

función de ello, el pragmatismo, según sus creadores220

, concibe al conocimiento como un

instrumento para la acción, es decir, el conocimiento útil es aquel utilizable y practicable, y que

cualquier creencia <<llámese forma o método de adquisición de conocimientos>> se puede

juzgar por su utilidad221

.

Yuni y Urbano (2005) explican, el conocimiento científico aplicado a la resolución de

problemas ha dado origen a la tecnología. Como primer esbozo, los autores argumentan que

existe una tendencia a considerar que primero debe haber una investigación básica y luego una

investigación tecnológica. No obstante, el rápido desarrollo y expansión de la tecnología en las

sociedades ha llevado a la situación opuesta, (P. 26). En vista de que la tecnología se vincula

fuertemente con el mercado económico, la investigación tecnológica ha tomado posiciones de

importancia en el campo científico, puesto que provee los recursos para continuar las

investigaciones. Es por ello que el desarrollo del conocimiento científico en las sociedades

actuales depende sobremanera del desarrollo tecnológico, incluso hoy día en las empresas

tecnológicas se habla de Gerencia y Gestión del Conocimiento.

El conocimiento se presenta como el carácter continuo y progresivo del saber humano. Para

su estructuración es necesario la interacción entre dos actores, el sujeto cognoscente y el objeto

cognoscible. El primero intenta aprehender al objeto, y el segundo debe presentar características

de ser captado. Por su lado, el Know That es una formulación usada para describir al

conocimiento declarativo. Sin embargo, hay una distinción importante que debe hacerse entre el

Knowing That y el Knowing How <<acción de cada uno>>, sobre todo en el área de la

ingeniería donde ambos son necesarios. A estos dos ejemplos de conocimiento ha de

entendérseles como del tipo explícito, es decir, se podrán formular adecuadamente usando para

ello un conjunto de enunciados.

220

Proviene de la escuela Estadounidense cuyos aportes filosóficos más importantes se le atribuyen a: Charles Sanders Peirce; Williams James

y John Dewey. Su razón fue llevar al empirismo a su máxima expresión. 221

Base del pensamiento utilitarista del conocimiento de Stuart Mill. Véase: Cap. II. ¿Qué es el Utilitarismo? En: El Utilitarismo. John Stuart

Mill. El utilitarismo o <<Teoría de la Felicidad>>, según Mill y su conceptualización, se considera a la consecución de la FELICIDAD a través del uso del conocimiento, puesto que utilidad se supone sinónimo de placer. La utilidad puede resumirse como una consecuencia racional del conocimiento obtenido, <<racionalidad instrumental>> también forma parte indivisible de la dimensión ideológica de toda producción científica. El utilitarismo exige que las leyes y disposiciones sociales coloquen a la felicidad como interés supremo de cada individuo, en armonía con el interés común. Como ejemplo: una persona que adquiere un nuevo aparato tecnológico lo hace al menos por dos razones; la primera por necesidad de actualización, y la segunda porque le genera placer su interacción con el equipo. El negar que esta sociedad actual no es en esencia utilitarista, más que necedad es ignorancia.

Ro

iman

Val

bu

ena:

El C

on

oci

mie

nto

Tec

no

lógi

co y

su

s Ti

po

s.

Page 225: La investigación científica avanzada primera edición 2015

224

Tipos de Conocimiento en Investigación Tecnológica

Conocimiento Declarativo Conocimiento Funcional

El Know That / El Know How Conocimiento Procedimental

El conocimiento declarativo es un tipo de conocimiento que puede ser articulado en palabras

que representen ideas. Permite saber qué es algo, pero presenta limitaciones a la hora de

operacionalizar mediante acción, ese algo. Al Know That se le asume un conocimiento del tipo

representacional; mientras, al Know How como del tipo operativo222

, se le describe como la

capacidad de ejecutar una función/acción. El conocimiento representacional consiste en la

representación y explicación exhaustiva de las propiedades del objeto cognoscible por parte del

sujeto cognoscente, no es necesario para ello la ejecución de procesos de transformación. De la

misma manera, al conocimiento funcional se le describe y hace énfasis en la capacidad de una

persona de ejecutar una función/acción, no a la capacidad de articular descripción alguna. Ambos

son mutuamente excluyentes.

Una característica distintiva del conocimiento funcional es que la orientación de los

conocedores <<Knower´s>>, se circunscribe a la realización de la función en vez de describirla.

El conocimiento procedimental, o de habilidad, se le entiende como el utilizado por los

Knower´s para seleccionar la mejor manera de ejecutar una acción, de tal modo que se evidencie

la eficiencia y eficacia del método seleccionado. El conocimiento del tipo operacional, también

es conocido como del tipo técnico, su asimilación es imprescindible en la investigación

tecnológica, y se le considera resultado inequívoco del paso del conocimiento declarativo al

operativo… desde la intuición a la habilidad.

El conocimiento tecnológico se ha convertido en factor determinante en la productividad

industrial. Los empresarios lo han entendido como la mejor manera de producir bienes y

servicios. En ese entorno resulta importante distinguir entre el conocimiento tecnológico y el

capital humano. Ambos con certeza están estrechamente relacionados, sin embargo, mantienen

importantes diferencias. Para la sociedad, el conocimiento tecnológico hace referencia a cómo el

mundo trabaja, opera y se mantiene.

En oposición, el capital humano se circunscribe a los recursos utilizados para transmitir tal

conocimiento, y proyectarlo sobre determinada fuerza laboral. Todo crecimiento económico

222

Quintanilla (2005) explica que el conocimiento representacional se basa en la intuición, mientras que el operativo en la habilidad. Así

mismo, el conocimiento tácito lo concibe como el conocimiento personal no formulado explícitamente mediante un conjunto de enunciados, asumiendo con ello que el conocimiento operacional Know How, tendrá al menos un componente tácito irreductible (p.241).

Ro

iman

Val

bu

ena:

El C

on

oci

mie

nto

Tec

no

lógi

co y

su

s Ti

po

s.

Page 226: La investigación científica avanzada primera edición 2015

225

sustentado en una serie de políticas públicas que persigan elevar el estándar de vida de sus

ciudadanos, dependerá de su capacidad de producir bienes y servicios. Para ello serán necesarios,

el capital humano, los recursos naturales con que cuente el entorno geográfico que se habita, y el

conocimiento tecnológico. Este último, desde el punto de vista económico, se le considera tan

importante, que es comercializable223

.

Todo crecimiento auto sostenido dentro de determinada economía, es consecuencia directa e

ineludible, de los avances en materia de tecnología. De allí el poder estratégico del

conocimiento, sobre todo en una época en la cual éste se ha convertido en el producto más

demandado en el plano internacional. El conocimiento tecnológico es un factor de producción

que avanzará a medida que sean palpables los resultados de las actividades de investigación y

desarrollo (I+D). En función de ello, puede considerársele un bien público. Las universidades en

su rol de creadoras de conocimiento, deberán articular estrategias para transferir el conocimiento

tecnológico de generación en generación en las áreas de ingeniería. Y los ingenieros, están en la

obligación de usarlo en procesos de investigación tecnológica e innovación que potencien el

desarrollo sostenible de su nación.

223

Nota 1: Es posible entre dos contratistas producir un contrato de Know How <<Provisión de Conocimientos Técnicos>>. Este es entendido

como aquel negocio jurídico en el cual se ejecuta la cesión o transmisión del derecho sobre un conocimiento técnico reservado, realizado por su titular a favor de la otra parte, a cambio de una contraprestación. Nota 2: Otra definición jurídica para el Know How es el acuerdo <<que tiene relevancia contractual autónoma>> con los cuales un contratista comunica a otro contratista, los conocimientos dirigidos a la solución de problemas técnicos y que no se hallan cubiertos por patentes. A fin de que este último pueda efectivizarlos en su propia actividad empresarial. En ese ámbito se usa la terminología: Know How Licenciante <<titular del conocimiento>>, y Know How Licenciatario <<contraparte o receptor de la licencia>>. La Nota 2 se le atribuye a: Bianchi, Alessandro. “Tutela de los conocimientos técnicos no patentados. Contratos de Know How y obligación de no comunicación a terceros”. Derecho Industrial, 7-9, p. 351. Aparece en Nota 1: Hesber Benaventes Chorres. (2008). “El contrato de Know How o aprovisionamiento de conocimientos técnicos: Aspectos a ser considerados para su regulación normativa”. Revista IuS Et Práxis. Año 14, Nº 2. P. 407 – 457.

Ro

iman

Val

bu

ena:

El C

on

oci

mie

nto

Tec

no

lógi

co y

su

s Ti

po

s.

Page 227: La investigación científica avanzada primera edición 2015

226

8.10.- Las Ingenierías y La Investigación Tecnológica

ara comienzos de la segunda década del siglo XXI la tecnología ha llegado a penetrar lo

más profundo de la psiquis humana. La Pervasividad Tecnológica224

se ha convertido

en un virus con tendencia a la propagación masiva. En 1991, Mark Weiser, para ese

entonces jefe del Centro de Investigaciones Tecnológicas de Xerox en Palo Alto California,

describió su visión acerca de lo que sería la computación del siglo XXI, manifestando: <<Las

Más Profundas Tecnologías son aquellas que Desaparecen>>, Saha y Mukherjee (2003). Tanto

la tecnología pervasiva como el descubrimiento científico a través del búsqueda intensiva de

datos <<lo que Microsoft ha denominado el cuarto paradigma>> ha llegado a convertirse en los

paradigmas más abordados por las grandes corporaciones tecnológicas en estos momentos,

invirtiendo grandes sumas de dinero en sus centros de investigación y desarrollo con el objeto de

sacarle máximo provecho.

Pasados diez años de la presentación por parte de Weiser de su artículo <<The Computer for

the 21st Century>> y publicada en <<Scientific American>> para septiembre del 91, la IEEE

(Institute of Electrical and Electronics Engineers) crea la Pervasive Computing Magazine, con

amplio reconocimiento a nivel mundial, y que junto a la Carnegie Melon University han

conformado desde entonces un catalizador para el avance de la investigación y la práctica de la

computación móvil y ubicua. Es el foro principal para la publicación de artículos científicos,

noticias del sector, encuestas, además de tutoriales para una comunidad amplia y

multidisciplinar.

224

Término empleado sobre el proceso de manejo de un conjunto de pequeños de dispositivos móviles interconectados inalámbricamente

entre sí para la consecución de una tarea común, el facilitar al usuario las actividades diarias es uno de ellos. Sin embargo, existen otras aplicaciones. También se le conoce como: pervasive computing, ubicuos computing y calm Technology. Esta conceptualización surgió desde el momento que la tecnología evidenció el haberse hecho sumamente penetrante, si bien es cierto ha servido de mucho, también tiene sus detractores, quienes aseguran se ha creado un mundo de súper adictos a la tecnología. Un ejemplo de ello son los adictos a los Smartphone, una de las herramientas de mayor poder pervasivo hasta el momento.

P

La tecnología es una dama tan, pero tan inteligente, que con dulces y suaves insinuaciones, antes

de darte cuenta, ya te ha hecho su esclavo.

La Investigación Tecnológica se nutre de problemas altamente complejos pero interesantes; sus

científicos no se amilanan ante sus desafíos; sus resultados van más allá de lo que la mente

humana pudo alguna vez haber imaginado; entonces…El Método en Tecnología… debe ser tan

brillante y efectivo, como la comunidad científica que de él hace uso…

Roiman Valbuena.

Page 228: La investigación científica avanzada primera edición 2015

227

Gran cantidad de empresas líderes en tecnología interesadas en sus retribuciones económicas,

con ciertos grados de profundidad han emprendido investigaciones en cuatro ámbitos: Smart

Spaces (Usos Eficaces de Espacios Inteligentes); Invisibility (Invisibilidad Tecnológica);

Localized scalability (Escalabilidad Localizada) y Uneven Conditioning (Enmascaramiento

Acondicionado Desigual)225

. Elementos que junto a la computación móvil y los sistemas

distribuidos dieron origen a la computación ubicua. A pesar de considerársele relativamente

nueva, la Tecnología Pervasiva ha mostrado en los últimos tiempos, un patrón regular con

evidencias de un incremento de frecuencia en sus adaptaciones a entornos corporativos.

Por su lado, un espacio inteligente es concebido como un área geográfica que incorpora a la

computación dentro de su proceso de diseño y construcción, reúne dos mundos que se habían

desunido hasta ahora, el mundo de la tecnología computacional con la interacción humana. La

fusión de estos mundos permite su detección y control mutuo. Muy conocido actualmente como

domótica en algunas de sus aplicaciones (automatización de hogares u oficinas). Donde los

sistemas automatizados han facilitado las labores cotidianas de tal manera que el solo pensar en

su ausencia, causa nerviosismo al humano con el cual interactúa el sistema, ocasionándole cierto

nivel de dependencia. El uso eficaz de estos espacios trata la optimización de los mismos.

La invisibilidad tecnológica es una idea expresada por Weiser, trata de la completa

desaparición de la tecnología informática generalizada de la conciencia de un usuario. En la

teoría de la invisibilización tecnológica, la imperceptibilidad del equipo informático o telemático

es indispensable. En la práctica, una aproximación razonable a este ideal es la distracción

mínima del usuario. Si un entorno de computación ubicua contínua cumple con las expectativas

del usuario y rara vez lo presenta con sorpresas, le permitía interactuar a un nivel casi

subconsciente. Un humano podrá intervenir con intención de adaptar el ambiente, cuando este no

cumpla automáticamente con sus expectativas.

En cuanto a la Escalabilidad Localizada, los espacios inteligentes en los últimos tiempos han

tendido al crecimiento, crecen en sofisticación, por lo que la intensidad de las interacciones entre

el espacio de un usuario de computadores personales y sus alrededores aumenta. Esto tiene

implicaciones graves de ancho de banda, de velocidad de transmisión, de asignación de canales,

y de energía. Escalabilidad, en el sentido más amplio, por lo tanto es un problema crítico en la

computación ubicua.

Según las leyes del inverso del cuadrado de la naturaleza, su postulado central afirma sobre

225

Para más detalle Véase: M. Satyanarayanan, Carnegie Mellon University. Pervasive Computing: Vision and Challenge. Disponible en:

http://www.cs.utoronto.ca/~delara/courses/csc2228/papers/satya.pdf

Ro

iman

Val

bu

ena:

Las

Inge

nie

rías

y la

Inve

stig

ació

n T

ecn

oló

gica

.

Page 229: La investigación científica avanzada primera edición 2015

228

algunos fenómenos físicos que, su intensidad tenderá a disminuir con el inverso cuadrado de la

distancia que lo separa de la fuente que le da origen, es decir, mientras más lejos se está de la

fuente menor intensidad del fenómeno y viceversa. Esto implica un buen diseño del sistema para

lograr la escalabilidad reduciendo severamente las interacciones entre entidades distantes. Esto

contradice directamente el ethos actual de Internet, que muchos creen que anuncia la "muerte de

la distancia" (no importa cuán distante se encuentren dos equipos, estos podrán conectarse), por

el contrario, para la computación ubicua y sus posibilidades de escalamiento la tendencia es al

distanciamiento.

La penetración uniforme de la tecnología de la computación ubicua en infraestructuras es de

muchas décadas de distancia. Las redes ubicuas son consideradas como el último eslabón en la

secuencia de crecimiento de los entornos distribuidos. El nivel de inteligencia en entornos

diferentes, con normalidad tiende a ser desigual y persistente. Al igual que tiende a variar en

empresas del mismo sector económico. Este amplio rango dinámico de la "inteligencia" puede

ser irritante para el usuario, desvirtuando el objetivo de que la computación ubicua se

invisibilice. Como un ejemplo trivial, un sistema que sea capaz de funcionamiento desconectado,

será capaz de enmascarar la ausencia de cobertura inalámbrica en su entorno. A esto se le

denomina Enmascaramiento Acondicionado Desigual.

Si usted trabaja, o cotidianamente se desenvuelve en un área donde converjan un conjunto de

pequeños dispositivos móviles interconectados inalámbricamente, los cuales le ayudan en

proporciones significativas a sus quehaceres diarios, no se asuste, usted es un esclavo pervasivo,

y a diferencia de otros tipos de esclavitud, llevará sus grilletes con placer. No espere un héroe al

rescate, en referencia al proverbio, el mal se combate con el bien, aquí no sucede lo mismo, pues

la tecnología se combate con tecnología. La esencia de esta visión fue la creación de ambientes

saturados con la informática y la capacidad de comunicación, pero con gracia, integrando a los

usuarios humanos con las computadoras. A esto se le denomina226

entorno Weiser:

Hay más información disponible en nuestra planta del pié durante un paseo por el

bosque que en cualquier sistema informático, sin embargo, la gente encuentra un

paseo entre los árboles relajante y a las computadoras frustrantes. Máquinas que se

ajustan al entorno humano en lugar de forzar a los seres humanos a entrar en ellos,

harán del uso de una computadora tan refrescante, como dar un paseo en el bosque.

A través de un cuerpo de conocimientos indudablemente innovador, la tecnología pervasiva

ha logrado profundas transformaciones tanto en el modus vivendi como en el operandi de los

226

Hay quienes la denominan Inteligencia Ambiental. Véase: Hansmann, Uwe (2003, p. 67 - 80). Pervasive Computing: The Mobile World.

Springer.

Ro

iman

Val

bu

ena:

Las

Inge

nie

rías

y la

Inve

stig

ació

n T

ecn

oló

gica

.

Page 230: La investigación científica avanzada primera edición 2015

229

espacios de trabajo. Se ha producido como resultado de la unión de los sistemas distribuidos con

la computación móvil. Generando gran cantidad de campos de investigación, en la infografía 1

se muestran algunas de las áreas con extrapolación de tendencias hacia su desarrollo continuo y

progresivo, tanto en el ámbito empresarial como académico.

Problemas de Investigación en Computación Móvil Pervasiva.

Tomado de Taxonomy of computer Systems. Satyanarayanan (2001).

Sin embargo, pasará mucho tiempo todavía en Venezuela, hasta que se haga un correcto

abordaje de este tipo de investigaciones. Los paradigmas actualmente dominantes en el entorno

académico nacional no conseguirán arrojar resultados satisfactorios sobre estas disciplinas. Sólo

el uso de la investigación tecnológica, conjugado con el pensamiento ingenieril podrá satisfacer

tales necesidades de conocimiento tecnológico. Lo anteriormente descrito no implica unicidad de

campos de investigación, sólo describe los más abordados. Es mucho más complejo el diseño e

implementación de un sistema computacional pervasivo, que un simple sistema distribuido de

comparable robustez y madurez, por lo que el abordaje en profundidad en cualquiera de los ejes

derivados de la computación Ubicua, se ha desarrollado de modo lento pero progresivo en el

tiempo. De la misma manera, las infraestructuras inalámbricas e internet han tenido su impacto

en la forma de vivir de los seres humanos, sobre todo, la de relacionarse con su entorno.

El desarrollo de investigaciones sobre la interacción humana con la tecnología pervasiva

puede vislumbrarse desde dos vertientes, la primera envuelve al conocimiento factual, implica

preguntarse ¿Qué es? Lo que hasta el momento se conoce. La otra vertiente, que se extrae desde

la primera, se proyecta al diseño de nuevo conocimiento ¿Qué podría llegar a ser? Todo ello

desde el punto de vista de una aproximación complementaria estrechamente vinculada a los

aspectos humanos, y su interacción con ambientes saturados con la informática. A esta

Comunicaciones Remotas a través de

la Ingeniería de Protocolos

Toterancia a Fallos sobre

Nuevas Redes

Técnicas de Acceso a

información Remota

Seguridad Distribuida

Sistemas Compatibles de

Energía

Redes Móviles Ancho de Banda Adaptativo

Sensibilidad Localizada

Ro

iman

Val

bu

ena:

Las

Inge

nie

rías

y la

Inve

stig

ació

n T

ecn

oló

gica

.

Page 231: La investigación científica avanzada primera edición 2015

230

información generada por los usuarios se le conoce como geoinformación ubicua, relacionada al

Human Component Interaction (HCI).

Sin embargo, debe reconocerse la imposibilidad actual de una infraestructura de computación

ubicua totalmente transparente e invisible. Por lo que un entorno Weiser, todavía sigue siendo un

deseo insatisfecho. En función de ello, los ámbitos de investigación de sectores de desarrollo

tecnológico, podría decirse, apenas comienzan. Y con ello, nuevos elementos se suman y

concatenan para crear nuevos focos de indagación.

Cada día se originan nuevas patologías asociadas con el manejo de la información, debido a

que ésta es indispensable en la toma de decisiones. Si bien los estudios de la computación ubicua

son necesarios, también lo son los efectos sobre los usuarios a los que se les somete a esta

tecnología. El desarrollo de un sistema complejo nunca ha sido un problema de nueva data, sin

embargo, al adentrarse con actitud inquisitiva en las bases de un sistema tecno – pervasivo, se

genera una comprensión de la complejidad a menudo diferente sobre el entorno que se crea, que

sobre el ser humano con el cual se interactúa.

Hay efectos demostrados sobre la mente humana. Esto ha llevado a enfrentamientos entre

gente real y su entorno pervasivo, al respecto Griffiths (1997) señala la existencia de lo que para

la época denominó: adicciones tecnológicas, que se definen como adicciones no químicas que

involucran la interacción hombre-máquina. Para Griffiths, cualquier comportamiento que cumpla

los siguientes seis criterios será definido operacionalmente como adicción, y será tecnológica si

tal actividad se realiza a través de un equipo electrónico:

Saliencia: se refiere a cuando una actividad particular se convierte en la más importante en la

vida del individuo y domina sus pensamientos, sentimientos y conducta. Modificación del

humor: experiencias subjetivas que la gente experimenta como consecuencia de implicarse en la

actividad. Tolerancia: proceso por el cual se requiere incrementar la cantidad de una actividad

particular para lograr los efectos anteriores. Síndrome de abstinencia: estados emocionales

desagradables y/o efectos físicos que ocurren cuando una actividad particular es interrumpida o

repentinamente reducida.

Conflicto: Se refiere a los conflictos que se desarrollan entre el adicto y aquellos que le

rodean (conflicto interpersonal), conflictos con otras actividades (trabajo, vida social, intereses,

aficiones), o dentro de los propios individuos (Conflicto intrapsíquico) que están involucrados

con la actividad particular. Recaída: es la tendencia a volver los patrones tempranos de la

actividad que vuelven a repetirse, restaurando los patrones más extremos de la adicción tras

Ro

iman

Val

bu

ena:

Las

Inge

nie

rías

y la

Inve

stig

ació

n T

ecn

oló

gica

.

Page 232: La investigación científica avanzada primera edición 2015

231

muchos años de abstinencia o control. Pero lo importante en la adicción no es la actividad

concreta que genera la dependencia, sino la relación que se establece con ella. Es una relación

negativa, incluso destructiva que el sujeto se muestra incapaz de controlar.

De acuerdo a Andrew Hough, escritor de un diario británico, en un reciente estudio227

, los

investigadores encontraron que casi cuatro de cada cinco estudiantes (80%), mostraron una

significativa perturbación mental y física, con observaciones de pánico, confusión y aislamiento

extremo cuando se vieron obligados a desconectarse de la tecnología durante un día entero. Con

evidentes síntomas de depresión y ansiedad. En el mismo estudio, un estudiante no identificado

afirmó a investigadores de la Universidad de Maryland (USA), que sus ansias fueron tan

significantes y abrumadoras como la que se presenta en la adicción al crack de cocaína.

De acuerdo con John O´Neill, director del servicio de adicciones del instituto clínico

Menninger, en Houston, citado por Moskowitz (2008). Afirma que existen personas tan adictas a

la tecnología que niegan el relacionarse cara a cara con otras. Sólo interactúan a través de emails

o mensajes de texto, a los que denominan ―Adictos a las Comunicaciones‖. Así mismo, O'Neill

admitió que no hay suficiente investigación para establecer si el uso excesivo de la tecnología,

pudiese calificarse como adicción, sino que citó a personas que no pueden sentarse a ver una

película sin antes consultar sus teléfonos celulares o hacerlo a través de la cena, sin mirar a

escondidas en sus Smartphone como adictos potenciales. Es por ello que, tanto investigadores

como desarrolladores pervasivos deben estar al tanto de las secuelas de sus productos.

Por otro lado, la computación ubicua surge del deseo humano de querer estar

simultáneamente en varios lugares, interactuando con sistemas virtuales y con diferentes

personas, viviendo múltiples vidas, realizando actividades divergentes, convergentes,

conversando, aprendiendo, enseñando, y compartiendo. El deseo de un mundo perfectamente

interconectado para escenarios futuros se ha convertido en la visión de muchos centros de

investigación y desarrollo tecnológico. Pero francamente, los investigadores deben prestar

atención primaria a eventuales implicaciones de este juego pervasivo en el estado de

imperfección actual.

El uso excesivo de un equipo de comunicación puede llevar a una persona a la

incomunicación. Desde la creación de la tecnología pervasiva se ha reducido considerablemente

la resilencia tecnológica. Si bien es cierto que la tecnología es necesaria, y ha ayudado a las

227

Artículo publicado en The Telegraph, abril del 2011. En el estudio se dio participación a casi 1000 estudiantes, entrevistados en 12 campus

disgregados en 10 países, incluyendo Gran Bretaña; UU.UU; y China. Disponible en: http://www.telegraph.co.uk/technology/news/8436831/Student-addiction-to-technology-similar-to-drug-cravings-study-finds.html

Ro

iman

Val

bu

ena:

Las

Inge

nie

rías

y la

Inve

stig

ació

n T

ecn

oló

gica

.

Page 233: La investigación científica avanzada primera edición 2015

232

empresas a ser más competitivas en el mercado, no es lo mismo ser un esclavo pervasivo

inadvertido, que uno de pleno conocimiento. Como preámbulo ineludible al desarrollo de un

proyecto de investigación sobre aplicabilidad de la tecnología pervasiva, se debe hacer un

involucramiento activo y complementario en dos direcciones. La primera orientada al estudio

sicológico del comportamiento humano como arma tecnológica para su dominio, es decir, la

ciencia como coeficiente de influencia y persuasión. Implica el tratar de convertir a los seres

humanos de factores a actores a través de la sicología, para ello ha de adentrarse en el Human

Component Interaction (HCI) previamente mencionado.

La segunda dirección consiste, en plantear en esencia, el pensamiento o discernimiento

ingenieril, que comprende un conjunto de actividades para validar el conocimiento. El

pensamiento ingenieril, como elemento integrador y coherente, es claramente diferenciable del

pensamiento científico. El ingeniero tiende a compenetrarse con las etapas sucesivas de un

diseño de un modelo o prototipo como algo que le es inherente. Para ello se sirve de una idea

generatriz, en principio difusa, que posterior a un proceso detallado de análisis, genera técnicas y

herramientas para producir artefactos de utilidad práctica.

Bannon (1991, p. 25) sostiene que, para entender a los humanos en situación de actores con

un conjunto de destrezas y prácticas compartidas basadas en sus experiencias de trabajo con

otros. Se requiere de una nueva metodología para observar y entender la relación entre la gente,

la tecnología, y los requerimientos tanto organizacionales como de trabajo, todos compelidos

únicamente al área geográfica o espacio físico donde se ejecutan las labores. Estudiar esta

multiplicidad de elementos, y sus interacciones, exhorta a adentrarse más allá del tradicional

experimento controlado en laboratorio, por cierto muy escaso en los proyectos de investigación

de las escuelas de ingeniería en Venezuela, peor aún, más escasos lo son en los postgrados de

ingeniería.

Este tipo de investigación es el que le otorgará el sello de validez a los experimentos en el

campo del HCI. Implica entonces, convertir al sitio de trabajo en un laboratorio. El objetivo

consistirá en reemplazar a los factores humanos por actores humanos a través de la interacción

tecnológica. Las diferencias entre el primero y el segundo, estriban en la percepción que el

investigador logre generarse de la persona bajo estudio. Un factor humano es pasivo,

fragmentado, despersonalizado, desmotivado e individual. Al ser convertido en un actor humano

cumplirá un rol activo y motivado pero sutilmente controlado. Mientras más placentero le resulte

el equipo tecnológico con el que interactúe, más activo y controlado será.

Ro

iman

Val

bu

ena:

Las

Inge

nie

rías

y la

Inve

stig

ació

n T

ecn

oló

gica

.

Page 234: La investigación científica avanzada primera edición 2015

233

Puesto que los eventos a sucederse en tecnología pervasiva permanecen implícitos en la

mente de cada diseñador, es lógico y común plantearse escenarios, es decir, un posible uso

ficticio en el presente, pero hecho realidad a futuro, esto con el fin de exteriorizar las ideas. El

diseño tecno pervasivo posee un alto componente de investigación experimental, con todas las

implicancias estadísticas y aleatorias que tales indagaciones ameritan. A continuación se

presenta un escenario de ejemplo, tomado de Satyanarayanan (2001, p.3):

Jane es una chica que se encuentra en la puerta 23 del aeropuerto de Pittsburg,

esperando un vuelo que la trasladará a otra ciudad. Ella ha editado una gran cantidad

de documentos y desea hacer uso de la red inalámbrica del aeropuerto para enviarlos

por email. Desafortunadamente el ancho de banda es escaso, esto debido a que

muchos pasajeros, en las puertas vecinas 22 y 23 están navegando en la web.

Aura observa que con el actual ancho de banda Jane no podrá enviar sus documentos,

por lo menos no antes de que su vuelo parta. Para ello decide consultar a la red del

servicio meteorológico, y el servicio de horarios de vuelos. Aura descubre que el

ancho de banda inalámbrico es excelente en la puerta 15, puesto que ningún vuelo

llegará ni partirá por ella en los subsiguientes treinta minutos.

Posterior a ello, en la pantalla del computador de Jane, aparece un cuadro de diálogo

emergente sugiriéndole el trasladarse hasta la puerta 15, ubicada a tres minutos de

distancia. En el mensaje se le indica también que se priorizará el envío de correo,

pues se le considera como mensaje crítico y debe ser enviado primero. Jane acepta la

sugerencia de Aura y camina hasta la puerta 15.

Jane comienza su proceso mientras observa las noticias en tv, hasta que Aura le

informa que debe darse prisa con el envío de sus correos y regresar a la puerta 23. El

último mensaje fue transmitido durante su regreso, justo a tiempo y coincidiendo con

el llamado de abordaje.

En el ejemplo descrito, podría decirse que Aura pasó a ser de un factor humano a un actor

humano. Sin embargo, Aura no existe, obsérvese que entre Jane y ella nunca hubo intercambio

de palabra alguno, ni siquiera se hizo mención de que fuesen amigas, se le ilustró como ejemplo

de un Sistema Computacional Pervasivo. Con quien realmente interactuó Jane, fue con la red

pervasiva del aeropuerto (Aura). El sistema fue capaz de percatarse de las necesidades de Jane y

Ro

iman

Val

bu

ena:

Las

Inge

nie

rías

y la

Inve

stig

ació

n T

ecn

oló

gica

.

Page 235: La investigación científica avanzada primera edición 2015

234

utilizó todos los medios posibles para solucionarle el problema228

. A Aura se le visualizó como

un sistema de computación ubicua libre de distracciones.

Un sistema computacional pervasivo debe ser proactivo, la proactividad como indicador de

eficacia. Se considera fundamental en este tipo de sistemas, el que se haga seguimiento y detecte

la intención del usuario, esto claro, sin finalidad alguna de violar su privacidad. De lo contrario,

sería casi imposible el determinar qué acciones del sistema se considerarían ayuda, y que otras

acciones obstaculizarían los servicios a usuarios. En este ejemplo se hizo uso convergente de 3

campos de investigación sobre sistemas tecno pervasivos tomados de la taxonomía de los

sistemas computacionales. La seguridad distribuida; la Sensibilidad Localizada; y el Ancho de

Banda Adaptativo.

Saha y Mukherjee (2003), generan una descripción detallada de los proyectos de iniciativa

sobre computación ubicua, que para la fecha se llevaban a cabo y que aún continúan en

desarrollo. El Proyecto Aura por parte de la Carnegie Melon University. El Proyecto Oxigeno

por parte del Instituto Tecnológico de Massachusetts, el cual se centra en una visión de futuro

donde la computación sería libre y accesible donde quiera, tal como el oxígeno. También existen

los proyectos: Portolano (Universidad de Washington) soportado sobre la teoría de la

invisibilidad; el Proyecto WebSphere Everyplace de IBM; el proyecto EasyLiving de Microsoft;

el proyecto Sentient Computing de AT&T, en conjunto con la Universidad de Cambridge. Sin

olvidar el proyecto Cooltown de Hewlett-Packard’s.

Para el año 2012, la IEEE, en conjunto con una gran cantidad de universidades, continúan el

desarrollo de proyectos bajo estos modelos. Con el tiempo se espera que la computación ubicua

sea fuente de fértiles recursos que aporten soluciones a la multiplicidad de problemas a los que

se enfrentará la raza humana en los años por venir. Esto requerirá de grandes esfuerzos de

creatividad por parte de los ingenieros encargados de los proyectos. Para su desarrollo se

requerirá de la convergencia multidisciplinaria de carreras de ingeniería, las cartas están sobre la

mesa, solo falta el avocamiento en extenso por parte de las universidades que lideren

investigaciones con resultados tangibles y cortoplacistas. Donde la Metodología de Investigación

Tecnológica jugará uno de los papeles primordiales, el de guía del camino.

228

De esta manera caracterizó la Carnegie Mellon University el proyecto Aura (www-2.cs.cmu.edu/~aura/).

Ro

iman

Val

bu

ena:

Las

Inge

nie

rías

y la

Inve

stig

ació

n T

ecn

oló

gica

.

Page 236: La investigación científica avanzada primera edición 2015

235

CONTENIDO DEL CAPÍTULO

9.1.- La Física Teórica

9.1.1.- La Energía

9.1.2.- La Materia

9.1.3.- El Tiempo

9.1.4.- El Espacio

9.1.5.- La Física Teórica según el Enfoque Centrado en el Fenómeno

9.1.6.- El Enfoque Constructivo de la Física Teórica

9.1.7.- El Enfoque Abstracto de la Física Teórica

9.1.8.- El Enfoque Unificacionista de la Física Teórica

9.2.- Los Sistemas Físicos y la Causación Universal

9.2.1.- Los Sistemas Físicos

La Investigación Científica Avanzada

C

A

P

Í

T

U

L

O

IX

El Método de la Física Teórica

El espacio dice a la materia cómo debe moverse, la materia con su gravedad le dice al

espacio cómo debe curvarse.

John Archivald Wheeler.

Page 237: La investigación científica avanzada primera edición 2015

236

9.1.- La Física Teórica

i usted desea aprender sobre física teórica y todo sobre los Métodos que en ella se

utilizan, permítame advertirle: <<No escuche sus palabras, Examine sus logros>>. Para

el descubridor en este campo, los efectos de las construcciones en su imaginación son

tan necesarios, y deben parecer tan naturales, que serían aptas para ser tratadas no como

creaciones de sus pensamientos, sino como realidades realmente dadas. Albert Einstein229

(1934). Según James Clerk Maxwell, todas las ciencias matemáticas se basan en las relaciones

entre las leyes físicas y las leyes de los números, por lo que el objetivo de la ciencia exacta es

reducir los problemas de la naturaleza a la determinación de las cantidades mediante

operaciones con números. Así opera la física teórica.

A la Física Teórica puede concebírsele, como una de las ramas de la física donde sus

científicos realizan estudios tendentes a dar explicaciones sobre eventos naturales apoyándose

sobre modelos matemáticos y generalmente computarizados. Buscan comprender los fenómenos

físicos para luego elaborar teorías que les permitan no solo predecirlos, sino, desarrollar modelos

estructurales de sistemas completos, aplicando a la vez, un raciocinio máximo sobre la realidad

física observada.

Sin duda alguna, la Física Teórica es la ciencia más antigua y desarrollada en cuanto a la

conformación de una estructura teorética innegablemente precisa, pudiendo ésta responder a

través de los años a muchas interrogantes en su campo. Es asombroso el cómo sus científicos

pueden dar respuestas a preguntas como: ¿Por qué brillan las estrellas?; ¿Por qué el cielo es azul

y el agua un fluido?; ¿cómo se produce electricidad?; ¿Cómo se creó el universo?; ¿Qué es la

radiación? o ¿Qué son los agujeros negros?

Los Físicos Teóricos no son diferentes a los teoristas de las ciencias humanas, no obstante,

229

Tomado Del Prólogo de la obra: On the Method of Theoretical Physics. Autor, Albert Einstein (1934; pp. 163-169). Philosophy of Science,

Vol. 1, No. 2. Published by: The University of Chicago Press on behalf of the Philosophy of Science.

S

… ahora quiero desviar mi vista por un momento al desarrollo del Método Teórico, deseo hacerlo

especialmente para observar la relación entre teoría pura y la totalidad de los datos de la

experiencia… allí se encuentra la antítesis eterna de los dos componentes inseparables del

conocimiento humano, la Experiencia y la Razón dentro de la esfera de la física…

Albert Einstein

Page 238: La investigación científica avanzada primera edición 2015

237

mientras que el avance en las ciencias físicas se ha producido a través de una aplicación

sistemática de propuesta teórica y refutación experimental, en las ciencias humanas se ha

sucedido de otra manera. Esta es ideográfica, no crea leyes ni postulados generales, allí no se

refutan teorías, sólo tienden a dejárseles a un lado y olvidárseles. Son un modelo de racionalidad

científica dirigido al estudio del ser humano como un todo.

La física es una ciencia tanto teórica como experimental, sus científicos observan la

naturaleza y a través de su comportamiento intentan explicar las leyes que la rigen. Notable es la

diferencia entre Físicos Teóricos y Experimentales, los primeros se encargan de elaborar y

concatenar el conjunto de ideas lógicas que darán origen a postulados e hipótesis, los cuales

subsecuentemente, les permitirán construir teorías axiomatizadas. Los Físicos Experimentales

por su lado, conducen experimentos y colectan datos para confirmar las predicciones de los

teóricos. Pese a que, en otros tiempos, los experimentalistas colectaban primero la data y los

teoristas intentaban dar explicación racional a los resultados.

En cuanto a la relación teoría-praxis y de acuerdo a la lógica y al sentido común, la teoría es

por naturaleza opuesta a la práctica. El experimentador presupone factibilidad al ejecutar un

experimento de la prueba que se le solicita, relacionándolo al principio de causalidad, donde todo

antecedente entraña su consecuente. Planteado de esa manera, en toda ciencia que se intente

programar actividades del tipo propositivo orientadas a la articulación de un sistema teorético, se

ha de entender bien el precepto <<La teoría siempre precede al experimento >> de hecho es

imposible teorizar en su ausencia.

Esta sección, dedicada exclusivamente a la Física Teórica, busca asociar dos elementos de

importancia e inseparables dentro del campo de la investigación científica y la esfera

tecnológica; el primero consiste en describir detalladamente el cómo estos científico generan,

contrastan y refutan teorías, modelos que pueden ser seguidos por estudiosos de las ciencias

sociales y tecnólogos. Por último, los avances en el desarrollo de la física en épocas recientes ha

incrementado el progreso tecnológico, así como, sólo han sido posibles grandes avances en la

física gracias a la sofisticación de procesos mediante el uso de tecnologías avanzadas.

Lo que se hace conveniente detallar y explicar sus relaciones puesto que la física y la

tecnología se complementan entre sí. Se pide al lector, paciencia durante el avance de la lectura,

lea tan sosegada y pausadamente como le sea posible. Se recomienda la revisión inmediata de las

citas a pie de página al momento de encontrarlas, éstas precisan los temas bajo estudio sin

desviar el sentido orientatorio del desarrollo expositivo que se pretende. Se intentará explicar lo

Ro

iman

Val

bu

ena:

La

Físi

ca T

eóri

ca.

Page 239: La investigación científica avanzada primera edición 2015

238

más sencillamente posible, los contenidos y relaciones entre ellos, procurando simplificar el

nivel de abstracción sin sacrificar exactitud ni objetividad descriptiva.

Téngase en cuenta que a la Física Teórica sólo es posible comprendérsele mediante el uso de

enunciados matemáticos, éstos últimos, también se dilucidarán, destinándose para ello un

lenguaje técnico exhaustivo no complejizante. Aclarado el asunto, a continuación se mencionan

los conceptos, categorías y elementos que componen a la física, así como, diversos enfoques

metodológicos tendentes a desarrollar sus teorías. La Física consiste en el estudio del mundo

material, es la ciencia fundamental de la materia. Se encarga de buscar reglas generales y

patrones que permitan describir el comportamiento del universo desde su creación. Esta ciencia

se basa en la observación experimental y en la cuantificación de medidas. Se centra en la

identificación de determinado número de leyes fundamentales que rijan, gobiernen o intervengan

en los fenómenos naturales. Busca el desarrollo tanto de teorías como modelos matemáticos que

permitan predecir resultados a experimentos.

En su historia nunca se han ocultado las discrepancias, notables y marcadas, entre el modelo

predictivo bajo las condiciones de la teoría, contra los resultados de un experimento. La física

como ciencia fáctica genera conclusiones totalmente verificables. Toda teoría no solo en física,

sino, en cualquier área de conocimiento, ha de generarse en función de describir y predecir

eventos que puedan ser observados y medidos. No existe proceso más importante dentro de la

actividad científica que el derrocamiento de teorías erróneas. Para ello es necesario un método,

es decir, un procedimiento razonado, sistemático y estable, organizado por pasos y reglas que

permitan alcanzar un fin, es por ello que los Físicos Teóricos aplican el método de las

matemáticas al estudio de la naturaleza.

A principios del siglo XX, David Hilbert comenzó con sus intentos de adoptar a la física

como una disciplina científica pero desde el punto de vista matemático. Para ello debía

esclarecer sus fundamentos y posteriormente formalizarla, pero desde una perspectiva cartesiana,

es decir, geométrica. De ser esto posible, entonces podría conseguirse una física axiomatizable y

demostrable230

, tal como sucede con los más sofisticados argumentos de los geómetras, Radaña

(2003).

Centró sus trabajos en Física-Matemática con aportes sobre: Ecuaciones de Campos

Electromagnéticos; Gravitación y Mecánica Relativista. También hizo estudios sobre Teorías

Formales y Teoría de la Demostración. El muy famoso y denominado problema número 6 de

230

De esto se trata el denominado problema número 6 de Hilbert. Los otros 5 se derivaban de los axiomas de Euclides.

Ro

iman

Val

bu

ena:

La

Físi

ca T

eóri

ca.

Page 240: La investigación científica avanzada primera edición 2015

239

Hilbert se titula: Tratamiento Matemático de los Axiomas de la Física, con esto dio luz a muchos

Teoristas Físicos para los procesos de deducción y concatenación con la axiomática, su

formulación se escribe así:

Las investigaciones en los fundamentos de la geometría sugieren el siguiente

problema: tratar de la misma manera, por medio de axiomas, aquellas ciencias físicas

en las que las matemáticas jueguen un papel importante. En primer lugar, la Teoría

de las Probabilidades y la Mecánica. Radaña op, cit (p. 648).

Para el autor, esto tiene sus antecedentes cuando Newton, bajo sugerencias de Halley, se

decide a escribir un libro de Mecánica desde una perspectiva matemática, para ello toma el

modelo de Euclides. La geometría Euclidiana es considerada como una de las primeras teorías

físicas por la forma en que describe líneas y espacios. Hilbert, al igual que Popper, Bunge y

Lakatos, sostuvo que la independencia y total ausencia de contradicción eran criterios

fundamentales para una axiomática – matemática, y por ende, para una correcta estructuración de

cualquier Teoría Física.

Axiomatizar la física es diferente a matematizarla, la física por ser ciencia natural debe

desarrollarse basada en datos experimentales, sin embargo, Hilbert al igual que Einstein,

plantearon que las leyes de la física son expresables en lenguaje matemático, esto es

matematizar. Axiomatizar implica la acción de demostrar, bajo formalismo matemático y

adecuado a los experimentos, todas las leyes que gobiernan a la naturaleza. En función de ello

estableció lo siguiente:

La geometría es una ciencia que se ha desarrollado hasta un nivel tal que todas sus

propiedades pueden ser obtenidas por deducción lógica a partir de otras propiedades

previamente admitidas. Se trata de una situación muy diferente a lo que ocurre por

ejemplo, con la teoría de la electricidad o la óptica, donde incluso actualmente se

siguen descubriendo nuevos hechos. Radaña (P. 650).

Para dar inicio y como epítome al Método Teórico en Física, necesario es conocer la

interacción entre cuatro componentes fundamentales de la física clásica; la energía, la materia, el

tiempo y el espacio. Desde el punto de vista filosófico, la física contiene, además de las cuatro

categorías antes mencionadas, otras dos, la causalidad y la casualidad, que más adelante se

abordan.

Ro

iman

Val

bu

ena:

La

Físi

ca T

eóri

ca.

Page 241: La investigación científica avanzada primera edición 2015

240

9.1.1.- La Energía

Con respecto a la Energía, se le concibe como la capacidad que posee un sistema para

realizar trabajo. Existe bajo diversas formas, la producida por el calor, la energía cinética o la

mecánica, e incluso la luz tiene su forma de energía. De acuerdo a la ley de conservación de la

energía, esta no se crea ni se destruye, simplemente sufre transformaciones.

9.1.2.- La Materia

A la Materia por su lado, se le define como aquella substancia que ocupa un espacio. Todo

objeto físico se compone de materia, su forma unitaria de análisis, el átomo. Compuesto éste de

protones <<subpartículas con masa y carga eléctrica positiva>>, neutrones <<subpartículas sin

carga neta y presente en la mayoría de los átomos>>. Por último, los electrones <<subpartículas

que rodean al núcleo atómico y con carga eléctrica negativa>>. Es de resaltar que el estudio

profundo y sistemático de los núcleos atómicos y su interacción, da origen a la física nuclear. La

materia puede existir de varias formas o fases, líquido, sólido y gas. Sin embargo, el plasma o

estado plasmático, es una distinta fase de la materia, se trata de un conjunto de partículas

cargadas que responden a campos electromagnéticos. También se le conoce como materia

radiante.

La materia y el universo están vacíos. Si se observa la inmensidad del universo contra sus

diminutas partículas componentes, podrá vislumbrarse que el universo no puede sino, estar

vacío. Las cosas se forman a través de las ideas de ellas, se usan conceptos y se transmiten como

información. Los objetos materiales que componen el universo nunca se tocan, es decir, los

átomos que conforman a cada uno nunca entran en contacto. Como materia es todo lo que existe,

ésta presenta diversas formas. A cada presentación se le denominará estado; sólido; líquido; gas

y plasma.

Como la energía no se crea ni se destruye, solo se transforma, al aplicarla suficientemente a

una roca esta puede derretirse. Al aplicar energía a un líquido éste se evaporará, y el plasma no

es más que un gas a altas temperaturas. Lo que diferencia a un estado de otro son básicamente las

distancias, medidas en la escala de Planck, que separa a sus átomos componentes. Preste

Ro

iman

Val

bu

ena:

La

Físi

ca T

eóri

ca.

Page 242: La investigación científica avanzada primera edición 2015

241

atención, los átomos en una roca, por ser sólida, estarán bastante cercanos231

y unidos los unos

con los otros. En los líquidos se presenta una densidad con cercanía menor a la de los sólidos. En

los gases los átomos se separan al aplicárseles energía e interactúan con el calor, allí su

comportamiento es errático y se les modela a través de la teoría de campos cuando hay presencia

de electrones. La parte de la física que estudia la acción mecánica, interacciones físicas, entre el

calor y las restantes formas de energía se denomina termodinámica. Entonces, toda materia

puede convertirse en energía, y a su vez, la energía puede convertirse en materia.

9.1.3.- El Tiempo

El Tiempo, consiste en una magnitud física que permite medir y cuantificar la duración de

determinado fenómeno o la separación intervalar de dos acontecimientos que puedan ser

observados, y por tanto, sean susceptibles a cambio. El mundo espacio-tiempo, según la

Mecánica Newtoniana, consiste en la sucesiva situación en el espacio de determinada partícula a

sucesivos momentos del tiempo, denominándolos intervalos temporales. Según Einstein y

Hawking; el tiempo no existe. Pues, obedece a los estímulos cerebrales captados desde los

sentidos y nada tiene que ver con la física. El ser humano los usa para distinguir el movimiento

de la materia en el universo.

Es relativo, ya que el tiempo no afecta o actúa sobre la materia que se desplaza cercana a la

velocidad de la luz. Cuando alguna materia alcanza esta velocidad, a su alrededor todo se vería

en cámara lenta. El tiempo se divide en pasado, presente y futuro. No existe ni el pasado ni el

futuro, sólo el presente. No existe el tiempo, sólo el movimiento. Con el tiempo se capta,

compara e interpreta el movimiento de la energía en el universo. Existen límites para el mundo

externo al hombre, pero no para su interno, no existen límites mentales para pasado, presente o

futuro, ya que el hombre tiene la capacidad de imaginarse el infinito. Para el físico teórico, el

espacio y el tiempo se corresponden con un mismo e indivisible sistema, y así los estudia.

Los teoristas físicos hacen uso común del denominado tiempo de Planck o Cronón cuando

abordan investigaciones donde concurran elementos medibles dentro de los intervalos de la

mecánica newtoniana y la cuántica, a este se le asume como el intervalo temporal más pequeño

que puede ser medido. Se denomina Cronón al tiempo que tarda un fotón, desplazándose a la

231

Esta característica de cercana se mide realmente por las denominadas escalas de Planck y su distancia de Planck.

Ro

iman

Val

bu

ena:

La

Físi

ca T

eóri

ca.

Page 243: La investigación científica avanzada primera edición 2015

242

velocidad de la luz, en atravesar una distancia de Planck.

√ = ( )

Tp= tiempo de Planck ( ) Segundos.

ħ= constante de Planck = 1.054571628 (53) ×10 -34

JxS. La constante de Planck232

se mide, en

este caso, en Joule por Segundo.

G = constante de gravitación universal

C = Velocidad de la luz en el vacío 3x108 metros/segundos.

9.1.4.- El Espacio

Con respecto al Espacio, se le asume como el lugar que ocupa cada objeto, así como, la

distancia o separación entre dos cosas. Según Einstein, el espacio como lugar, corresponde a la

posición de un cuerpo entre los demás cuerpos. En física, el espacio se estudia relacionándolo

siempre con el tiempo, lo que produce una relación espacio-temporal. La relación espacio-

tiempo se basa en un sistema de coordenadas cuatridimensionales.

Es decir, tres dimensiones: largo, ancho y profundidad, son coordenadas espaciales y

dependientes todas de una coordenada temporal. En la relación espacio – tiempo, el donde

siempre ha de depender del cuándo y viceversa. Según Bunge (2001), el espacio y el tiempo

están estrechamente relacionados pero no es posible la trasformación del uno en el otro. Asume

al espacio-tiempo como la estructura básica de la colección de todos los eventos, es decir, los

cambios de estado que presentan las cosas materiales. No obstante, la Teoría de Cuerdas

plantea la existencia de muchas más dimensiones, un espacio multidimensional, pero son sólo

estas 4 las que son posible observarse.

La física y su rango de acción va desde materiales y objetos extremadamente diminutos

232

Este valor representa a la constante de Planck reducida. Existen otros valores asignados a la constante de Planck dependiendo de las

constantes implicadas en las ecuaciones. A Planck se le reconoce ampliamente el descubrimiento del “Cuanto de Acción”. Denomínesele a esto a la multiplicación de la energía necesaria o energía empleada por el tiempo empleado para producir el movimiento del cuanto de acción. En otras bibliografías podrá encontrarse esta ecuación de diversas maneras, cuando sus variables corresponden a frecuencia, longitud de onda o sus medidas se ejecutan en función de radianes por segundo.

Ro

iman

Val

bu

ena:

La

Físi

ca T

eóri

ca.

Page 244: La investigación científica avanzada primera edición 2015

243

<<llámese partículas>>, hasta objetos astronómicos cuyo tamaño es a veces millones de veces

superior al del sol, Kirkpatrick y Francis (2007, p. 2). Dentro de este dilatado campo, su fin es

sólo uno, comprender el curso de los eventos en el mundo para poder entenderlos, predecirlos y

controlarlos, creando así una nueva concepción de él. Para ello, fundamentalmente requiere de

teorías que expliquen los fenómenos que relacionan a la energía, la materia, el tiempo y el

espacio, usándose ejes, coordenadas, magnitudes, situaciones o fases. En ese sentido, y con

tendencia a alcanzar ciertos objetivos, sus científicos optan por el idealismo de las ciencias puras

<<la matemática y la lógica>>, además de la experiencia y la razón dentro de la esfera de la

física.

Para Einstein Op. Cit, si se utilizase únicamente el razonamiento lógico sería imposible

alcanzar conocimiento alguno sobre el mundo de la experiencia. Todo conocimiento de la

realidad nace de la experiencia y finaliza con ella. Un sistema de Física Teórica en su conjunto

se compone de conceptos, llámese a estos, simples ideas o unidades de pensamiento, de las leyes

que los rigen, y de toda proposición lógica que pueda en lo posible deducirse de tal sistema. La

razón se convierte en la base estructural de todo el proceso, cualquier contenido experimental y

las dependencias mutuas entre conceptos, podrán demostrarse simplemente haciendo uso de

proposiciones deductivas.

Según George E. Hrabovsky233

, una teoría científica es un cuerpo de trabajo guiado por una

idea auto-consistente que es considerada un hecho. En la mayoría de los casos no genera

controversias la teoría en sí. Contrariamente, el debate se inicia por la forma bajo la cual esta se

argumenta, desarrolla y prueba. El método empleado dependerá sobremanera de las técnicas

propias de cada investigador, lo que hace necesario discriminarlos en relación a sus procederes.

En un principio es posible estratificar a los científicos teóricos en función de cómo hacen

abordaje del tema y según la naturaleza del fenómeno en 4 grandes grupos: los centrados en el

fenómeno – los que hace uso del enfoque constructivo – los orientados por el abstraccionismo

físico teórico y los del enfoque unificatorio.

9.1.5.- La Física Teórica según el Enfoque Centrado en el Fenómeno

También conocido como enfoque de modelado. Se inicia por la formación primitiva, intuitiva,

233

Profesor universitario y científico de la Universidad de Wisconsin. Miembro de la American Association for the Advancement of Science

(AAAS), La American Association of Physics Teachers (AAPT), American Mathematical Society (AMS), American Physical Society (APS), and the Society for Amateur Scientists (SAS). Para las conceptualizaciones y métodos se hizo uso del documentos que Aparece en: http://www.madscitech.org/notes/series1/day1.pdf sin embargo, fueron necesarias también, exhaustivas revisiones de sus escritos disgregados en sitios web.

Ro

iman

Val

bu

ena:

La

Físi

ca T

eóri

ca.

Page 245: La investigación científica avanzada primera edición 2015

244

además de, la mal formulación de nociones sobre el qué se pretende estudiar. Esto lleva a la

estructuración de ideas más precisas, asignándoles representaciones simbólicas. Consiste

básicamente, en una investigación exploratoria que permite crear un modelo. Posteriormente, es

posible formular enunciados que impliquen relaciones entre tales ideas y la observación, la

experimentación o el trabajo teorético. Bajo esta premisa a la predicción se le denomina modelo

predictivo.

Este método hace avocamiento en extenso sobre las características que rodean a un fenómeno

específico, no es general, sino particular. Direcciona sus esfuerzos hacia el desarrollo de modelos

matemáticos o computacionales en conjunción con la estructuración de la idea central, se

procede con la selección de algún fenómeno para estudiar. Posteriormente, se elige el enfoque

que mejor permita representarlo mediante el siguiente conjunto de preguntas: ¿Puede el

fenómeno ser representado como una partícula?, ¿Cómo un campo?, ¿O es alguna forma de

distribución continua de la materia?

De las respuestas anteriores dependerá la selección de una formulación matemática apropiada.

Pudiendo usarse, y según sea el caso, formulaciones ya prescritas. Como ejemplo:

Formulaciones de la Mecánica Newtoniana234

; el conjunto de Ecuaciones de Maxwell; los

procedimientos planteados en la Covarianza de Lorentz; o la Distribución Maxwell –

Boltzmann235

. Acto seguido, se adapta el enfoque a la distribución matemática pertinente,

tendente a desarrollar una representación exacta del fenómeno. Luego podrá hacerse uso de la

física y la matemática en conjunción con herramientas computacionales, de modo que permita la

predicción de sucesos en forma de tablas, gráficas o fórmulas. Para Hrabovsky, este es el

método más completo y estructurado de hacer Física Teórica236

.

234

La mecánica clásica de Newton dentro del contexto científico, está confinada al marco de ideas denominadas formulaciones newtonianas,

estructuradas básicamente por axiomas y leyes de movimiento. A continuación sus tres axiomas, mejor conocidos como leyes de Newton: Ley 1: Todo cuerpo persevera en su estado de reposo o movimiento uniforme y rectilíneo a no ser que sea obligado a cambiar su estado por fuerzas impresas sobre él. Ley 2: El cambio de movimiento es proporcional a la fuerza motriz impresa y ocurre según la línea recta a lo largo de la cual aquella fuerza se imprime. Ley 3: Con toda acción ocurre siempre una reacción igual y contraria: o sea, las acciones mutuas de dos cuerpos siempre son iguales y dirigidas en sentido opuesto. 235

Es una distribución de la mecánica estadística, derivada de la mecánica newtoniana. Sirve para describir el comportamiento de gases y otros

sistemas que tienen muchos estados permitidos. Se usa en la representación de partículas eléctricas como los electrones. En el presente caso, sirve para dar respuesta tanto a la primera como a la segunda pregunta. En relación a la segunda, la acumulación de partículas eléctricas en determinada región del espacio, conforma el denominado campo eléctrico, éste a su vez lleva implícito un campo magnético. Tanto los campos eléctricos como los magnéticos pueden ser descritos usando el conjunto de Ecuaciones de Maxwell de la teoría electromagnética. 236

Cualquier experimento, sea en Física o en cualquier otra ciencia, el adaptar forzadamente un evento a determinada distribución

matemática, podría acarrear pérdida de la validez externa <<Véase: Cap. X: Introducción a La Investigación Experimental>>. Intentando controlar tan estrictamente el experimento que se crean ambientes artificiales, haciendo imposible la generalización de los entornos de laboratorio. En ese contexto, Longair (2003) argumenta… la percepción que se tiene de la física teórica dentro del campo de la física, es que la primera no puede considerarse como un sustituto para producir respuestas matemáticas exactas. Creando dificultades a la hora de someter a experimento el fenómeno. El autor plantea que el enfoque centrado en el fenómeno se circunscribe a la escena local del mismo, donde el ambiente ejerce gran influencia. La opinión surge, a raíz de los severos cuestionamientos realizados a este enfoque de la física teórica, y cuyo origen se encuentra en el continente europeo. Véase: Longair, Malcolm: Theoretical Concepts in Physics: An Alternative View of Theoretical Reasoning in Physics.

Ro

iman

Val

bu

ena:

La

Físi

ca T

eóri

ca.

Page 246: La investigación científica avanzada primera edición 2015

245

El enfoque modelista es una perspectiva muy utilizada en investigaciones sobre Inteligencia

Computacional237

, se usa para construir sistemas que se comporten tan inteligentemente como

los humanos. Con él se desarrollan modelos tecnológicos con amplio rango de aplicaciones en

las industrias. Uno de ellos, el modelaje de redes neurales que actúen de manera similar al

sistema biológico del cerebro humano. El enfoque de modelado permite interconectar neuronas

en función de sintetizar un estándar cibernético del cerebro, imitando sus funciones orgánicas. La

relación entre el modelado computacional de redes neuronales y la neurofisiología, se asemeja a

la que existe entre el físico teórico y el experimental.

Convenientemente también ha sido adoptado para investigaciones sobre procesos de

distribución de productos238

como técnica de mercadeo. Allí se hacen uso de las redes sociales

para analizar técnicas de marketing, donde la propagación de determinada cantidad de un

producto, y de nodo a nodo, se produce de manera tan similar y natural, a la que lo hace una

enfermedad epidémica desde una perspectiva biomatemática. En ese campo, el efecto pervasivo

de la tecnología juega un rol importante.

Recientemente, el enfoque de modelado de la Física Teórica ha penetrado en mundo de la

Investigación en Ciencias de la Educación239

en Europa. El enfoque en un primer momento

implica sólo aspectos cualitativos. Allí se busca la relación entre dos mundos: el de la teoría y su

modelo, con el de los objetos y sus eventos. Se hace siguiendo los pasos básicos de la física

teórica. Para dar inicio, se proyecta un estudio experimental sobre situaciones diarias bajo dos

consideraciones: la primera relacionada a los objetivos de la secuencia de enseñanza, buscando

aprender a establecer relaciones entre el contexto del quehacer diario y la enseñanza.

El segundo implica al modelo en sí, donde el campo experimental ha de constituirse a través

de situaciones que puedan ser claramente interpretadas haciendo uso del razonamiento

teoría/modelo, preseleccionando situaciones e interacciones de desenvolvimiento diario. Bajo

este enfoque, se hace un uso amplio y extensivo de la teoría y su modelo, conjugado con la

experimentación en la secuencia de enseñanza. En estos estudios, la relación entre teoristas y

experimentalistas es similar a la que se sucede en los diseños mixtos de investigación entre

cualitativistas y cuantitativistas, cada uno aporta elementos teorizables y susceptibles a

experimentos desde ópticas distintas.

237

Véase: Sincák et, al (2000). Computational Intelligence and Modeling Neural Networks. En: Advances in Soft Computing: The State of Art in

Computational Intelligence. 238

Refiérase a: Goldenberg et, al (2010). The Social Hub: The Key to Network Processes. En: The Connected Customer: The Changing Nature of

Consumer and Business Market. 239

Véase: Tiberghien, Andreé. Construction of Prototypical Situations in Teaching the Concept of Energy. En: Research in Science Education in

Europe: Current Issues and Themes. Welford, Geoff; Osborne, Jonathan; y Scott, Phil. Editores.

Ro

iman

Val

bu

ena:

La

Físi

ca T

eóri

ca.

Page 247: La investigación científica avanzada primera edición 2015

246

9.1.6.- El Enfoque Constructivo de la Física Teórica

Según Hrabovsky, este consiste en un método para desarrollar nuevas formulaciones

aplicables a la misma Física Teórica, en otras palabras, es un enfoque autocrítico. Puede iniciarse

de muchas formas. El investigador habrá de seleccionar el campo de acción, es decir, la teoría de

partículas, la teoría de campos, la teoría de la materia, o una teoría relacionada a la física

aplicada. Aquí no se anteponen formulaciones matemáticas o computacionales, contrariamente,

el científico inventa su propia cantidad y comienza a experimentar con ella.

Su proceder ha de basarse en cantidades preexistentes en el área de la teoría que eligió, sólo

que será necesario que la visualice de otra manera, su experimentación se orientará a encontrar

simetrías, conservación o minimización de la cantidad bajo estudio. Posterior a ello, se continúa

anteponiendo un análisis del cómo el investigador representa los objetos en el desarrollo de su

teoría. Luego, divide los objetos en grupos y los cuantifica a manera de estratificación, esta es la

base de su proceso constructivo. Posteriormente, plantea un argumento sobre el cual basar su

construcción y orientado a responder preguntas como: ¿Existen simetrías entre los grupos?, ¿En

algún grupo, existe alguna cantidad que permanezca constante o invariante?, ¿En determinado

grupo la cantidad es minimizada240

?

Como regla metodológica, estas preguntas orientan el accionar científico, sus respuestas son

contrastables bajo la experimentación. Con ello se pretende la formulación de supuestos lógicos

que, al ir descartándolos, darán una visual del método matemático apropiado. Por ejemplo: con la

elección de una Formulación Lagrangiana241

se busca crear una nueva cantidad llamada

Lagrangiano242

, luego, se trabaja presentando una racionalización teórica, cuando la integral

Lagrariana, es decir, la acción, es minimizada. Este ejemplo representó el caso de la última

pregunta. Si la cantidad deviniese simétrica entre los grupos, caso de la primera pregunta, o, si se

240

La minimización se basa en la idea de que un modelo siempre presentará un valor mínimo de una cantidad, que lo hará más eficiente. 241

Una Formulación Lagrangiana es un enfoque basado en el análisis de sistemas de energía. Estos constituyen sistemas dinámicos que son

modelados en términos de variables que puedan ser expresadas como energía cinética, disipación de energía y energía potencial. Una formulación Lagrangiana se asocia a cantidades escalares, y es muy fácil de usar cuando el número de elementos en el sistema es muy bajo, su uso se asemeja a cuando se emplea una prueba estadística paramétrica. Esta formulación sufre el inconveniente de que su complejidad aumenta exponencialmente según se incrementa el número de elementos en el sistema. La expresión de una formulación Lagrangiana viene

representada por la Integral Lagrangiana. Véase: Vaze Shilpa Arun (2007). Integrated Formulation Solution Design Scheme for Nonlinear

Multidisciplinary Systems Using the Mixed Models Platform. 242

El Lagrangiano es una función matemática de amplio uso en la física. Allí es posible asociarlo tanto con las leyes newtonianas como con los

sistemas de ecuaciones de Maxwell para la teoría electromagnética. Se usa para obtener propiedades de ecuaciones de movimiento y leyes de conservación de la energía sobre un sistema específico, sumamente importantes en el análisis de sistemas físico-mecánicos. Proviene del sistema de ecuaciones de Lagrange, en ciertos texto se le denomina ecuaciones de Lagrange-Euler. El método de multiplicador Lagrangiano es muy utilizado por investigadores de la teoría económica. Sirve, entre otros, para encontrar restricciones a problemas económicos donde es necesario conocer valores máximos y mínimos.

Ro

iman

Val

bu

ena:

La

Físi

ca T

eóri

ca.

Page 248: La investigación científica avanzada primera edición 2015

247

observó la invariabilidad cuantitativa en los grupos, se pudo haber optado por la elección de: La

Formulación Lagrangiana para la Electrodinámica, la Formulación Euleriana de Fluidos

Dinámicos o el camino integral de la formulación de la Mecánica Cuántica.

Este enfoque es mucho más complejo que el anterior, pero poderoso, aquí el científico

construye su propia formulación. Una dificultad sustantiva se presenta cuando se carecen de

directrices estructurales en la creación de una nueva formulación. El método permite refutar

formulaciones previas. Obsérvese que hasta el momento, se ha podido apreciar el cómo, los

Teoristas Físicos abordan sus investigaciones, para cada situación ya tienen de antemano una

formula o proceso matemático que sólo necesita ser adaptado mágicamente para obtener ciertos

resultados, no obstante, estos deben ser estrictamente sometidos a contrastes experimentales.

9.1.7.- El Enfoque Abstracto de la Física Teórica

La Abstracción243

consiste en la operación mediante la cual se obtiene algo abstracto. Bajo

este enfoque se hace de dos maneras: primeramente se consigue el nivel semántico, donde un

constructo o símbolo será semánticamente abstracto si no presenta determinación respecto a

objetos, es decir, si no refiere a algo determinado. Los constructos más generales serán aquellos

que posean mayor abstracción. Bajo la óptica Popperiana se asemejan a los enunciados

universales. La segunda manera se orienta a la epistemología, al respecto, Bunge (2001)… un

constructo simbólico es epistemológicamente abstracto si no evoca percepciones. Ambos son

considerados fundamentales en la construcción de una Teoría Física bajo el enfoque abstracto.

Hrabovsky explica que en este modelo se toma un número específico de casos y se generaliza

sobre sus resultados. Se comienza examinando uno o más modelos. Luego se procede a una

minuciosa búsqueda de elementos comunes entre ellos, y sobre los cuales, la teoría existente

todavía no se ha abocado. Este enfoque tiende a tornarse ambiguo, puesto que se convierte tanto

en arte como en ciencia para encontrar cosas, se asemeja a un juego. De llegar a encontrar

243

Bien vale la pena conceptualizar por segunda vez este término, en función de entender o tratar al menos de interpretar el vocablo dentro

del contexto de la física y su teoría abstracta. Según el Diccionario Enciclopédico Hispano-Americano. Operación intelectual que consiste en

separar mentalmente lo que es inseparable en la realidad. La abstracción es el precedente o, como la llama Rey (Lógica), el instrumento de la generalización, porque no podemos concebir los conocimientos generales sin eliminar lo individual, es decir, sin abstraer. Toda idea generalizada es abstracta y posee realidad sólo inteligible (V. REALISMO, NOMINALISMO y CONCEPTUALISMO) y no concreta, porque la abstracción no es función de la imaginación, sino propia de la razón discursiva que divide en la mente lo indivisible y separa lo inseparable, preparando el análisis a que excita la complejidad sintética de lo real. A lo abstracto se opone lo concreto. Es esto lo dado en la experiencia con todos sus elementos, el dato real o materia del conocimiento (según el tecnicismo aristotélico y kantiano); mientras que lo abstracto es lo construido por el pensamiento, la forma (que dirían Aristóteles y Kant), que no tiene más límite que lo contradictorio. Para Ferrater Mora, consiste en el acto de sacar algo de una cosa; separar algo de algo. Según este autor, y citando a Maritain, la física, la matemática y la metafísica, son ciencias que se diferencian por su grado de abstracción. El primer grado se lo atribuye a la física; el segundo a la matemática y el último a la metafísica.

Ro

iman

Val

bu

ena:

La

Físi

ca T

eóri

ca.

Page 249: La investigación científica avanzada primera edición 2015

248

elementos comunes, es trabajo del científico analizar en qué sentido serán proyectados los

supuestos y sus ramificaciones.

Este método sirve para hacer estudios en la teoría clásica de la Mecánica Newtoniana, sin

embargo, no sirve para describir la realidad en la mecánica cuántica. En consecuencia, Bohr

citado en D´ Agostino (2001) argumenta…

Mientras que en la teoría clásica se trata de describir la realidad física a través del

uso simultáneo de ondas y partículas244

haciendo uso de abstracciones, en la

mecánica cuántica se hace a través de un método simbólico, bajo una concepción

más realista frente al enfoque abstracto del problema en la realidad física. (p. 226).

9.1.8.- El Enfoque Unificacionista de la Física Teórica

Hrabovsky sostiene… este enfoque se basa en la idea del beneficio resultante derivado de

que con una sola teoría se pudiesen gobernar un amplio rango de fenómenos. Empero, no

existen argumentaciones o simples elucubraciones, que lleven a creer que esto pueda ser cierto.

Cuando se ha intentado llevar a la práctica, se han evidenciado grandes dificultades. Sobre el

tema, Pavsic245

(2001) es de opinión, esta idea es para muchos investigadores, la unificación de

varias ramas de la física teórica como realmente un proyecto de unión, pero con dificultades.

Hasta ahora se ha hecho gran cúmulo de conocimiento codificado en teorías maravillosas como

la relatividad general, la teoría de membranas asociada a la teoría de cadenas, la mecánica

cuántica, la teoría cuántica de campos y la cromodinámica, sólo por mencionar algunas, y sin

resultados concretos.

Pavsic, luego de años de investigación ha llegado a cierto nivel de creencia en la posibilidad

de interrelacionar todas estas teorías. Con base en la exposición y entendimiento de técnicas

básicas, a costa de detalles y riguroso desarrollo matemático. Sus planteamientos concuerdan con

las ideas de Kiefer246

(2012), sobre la cual, la unificación de la teoría cuántica con la teoría de la

relatividad general de Einstein, se ha convertido en quizás, el más abierto problema de los

244

La dualidad onda corpúsculo demostró que la luz posee dos propiedades características. Primeramente puede ser modelada a través de la

mecánica de ondas y la mecánica de partículas. Esto quiere decir, un rayo luminoso conserva las mismas propiedades que una onda sonora, a pesar de ser diferentes. Una onda sonora tiene velocidad definida y constante pero carece de masa. Por su lado, una partícula <<llámese fotón>> posee masa <<muchos autores describen la cantidad de masa de un fotón como cero>> y lógicamente ocupa un lugar en el espacio,

pudiendo desplazarse a la velocidad de la luz como lo hace un rayo luminoso. 245

Véase: The Landscape of Theoretical Physics: A Global View. From Point Particles to the Brane World and Beyond, in Search of Unifying

Principle 246

Refiérase a: Quantum Gravity.

Ro

iman

Val

bu

ena:

La

Físi

ca T

eóri

ca.

Page 250: La investigación científica avanzada primera edición 2015

249

Teoristas Físicos. Para la unión de ambas teorías no solo son necesarias razones conceptuales,

sino, un entendimiento mayor de fenómenos como: el origen del universo, la evaporación final

de los agujeros negros y la estructura espacio-tiempo. Para ello, todavía falta mucho camino por

recorrer.

Además de las consideraciones previas, Hrabovsky proyecta otras dificultades, las cuales en

mayor o menor grado, vienen simbolizadas sobre el hecho de que las teorías son sólo

aproximaciones a la realidad, no realidades mismas. En el enfoque unificatorio se comienza con

la pregunta, ¿Qué es lo que se desea unificar? Luego se trata de resolver el cómo proceder con tal

unificación. Ésta debe ser la resultante de una simple formulación que argumente y acompañe a

todos los elementos que se deseen unificar. Posteriormente, se procede a probar que tal esquema

unificatorio es matemáticamente viable <<Axiomatizable>> Acto seguido, se proyectan modelos

matemáticos basados en él.

Hasta el momento se ha hecho descripción explicativa de cada uno de los métodos usados por

los Teoristas Físicos, obsérvese que divergen grandemente con los empleados en las

investigaciones de otros tipos. Sin embargo, para desentrañar sus secretos, necesario es el

involucramiento desde dos aristas. El primero reside en entender el papel que juega la nueva

matemática en la física, este consiste en la formulación y solución de problemas de física por

medio de estructuras y técnicas matemáticas, a lo que se denomina física matemática. Se

compone de dos partes principales: el desarrollo de nuevas matemáticas, y la aplicación de las

matemáticas a los problemas actuales de física. La segunda arista se proyecta sobre el estudio

persistente y profundo de los sistemas físicos y la causación, tema que en el siguiente aparte se

aborda.

Ro

iman

Val

bu

ena:

La

Físi

ca T

eóri

ca.

Page 251: La investigación científica avanzada primera edición 2015

250

9.2.- Los Sistemas Físicos y la Causación Universal

e entiende por Causación Universal, a una conexión constante e invariante entre dos o

más eventos de origen natural, un antecedente y un consecuente donde coexiste un orden

relacional y espaciotemporal. Como condición necesaria y suficiente, se amerita que

para una misma causa un mismo efecto; donde la cadena intercausal presenta un patrón

relacional descriptible a través de una magnitud numérica constante y presente en todas las

instancias. La Causación Universal es punto de partida para investigadores de la física y sirve

para encadenar, explicar y predecir eventos naturales. Es de allí de donde el científico extrae

cierta data y elimina material científicamente estéril, pues, la explicación a un evento no puede

ser sometida por fuerza, la nada nunca podrá ser una causa.

El fenómeno natural existe y parte desde dos tipos de relaciones, una es la simultaneidad y

otra la sucesión. Cada fenómeno está conectado, de una manera uniforme, a otro que coexiste

con él, y con algún otro que lo ha precedido o lo sucederá en espacio y tiempo. La uniformidad

existe entre fenómenos sincronizados, y la sucesión existe en una ley numérica que asocia tal

antecedente con su consecuente. Estas clases de leyes o uniformidades estarán presentes en los

hechos o eventos que se sucedan unos con otros, manteniendo lapsos de tiempo, o constantes

numéricas presentes en ellos. Donde ciertamente, cada objeto del universo, posee tal condición

eterna. De esta manera interpreta Stuart Mill247

la Ley de Causación Universal.

Todas aquellas uniformidades en la sucesión de un fenómeno presente universalmente así en

todos los sentidos, y que coexiste en todas las instancias de sucesión, manteniendo invariante

determinada magnitud numérica, es lo que se conoce como Ley de Causación. Representa la

verdad universal de que cada hecho que tiene un inicio, no ha sido sino por una causa. Pudiendo

formalizarse de la siguiente manera: Entre un fenómeno que exista en un instante y otro que

exista en un instante sucediente, existe un invariante orden de sucesión. El antecedente

247

A System of Logic: Ratiocinative e Inductive. The Principle of Evidence and the Methods of Scientific Investigation. (1858).

S

No existe evidencia irrefutable de que la causalidad sea una característica propia de este mundo…

David Hume.

Page 252: La investigación científica avanzada primera edición 2015

251

invariable es denominado causa; el invariable consecuente será su efecto. Y la Universalidad de

la Ley consiste precisamente en ello, en que ambos eventos están eternamente conectados. Stuart

Mill, Op, Cit.

Por su lado, David Hume248

argumenta que una causa es un objeto cuya idea determina en la

mente la forma de otra idea de su efecto. Pues existe una conexión necesaria y suficiente

mediada por una extraña energía como potencia causal. Según esta determinación, cada

ocurrencia para causas similares es seguida por similares efectos. A esta conjunción constante,

como secuencia universal única, invariante y trascendental, la explica dentro de una maravillosa

teoría denominada Teoría de la Regularidad.

Afirmar que un evento causa otro, en un interminable ciclo, es sostener que entre ambos

existe una sucesión constante y extraña fuerza que media para que la causa cumpla con su

cometido; que existe una relación de contigüidad necesaria; que existe una conexión necesaria

entre eventos y que una extraña energía actúa sobre ellos. Puesto que está universalmente

demostrado que es así, entonces la causa ordena y el efecto obedece, en un interminable ciclo

que lleva a la construcción de la realidad física de un determinado sistema.

9.2.1.- Los Sistemas Físicos

Para dar inicio al tema, se justifica conveniente definir exhaustivamente cada uno de los

términos que componen el título de este apartado. Por su lado, y bajo aportes de Bunge (2001) un

sistema y sus partes poseen las siguientes características:

Como concepto, es un objeto complejo cuyas partes o componentes se relacionan al

menos con algún otro componente… En cuanto al análisis, el más simple de los

análisis del concepto de sistema incluye los conceptos de composición, entorno,

estructura y mecanismo… La composición es la colección de sus partes. El entorno

es la colección de las cosas que actúan sobre los componentes del sistema o a la

inversa… La estructura de un sistema es la colección de las relaciones (vínculos o

enlaces) entre los componentes del mismo, así como entre estos y los componentes

de su entorno… Por último, el mecanismo de un sistema está compuesto por los

procesos internos que lo hacen ―funcionar‖, es decir, cambiar en algunos aspectos

mientras conserva otros…

Sustentado en estas premisas opera el Físico Teórico, su máximo sistema, el universo. Sus

248

Compilación ejecutada desde dos excelentes libros: 1.-) Phil Dowe (2000): Physical Causation: Cambridge Estudies in Probability, Induction

and Desition Theory. Cap. II: Hume´s Legacy: Regularity, Counterfactual and Probabilistic Theory of Causation. 2.-) Sion, Avi (2010): The Logic of Causation: Definition, Induction and Deduction of Deterministic Causality. Cap. 16: Outstanding Issues, p. 261 y ss.

Ro

iman

Val

bu

ena:

Lo

s Si

stem

as F

ísic

os

y la

Cau

saci

ón

Un

iver

sal.

Page 253: La investigación científica avanzada primera edición 2015

252

componentes principales, la Energía, la Materia, el Tiempo y el Espacio. Un sistema físico en sí,

presenta características diferenciables: a) todos han de poder ser ubicados en relación a las

dimensiones espacio – tiempo. b) deben presentar rasgos de un estado físico definido sujeto a

evolución longitudinal temporal. c) debe poder asociársele a la energía, en cualquiera de sus

formas y a través del uso de la magnitud física apropiada.

La interacción entre los componentes de los sistemas físicos presenta una relación del tipo

causal, dicho de otra manera, sus componentes muestran dependencia sobre nexos causales. En

función de la congruencia, a continuación se describe el Principio de Causalidad. Lefebvre

(2006), aporta las siguientes consideraciones y comentarios: <<todo efecto tiene una causa>>,

pues no hay efecto más que donde hay causa. Donde la mera noción de causa implica,

objetivamente, un efecto. Si se formulase de la siguiente manera; <<Todo tiene una causa y la

misma causa precede siempre al mismo efecto>> podría tener cierto sentido, pero, ¿Es esto

realmente cierto?, ¿cada vez que hay un dolor de cabeza es provocado por el estrés? Realmente

no siempre es así, significa entonces, ¿si siempre es el mismo efecto, por qué no ha de tener el

mismo origen causal?

Ambos enunciados, causa-efecto, son contrapuestos, por lo que entre ellos hay una relación

oscura, la causa produciría su efecto mediante un poder misterioso. Y los teoristas conciben

teorías para develar ese misterio haciendo uso de la experimentación. Si se asociase, como es

común en física, lo anteriormente descrito con el principio de finalidad, el cual se formula;

<<todo tiene un fin>>, significaría entonces que la naturaleza tiene intenciones y objetivos, así

como la voluntad humana. Ella fabrica seres al igual un artesano fabrica sillas o mesas, teniendo

de antemano la idea del objetivo, y los procedimientos necesarios para llegar a él. Estos son los

elementos que subyacen en la mente del teorista, permitiéndole develar fenómenos realmente

maravillosos.

Popper (1980) opina…para dar una explicación causal completa son necesarios dos tipos de

enunciados: en primer lugar los universales, son hipótesis que tienen carácter de leyes

universales. Y los enunciados singulares, aplicados a determinados acontecimientos, estos

últimos son llamados condiciones iniciales. Los enunciados singulares se deducen de los

universales, las condiciones iniciales se suelen llamar causas, la predicción es el efecto, aunque

en física, por regla general se restringe el uso de la expresión <<explicación causal>>. Por su

parte, el autor nunca afirmó ni negó ningún principio de causalidad por considerarlo un método

deductivo de explicación teórica.

Ro

iman

Val

bu

ena:

Lo

s Si

stem

as F

ísic

os

y la

Cau

saci

ón

Un

iver

sal.

Page 254: La investigación científica avanzada primera edición 2015

253

Kant (1989, pp. 159 y ss.), en su Segunda Analogía.- Principio de la Sucesión Temporal

según la Ley de la Causalidad, argumenta; <<Todos los cambios tienen lugar de acuerdo a la ley

que enlaza causa y efecto>> El principio puede formularse a su vez, de la siguiente manera;

Toda Modificación (Sucesión) de los Fenómenos no es más que un cambio. Los fenómenos se

siguen unos a otros, dicho de otra manera, el estado de las cosas en un tiempo, es opuesto al

estado anterior. Con ello sólo se enlazan dos percepciones de un mismo objeto bajo

temporalidades distintas. La relación temporal, con respecto al sentido interno del objeto, no es

obra de los sentidos ni de la intuición, sino que es atribuible a una facultad sintética de la

imaginación.

Según la lógica de la razón Kantiana, el tiempo no es perceptible, y la imaginación se encarga

de poner una cosa antes y otra después, no de que un estado preceda a otro en el objeto. La

percepción no determina cuál es la relación objetiva entre fenómenos que se suceden en el

tiempo. Para determinarla, necesario es especificar el estado previo y el posterior del objeto, es

decir, para ello es preciso un concepto que los unifique, un concepto puro que permita su

entendimiento, concepto no hallado en la percepción, tal concepto es el de la relación causa y

efecto. El conocimiento empírico sólo es posible mediante el sometimiento a sucesión de los

fenómenos, donde todo cambio observable es derivado natural de la Ley de la Causalidad.

Hasta aquí se ha hecho explicación, de algunos de los métodos y modelos matemáticos

empleados por los teoristas físicos en sus intentos por proyectar un mayor entendimiento del

universo, las leyes que los rigen y los fenómenos que a consecuencia se derivan. En párrafos

previos, y bajo la argumentación de Lefebvre, se comentó la existencia de una relación oscura,

además de un poder misterioso entre causa y efecto, donde la naturaleza pareciese tener

intensiones y objetivos. Sobre el tema bien vale la pena citar a Einstein cuando afirma: Dios no

juega a los dados con el mundo; las leyes de la naturaleza son los pensamientos de dios; es por

ello que quisiera conocer los pensamientos de dios… los demás son detalles.

Ro

iman

Val

bu

ena:

Lo

s Si

stem

as F

ísic

os

y la

Cau

saci

ón

Un

iver

sal.

Page 255: La investigación científica avanzada primera edición 2015

254

CONTENIDO DEL CAPÍTULO

10.1.- El Método Científico Experimental.

10.2.- Consideraciones sobre la Observación y el Experimento.

10.3.- Los Experimentos Mentales.

10.4.- El Control Experimental.

10.5.- Aleatorización Experimental.

10.6.- Los 5 Cánones de Jhon Stuart Mill.

10.7.- La Validez Experimental.

10.8.- El Diseño de Experimentos.

10.9.- Clasificación de los Diseños Experimentales.

10.10.- Encuesta Vs. Experimento. La Falibilidad de las Escalas de Likert.

La Investigación Científica Avanzada

C

A

P

Í

T

U

L

O

X

Introducción a la Investigación Experimental

Si tu experimento necesita estadística, hubiera sido necesario hacer un experimento

mejor.

Ernest Rutherford.

Page 256: La investigación científica avanzada primera edición 2015

255

10.1.- El Método Científico Experimental

l pensamiento científico siempre ha sido considerado como el más complejo y

probablemente, la más extraordinarias de las actividades que pueda ejecutar el hombre

en el uso de su intelecto. Donde cada científico esta en total libertad de usar el método

que mejor se acople a su paradigma, y lógicamente, a la ciencia que esté en estudio. El Método

Experimental es calificado como el mejor y más efectivo de los Métodos de Investigación,

consiste en una estrategia altamente exigente y aplicable a cualquier rama científica por muy

nueva que esta sea. Tanto así que…Cuando se examinan inteligentemente incluso los más

inútiles experimentos, éstos pueden abrir el camino hacia los más sensacionales hallazgos. Max

Planck.

Para Mario Bunge (2004), Experimento es aquella clase de experiencia científica en la cual

se provoca deliberadamente algún cambio y se observa e interpreta su resultado con alguna

finalidad cognoscitiva, (p. 678 y ss.). El Método Científico Experimental es, por su origen y

resultados, estimado como el más efectivo de los Métodos de Investigación. Convirtiéndose en el

más utilizado por las ciencias factuales, se le considera en extremo riguroso en función de la

planificación de actividades que amerita. Aquí cabe una cortes comparación con su contraparte,

el Método No Experimental, el problema de este último subyace en su imposibilidad de tomar

control de la situación bajo estudio, sin tender a infravalorarlo, obvia por completo la ley de

Causa Efecto249

.

Toda actividad indagatoria del tipo experimental involucra la creación de nuevos escenarios

para el modelaje de situaciones que permitan al científico actuar en consonancia con sus fines,

haciéndose necesaria la alteración del curso del proceso en la dirección apropiada. De acuerdo a

Rosental-Iudin (2004), el experimento es fuente de conocimiento y criterio de la verdad para

249

Según Ferrater Mora (2000), la causa permite explicar por qué se ha producido cierto efecto. Uno de los principales argumentos del

principio de la razón suficiente o determinante <<expuesto previamente>>, se basa en el supuesto de que nada acontece sin razón, siendo lo acontecido la consecuencia de un estado anterior al que conviene cabalmente al término causa. No obstante, el principio de causalidad, que relaciona mejor ambos términos, se explica más profundamente en el cap. IX, en el apartado de la Física Teórica: Los Sistemas Físicos y la Causación. Véase.

E

David Hume. Al referirse a investigaciones que carecen de elementos abstractos y pruebas o procesos

experimentales, alguna vez expresó lo siguiente:

¿Contiene algún razonamiento abstracto sobre determinada cantidad o número?... No. ¿Contiene

algún razonamiento experimental acerca de cuestiones de hecho y existencia?... No. Confínese

entonces a las llamas, ya que no puede contener más que sofistería e ilusión.

Page 257: La investigación científica avanzada primera edición 2015

256

hipótesis y teorías. Todo experimento consiste en una manipulación premeditada y estrictamente

controlada de eventos bajo estudio. Se usa para producir observaciones del tipo causa – efecto,

éstas permitirán aceptar o rechazar, tanto hipótesis como teorías. Para Ian Hacking (1983), Un

Experimento por sí mismo tiene vida propia.

Los experimentalistas o métodologistas experimentales, no esperan pasivamente a que

determinado evento se suceda naturalmente. Simplemente, establecen las condiciones y lo

recrean artificialmente tomando en cuenta la mayor cantidad de factores intervinientes posibles.

Implica cambiar ―x‖ y observar su efecto sobre ―y‖. Su origen es empírico, puesto que depende

de la experiencia para establecer el valor veritativo de sus enunciados. Es tanto lógico como

sistemático. Comienza con la observación en cualquiera de sus tres fases constitutivas250

, esta

permite bien, el crear una teoría que explique el fenómeno, suceso o evento, o en su defecto,

recopilar elementos de convicción, los cuales a través de argumentaciones razonadas y

matemáticamente soportadas, permitan modificar o refutar otra. Un experimento por lo general,

intenta unir fragmentos de teorías y establecer relación estímulos – respuestas sobre el

fenómeno.

Posteriormente, se conforma una estructura teorética y se le usa para predecir futuros eventos

derivados de las observaciones y todas aquellas premisas que se incluyeron en la teoría

explicativa. Acto seguido, se procede al diseño del experimento más adecuado que permita

identificar tanto a los agentes causales como a los efectores, cristalizando conocimientos a través

de la simple técnica de sumisión a las reglas. La predicción, es decir, el supuesto que permite

establecer el efecto ―y‖ dada la causa ―x‖, ha de haberse contemplado en la teoría251

. De no

ser así, se procede al análisis de los porqués, a manera de permitir la formulación de nuevas

hipótesis, y su inmediata incorporación a la teoría.

Los hallazgos en el método experimental se hacen presentes al percibirse anomalías entre lo

estimado y lo encontrado. Este procedimiento provee al investigador de fragmentos de la

realidad que van más allá de sus limitaciones sensoriales. A través de él es posible hacerse de

250

La observación como proceso puede tomar tiempo antes de ser perfeccionado, en otros casos, consiste en sólo una pequeña pieza de

información que de tal proceso se extrae. Según Bunge (2004), La observación es el procedimiento empírico básico. El producto de un acto de observación es un dato, la observación puede analizarse por al menos tres componentes: el objeto de observación, el observador y un canal de comunicación que transmite señales entre ambos. (p.678). Así mismo, la observación propiamente dicha, puede caracterizarse como una percepción intencionada o deliberada e ilustrada: intencionada o deliberada porque se hace con un objetivo determinado; ilustrada porque va guiada de algún modo por un cuerpo de conocimientos. El producto del proceso observacional puede analizarse también en tres pasos: tomar conciencia del objeto; reconocer el objeto a grandes rasgos y describirlo. Con respecto a la observabilidad, un hecho es observable solo si existen al menos un sujeto, un conjunto de circunstancias y un conjunto de instrumentos de observación, de tal modo que el hecho pueda aparecer al sujeto armado de esos instrumentos y bajo dichas circunstancias. Como ejemplo: “x” es observable sólo si existe por lo menos un instrumento registrador para “x”, un conjunto de circunstancias “y”, y un conjunto de instrumentos de observación “z”. De tal modo que “A” pueda registrar “x”, bajo “y”, con la ayuda de “z”. (PP. 591-601 y ss.). 251

Se dice a menudo que es preciso experimentar sin idea preconcebida. Esto no es posible, no solamente sería volver estéril toda experiencia,

sino que se querría lo imposible. Henri Poincaré (2007). Science and Hypotheses. Véase.

Ro

iman

Val

bu

ena:

El M

éto

do

Cie

ntí

fico

Exp

erim

enta

l.

Page 258: La investigación científica avanzada primera edición 2015

257

conocimiento objetivo252

. El conocimiento que surte el experimento es del tipo empírico, su

razonamiento no solo es poderoso, sino, conclusivo. El método busca deducir consecuencias, en

el proceso es menester postular al menos una causa que origine el fenómeno investigado. El

Método Experimental conjuga el poder de las demostraciones matemáticas con la experticia

experimental, dando lugar a nuevos conocimientos apoyados tanto por el sentido común como

por la evidencia.

En el Diseño de Experimentos y su posterior desarrollo, el uso de la estadística y las

matemáticas es imprescindible, constituyen la base estructural de diseño y son las que otorgarán

poder validatorio a los resultados. Los elementos estadísticos entran a jugar un rol preponderante

en la selección de observaciones que provean mayor información al estudio, permitiéndole

discriminarlas de aquellas cuyo aporte informativo sea escaso o nulo. El experimentalista ajusta

sus esfuerzos a las exigencias del problema, para con ello deducir con confianza muchas de sus

causas.

Todo Experimento Científico ha de intentar recrear el qué pasa, pero debe ser extensivo y

exhaustivo en su proceso explicativo del porqué pasa. Si bien es cierto, una explicación

científica consiste en el proceso de poner de manifiesto la esencia misma del fenómeno u objeto

estudiado, esta comúnmente se direcciona hacia una dilucidación del tipo causa-efecto. Donde el

objeto ha de ser tomado como una unidad, y cuyas partes constitutivas y totalmente

independientes podrán diferenciarse entre sí por medio de la descripción. Ésta última, constituye

sólo una etapa previa al proceso explicativo, asumiendo que toda explicación se basa en la

descripción.

Es de tener en cuenta que también existen experimentos cualitativos, éstos no pretenden hacer

ningún tipo de mediciones, contrariamente, el teorista o experimentalista puede usarlo para

ponderar o sondear si coexiste alguna evidencia, por muy leve que esta sea, de que las variables

estén relacionadas y concurra entre ellas causalidad, su fin es exclusivamente exploratorio y no

aporta evidencia matemática. El Experimento Cualitativo se basa en el hecho que toda teoría se

cierne sobre un trabajo experimental, el teorista imagina de cierta forma, la manera de

comprobar su teoría. De resultar cierta la causación entre una o más variables, se procede a un

252

Conocimiento objetivo es todo aquel proceso que permite extraer de lo abstracto y sumariarlo en lo concreto. Para Rosental-Iudin (2004);

el fin del conocimiento estriba en alcanzar la verdad objetiva. Para los efectos de Kant en Grayeff (1970, p. 87); La verdad es sólo uno de los tres criterios del conocimiento, y por tanto, subordinada a él. Primeramente, se basa en un pacto de conformidad de un concepto con su objeto. En segundo lugar; consiste en una concordancia entre una teoría con sí misma. Y por último, las reflexiones puramente lógicas son incapaces de por sí mismas de establecer verdad. Sin embargo, estas no son las únicas observaciones sobre el conocimiento y la prueba objetiva que provee un experimento… en escritos de Fernández (1985, p. 77 y ss.), en su libro: Foundations of Objetive Knowledge; hay consideraciones que Kant ha agregado al Principio Empirista Poperiano; <<Cualquier decisión tomada en base de la observación y el experimento es revisable>>, fundado en que no existen criterios empíricos para la verdad, y que la observación y el experimento están por sí mismos cargadas de teorías. Es así como todo conocimiento objetivo surgido de la experimentación, no solo ha de acercar al hombre a la comprensión del mundo circundante, sino que debe permitirle transformarlo, subordinando la naturaleza a todo aquella necesidad surgida del ser humano.

Ro

iman

Val

bu

ena:

El M

éto

do

Cie

ntí

fico

Exp

erim

enta

l.

Page 259: La investigación científica avanzada primera edición 2015

258

experimento cuantitativo.

No en todas las ciencias es posible aplicar el Método Experimental, aunque este arroja

abundantes frutos, tiende a ser usado en estudios cuantitativos que permitan medidas precisas. A

un astrónomo por ejemplo, le es imposible desviar el rumbo de un cometa hacia un agujero negro

y simplemente sentarse a observar qué pasa. Estos no son experimentos reales, pero pueden ser

recreados en laboratorios obteniéndose de ellos excelentes resultados numéricos. Según Carnap

(1995), los conceptos cuantitativos usados en la Investigación Experimental no son dados por la

naturaleza, sino que pueden extraerse de la práctica de aplicar o asociar números a fenómenos

naturales. Sin embargo, su principal ventaja es que los conceptos cuantitativos permiten a su vez

la formulación de leyes cuantitativas.

¿Experimentos Inductivos o Deductivos?, este dualismo ha suscitado debates históricos. En

ese sentido, Roger Bacon253

, expresó que el centro de una nueva Ciencia Experimental debía

erigirse en términos de 3 grandes prerrogativas:

Primera: Toda aquella ciencia, cuyas conclusiones sean alcanzadas a través de la inducción,

deberá ser sometida a pruebas experimentales. Segunda: Todo hecho resultante de un

experimento tiene prioridad sobre cualquier cantidad de suposiciones iniciales, razonamientos, o

cualquier argumento basado en ciencias factuales. Tercera: La Investigación Científica

Experimental debe ser extendida enteramente a nuevos problemas, muchos con valor práctico.

El Método Científico en General es en Esencia Experimental254

, como plantearía en su

momento Leonardo Da Vinci << Son vanas y están plagadas de errores las ciencias que no han

nacido del experimento, madre de toda certidumbre>> En el mundo científico hay marcada

diferencia entre lo que se cree y lo que se es posible aceptar. Es aquí donde los métodologistas

experimentales usan al experimento como un conjunto de procedimientos característicos que

soportan un discurso validado. En sentido estricto, la observación y manipulación de factores

aportan elementos de convicción que permiten establecer causalidades entre fenómenos.

Dentro del contexto histórico de la metodología de la ciencia, Galileo255

fue uno de los

primeros científicos en aceptar y reconocer, que una de las más efectivas formas de probar

253

Roger Bacon (1214 – 1292), filósofo y científico dedicado a la investigación experimental, bien conocido como el Doctor Maravilla y

miembro de la orden Franciscana. Sus ideas fueron influenciadas por Grosseteste y diseminadas desde Oxford a París en 1240. Fue allí donde comenzó a expandirse el uso de este método de investigación entre las más grandes universidades medievales. Aparece en: Gauch, Hugh (2003). Scientific Method in Practice. University of Cambridge. 254

Francis Bacon logró sistematizar el método experimental inductivo, mientras que Descartes en su Discurso del Método, describe lo que

debe hacerse para obtener buenos resultados con los experimentos en el método deductivo. Para Spielvogel (2004), Sir Isaac Newton fue el que sintetizó ambas metodologías, uniendo el empirismo de Bacon con el racionalismo de Descartes. (pp. 454-455). 255

Galileo ayudó a desarrollar el diseño experimental para ser aplicado a nuevas conexiones con la naturaleza. Gower (2002); New Methods

for a New Science. Véase.

Ro

iman

Val

bu

ena:

El M

éto

do

Cie

ntí

fico

Exp

erim

enta

l.

Page 260: La investigación científica avanzada primera edición 2015

259

hipótesis era a través de la experimentación. Una hipótesis sometida a experimento se hace

evidente cuando se logra establecer y explicar su causación, es decir, se demuestran sus

consecuencias. Para la refutación de una teoría o algunas de las hipótesis en las que se sostiene

<<aunque Popper y Lakatos sugieren ambos procedimientos diferentes>> basta con observar si

el resultado difiere de una u otra forma con lo previsto, en ese caso debe reformularse. Ahora, si

experimentalmente se deduce que sus consecuencias no son vinculantes, dicho de otra forma, si

sus resultados son opuestos a lo previsto, se entra en la posibilidad de ser refutada, puesto que

para ello basta que al menos una de sus consecuencias no se cumpla.

Descartes, al contrario de Francis Bacon, sistematizó una estructura analítica que lo llevó a la

adopción de un enfoque diferente de la Metodología Científica, soportándose sobre la deducción,

los silogismos y la lógica matemática. Francis Bacon por su lado, asumió que un correcto uso del

método científico era aquel basado en principios inductivos. La lógica en su método se explica

en cierto pasaje de su obra: Advancement of Learning256

(1605) cuyo título completo es << Of

the Proficience and Advancement of Learning, Divine and Human>> y en el Distributio Operis

(1620). En su libro Advancement, dividió la lógica científica en 4 partes y de acuerdo a

diferentes funciones:

1.- El Hombre encuentra lo que busca…

2.- Juzga lo que ha encontrado…

3.- Archiva todo aquello que ha juzgado…

4.- Comunica entonces todo aquello que ha archivado.

Para Francis Bacon, estos cuatro procesos constituyen un arte intelectual: el arte de la

invención; el arte de la examinación; el arte del juico o discernimiento; y el arte de custodia o

memoria. Con esto preconizaba los pasos a seguir para el Método Experimental Inductivo,

intentando suplir de alguna manera al Organon Aristotélico y sus Silogismos. El autor argumentó

en sus escritos <<Véase Novum Organum: contentivo de 182 Aforismos>>, que los silogismos

en física no eran necesarios, pues allí no era posible convencer con argumentos sino con obras de

la naturaleza.

Es decir, según Bacon, las teorías científicas planteadas en la física teórica carecen de sentido,

se ha de proceder únicamente mediante observación, puesto que el querer aplicar las nociones

mentales a la naturaleza yerra el camino, contradiciendo a los experimentalistas. Lo afirmado por

Bacon es verdadero hasta cierto punto, pero se aclara mejor esta discrepancia en el apartado de la

Física Teórica. Los silogismos para Bacon son necesarios en otras ciencias como la ética, la

256

Los detalles pueden leerse en la excelente obra de Paolo Rossi (1978). Francis Bacon: From Magic to Science. Pp. 134 y ss.

Ro

iman

Val

bu

ena:

El M

éto

do

Cie

ntí

fico

Exp

erim

enta

l.

Page 261: La investigación científica avanzada primera edición 2015

260

política en incluso en la teología, pero no en física, y de la lógica no publicó tratado alguno.

Francis Bacon siempre se negó a usar un método que permitiese <<Deducir>> conclusiones

lógicas257

. A tales efectos, sugirió proceder de lo particular a lo general, normatizó un extenso

corpus explicativo donde propuso proceder desde observaciones razonada y sistemáticas, pues

era la mejor forma de producir generalizaciones correctas258

. Sin embargo, Francis Bacon

nunca mostró gran interés por las ciencias puras, continuamente sintió más atracción hacia los

procederes prácticos y orientados a la creación de dispositivos, es decir, hacia la tecnología.

Constantemente criticó el papel de las matemáticas en las ciencias. Descartes por su lado, utilizó

su observación para describir y no para explicar. Esto corresponde a una evidencia inequívoca de

que existía, al menos en el siglo XVII, un debate sobre dos dimensiones del Método Científico

Experimental, Gower (2002, p. 67). Posteriormente Newton, encontraría uso a ambas formas de

indagar. Consiguiendo el desiderátum de Francis Bacon y René Descartes.

Newton orientó intervención y concibió alternativas para adoptar un perfil adecuado de

indagación, dando un giro a la forma de visualizar el método científico. Con sus obras:

Philosophiae Naturalis Principhia Mathematica (1687) y Experimental Natural Philosophy of

the Opticks (1704), lograría fundar las bases de una nueva revolución científica. Como plantea

Gower op. Cit. (p. 68), Newton superó a sus predecesores porque se Montó en Hombros de

Gigantes.

257

Sir Francis Bacon, Conde de Verulamio y denominado el Gran Canciller de Inglaterra para su época. El Método Experimental Inductivo se le

atribuye, este siempre criticó los Silogismos Aristotélicos y despreció el papel de las hipótesis en las ciencias. Bacon ocupó puestos importantes dentro del gobierno en la Gran Bretaña de finales del siglo XVI y comienzos del XVII, fue presidente de la Cámara de los Lores y de la Real Academia de las Ciencias Inglesa, la Royal Society, posición que le permitió ejercer gran influencia en la adopción de su método. Para Bacon, el problema del conocimiento era problema del método. Según Hoffe: Bacon a pesar de no ser filósofo de profesión sino Jurista, intentó hacer aportes a la filosofía con sus obras: Gran Renovación (Instauratio Magna, 1605 y 1623), y el Nuevo instrumento (Novum Organum) que opuesta al Organon Aristotélico, conforma su parte más conocida. Para los detractores de Bacon, este desconocía las matemáticas, obvió los importantes aportes de Galileo y Keppler a las ciencias, por el contrario, estaba más dotado de la capacidad de expresar ideas con imágenes que del poder deductivo de las ciencias ideales. Al respecto, las portadas de sus obras hablan por sí solas. 258

Se sugiere al lector, para una ampliación del tema, Refiérase al apartado: El Problema de Superponer Inducción y Deducción, en el Cap. III.

Sección 3.2.3.

Ro

iman

Val

bu

ena:

El M

éto

do

Cie

ntí

fico

Exp

erim

enta

l.

Page 262: La investigación científica avanzada primera edición 2015

261

10.2.- Consideraciones sobre la Observación y el Experimento.

a observación es un proceso netamente relacionado a los sentidos, es decir, implica

percepción. Se puede observar todo aquello que se visualiza directamente, se escucha,

prueba, toca o huele. Observar implica el uso de todos los sentidos. A la observación se

le asume como un paso ineludible e insalvable dentro del método científico, de hecho, todo el

conocimiento científico disponible actualmente es derivado natural de la observación, allí se

capta la esencia del fenómeno para luego describir, experimentar y explicar. La observación

permite colectar gran cúmulo de evidencias que llevan a inducir o deducir ideas, supuestos,

hipótesis e incluso teorías.

El proceso observacional permite absorber lo evidente e intuir sobre lo inobservable, la

descripción de lo observado reproduce información bajo la forma de resultados e interacciones

percibidos, no obstante, un mal proceso observacional induce a errores, sobre todo cuando

no se han adiestrado correctamente los sentidos259

. En función de ello, Poincaré afirma: Para

el observador superficial, la verdad científica es irrefutable, la lógica de la ciencia es infalible, y

si los hombres de ciencia a veces cometen errores, es porque no han entendido las reglas del

juego260

.

La percepción es fuerte y la vista débil. En la estrategia es importante ver las cosas lejanas

como si estuvieran cerca, y tener una visión distanciada de las cosas cercanas261. Por su lado,

Kosso (2011, p.10 y ss.), para quien investigue por inducción pura, ésta presupone observación

259

Al respecto, la razón humana averigua las cosas de dos maneras, o por la fuerza de razonar o por los sentidos. Del primer modo alcanza los

primeros principios y verdades que hemos llamado razón o luz natural. Del segundo descubre la naturaleza y propiedades de los objetos sensibles y corpóreos. De estas dos clases es posible señalar los errores que se mezclan… conviene advertir que el error como falsedad esta en el juicio que afirma, o niega una cosa de otra; llamaremos error a cualquier defecto de las nociones mentales que pueda dar ocasión a la potencia de juzgar para engañarse; y recibir lo falso en lugar de lo verdadero. Dicen muchos que los sentidos nos engañan con facilidad, de hecho lo dicen bien, por esta razón ha de ponerse el cuidado posible en asegurarse de las cosas que se ofrecen a los sentidos, pues por ellos, si se hace debido uso de sus operaciones, se alcanzan muchas y muy importantes verdades. Piquer (1781), De Los Errores que Ocasionan los Sentidos, (pp. 114 y ss.) Por su lado Bunge (2000), sostiene… <<no puede haber fenómenos o apariencias sin un sujeto sensible (Observador) que se sitúe en una adecuada posición de observación. Un mismo hecho objetivo puede aparecer de modos diferentes a observadores diferentes>> (p. 592-593). Y esta es la razón de la ciencia, contrastar, explicar, disipar dudas y descubrir verdades. 260

Aparece en el Prólogo de su obra: Science and Hypotheses. 261

Miyamoto Musashi. Estratega Japonés.

L

Hay tres medios principales para la adquisición de conocimientos… la observación de la naturaleza, la

reflexión y la experimentación. La observación colecciona hechos; la reflexión los combina; y la

experimentación verifica el resultado de esa combinación…

Denis Diderot

Page 263: La investigación científica avanzada primera edición 2015

262

pura, cuyo flujo de información carece de contaminación externa. Esto es simplemente

imposible. En ciencia, la percepción está influenciada por las ideas. Entonces, las observaciones

científicas están influenciadas por teorías científicas, donde el orden de los eventos no puede

restringirse a primero la observación y luego la teoría.

El autor indica la importancia de dejar claro que toda teoría tiene influencia sobre la

observación, direccionándola sólo hacia los aspectos de interés. Así mismo, es imposible

observarlo todo, así como lo es el anotar y describir cada detalle del producto observacional. La

observación científica, en la medida de lo posible, ha de hacerse corresponder con el lenguaje

teorético. La observación ha de constituirse en la destreza más importante que pueda desarrollar

todo aquel que dignamente desee ser llamado científico. Le ayuda a calibrar los juicios y los

sentidos, le permite discriminar entre los datos con y sin información, le asiente a precisar en vez

de generalizar, en fin, la observación se fortalece a través de la práctica generalizada en las

comunidades científicas. La mera acción de observar puede alterar el sistema o fenómeno

estudiado como sucede con el experimento del Gato de Shrodinger de 1937, aplicado sobre la

mecánica cuántica.

Existen muchos tipos y formas de hacer observación, las más usuales en ciencia son: la

observación estructurada usada en estudios del tipo descriptivo; cuando se ejecutan

investigaciones exploratorias se usa la observación no estructurada; en ciencias sociales, estudios

del comportamiento e investigaciones cualitativas suele hacerse uso de la observación

participante; así como también existe la observación no participante y la observaciones

encubiertas. Johnston (2005), afirma que la observación como proceso involucra al menos 5

pasos importantes: 1) el uso de todos los sentidos; 2) la identificación de semejanzas y

diferencias entre los objetos observados; 3) la captación de patrones entre los objetos y el

fenómeno; 4) la identificación de secuencias y eventos que rodean al fenómeno observado; y por

último, 5) la interpretación de tales observaciones. Hasta el momento se han dilucidado

elementos de la observación y su proceso, conviene ahora asociarlo a la experimentación.

La observación se ha convertido en una fuente primaria de datos para el científico en su afán

de generar aportes a la ciencia, mientras que la experimentación, de manera obvia, es resultado

inequívoco de un inmenso proceso observacional. La observación consiste en el proceso de

registrar determinado objeto de manera natural con el fin de ser estudiado, la experimentación

refleja la acción en sí de colectar pruebas que corroboren teorías involucradas con tal objeto,

recreando artificialmente los escenarios. La observación provee al científico un conocimiento

que ha de confirmarse mediante experimentación y evidencia, en función de ello, mal podría

decirse que son opuestos, la realidad muestra que son complementarios.

Ro

iman

Val

bu

ena:

Co

nsi

der

acio

nes

so

bre

la O

bse

rvac

ión

y e

l Exp

erim

ento

.

Page 264: La investigación científica avanzada primera edición 2015

263

Según Daston y Lunbeck (2011), la observación sugiere conjeturas que pueden ser probadas

por experimentos… que a su vez consiguen nuevas observaciones en el interminable ciclo de la

curiosidad científica. La observación descubre elementos y discierne de ellos, el experimento

prueba y demuestra. Stuart Mill262

(1858), aporta una gran cantidad de consideraciones al

respecto. La naturaleza está invariablemente conectada con sus antecedentes, en otras palabras,

cada fenómeno está relacionado con otro bajo la forma de causa y efecto. Cada efecto comienza

con la existencia de una causa, y esta causa debe ser encontrada en alguna parte entre los hechos

que inmediatamente precedieron a su ocurrencia, es evidente entonces que existe una secuencia

natural y uniforme del pasado hacia el presente. Es necesario resolver esta uniformidad en sus

más simples partes constitutivas, donde se separe cada porción de su antecedente y cada

porción de su consecuente.

Aunque a simple vista parezca una operación analítica, va más allá de un mero análisis

mental. En donde la observación y el experimento se convierten en herramientas imprescindibles

para la resolución de esta uniformidad. Es el análisis mental el que inicia la secuencia, capta cada

objeto conocido y lo distingue a través de su intelecto de otro; ha de descomponerse el caos

precedente y el caos consecuente en simples unidades fácticas, separando un hecho de otro. La

esencia del acto observacional, para el observador, no consiste en ver lo que merece ser visto,

sino el ver realmente, el cómo se compone aquello que ha visto.

Para ello requiere de un raro talento, una persona puede prestar atención u observar sólo

hacia el lugar equivocado, en cuyo caso le llevaría a observar sólo la mitad de lo que ve. Otro

sujeto puede pensar haber visto más de lo que realmente observó, confundiéndolo con aquello

que imagina o infiere. Esta inexperticia afecta al proceso experimental, pues se está alimentando

de datos erróneos de procesos inadecuados, es por ello que previo a querer ser científico

experimentalista ha de demostrase que se es buen observador, y ello requiere de adiestramiento.

262

Véase Capítulo VII: De la Observación y el Experimento. (pp. 216 y ss.)

Ro

iman

Val

bu

ena:

Co

nsi

der

acio

nes

so

bre

la O

bse

rvac

ión

y e

l Exp

erim

ento

.

Page 265: La investigación científica avanzada primera edición 2015

264

10.3.- Los Experimentos Mentales.

n experimento mental es una facultad intelectual del pensamiento lógico científico

desde donde se construye un escenario hipotético, inmaterial y apriorístico, tendente a

establecer las conjeturas iniciales para un experimento real futuro. Allí se relacionan

ideas que posibilitan llevar a feliz término la consecución de un hecho, pero que necesariamente

amerita ser probado a posteriori. Se considera un tipo de facultad sensorial que permite razonar

sobre las relaciones causa efecto en determinado fenómeno, omitiendo todo hecho real y

básicamente influenciado por la intuición del experimentalista. Se usa para armar, sostener y

destruir teorías, pero también como herramienta en la construcción de conceptos. Los

Experimentos Mentales son en esencia contrafácticos y se ejecutan en el laboratorio de la mente,

sus suposiciones imaginarias incrementan las posibilidades de entendimiento. Las bondades de

los Experimentos Mentales es que son totalmente gratis y están libres de riesgos.

Un Experimento Mental se basa en hipótesis lógicas de los pensamientos y sus consecuencias,

su fin cardinal consiste en explorar eventos coetáneos y sucedáneos asociados al fenómeno que

en un primer momento orienten sobre consecuencias teóricas y del que posteriormente puedan

obtenerse aplicaciones prácticas. En los Experimentos Mentales nunca se da por cierto ningún

resultado y, aunque la mayoría son verdaderamente impresionantes y convincentes, simplemente

se especula sobre ellos, en ocasiones sus conclusiones derivan en paralogismos263

. Un

experimento mental se considera limítrofe sólo con la credulidad.

Los ejercicios cerebrales que crean Experimentos Mentales se constituyen quizás en la pieza

más importante dentro del proceso de formación de un experimentalista, aquí se bosquejan

esquemas mentales y se les asocia con sus debidas pruebas estadísticas, de cuyo razonamiento

causal se extrae únicamente la posibilidad del escenario. En sus supuestos iniciales son muy

263

En escritos de Rosental – Iudin (2004), un paralogismo consiste en una infracción inconsciente de las leyes y reglas de la lógica que deriva en

un razonamiento incorrecto. Priva al razonamiento de fuerza demostrativa y, generalmente, lleva a conclusiones falsas. Es necesario distinguir del Paralogismo, aquella infracción totalmente consciente de las reglas de la Lógica para intentar engañar (Sofismas).

U

Partiendo desde las más locas, necias y estúpidas ideas, es posible hacer descubrimientos sorprendentes.

Roiman Valbuena.

Page 266: La investigación científica avanzada primera edición 2015

265

comunes las antinomias264

. Todo Experimento Mental ha de ajustarse tanto a la realidad

empírica como a la estructura teórica a la cual hace referencia, convirtiéndose en herramienta

poderosa cuando logra hacerse de un cúmulo de explicaciones teóricas.

Los Experimentos Mentales, Tought Experiments <<TEs>> por sus siglas en inglés, han sido

de uso muy común en ciencias desde el advenimiento del método científico. Para Gilbert y

Reiner (2000, p. 266); Un Experimento Mental es un Experimento que pretende alcanzar sus

objetivos sin el beneficio de la ejecución. Ayudan en los procesos de desarrollo del pensamiento,

permiten crear nuevos hechos para producir nuevas explicaciones y justificar aquellos hechos y

explicaciones a la comunidad científica. Para ello hacen uso de convenciones conceptuales con

estrategias de inferencias aplicadas en ciencias.

Todo Experimento Mental lía dos conceptos fundamentales; pensamiento e inteligencia,

delimitados por el lenguaje que lo explica. Para sus efectos, Jean Piaget (1997), padre de la

epistemología genética y quien generó grandes aportes a los conceptos de pensamiento e

inteligencia, afirma lo siguiente:

Existe una inteligencia anterior al lenguaje pero no hay pensamiento antes del

lenguaje. A este respecto distinguimos inteligencia y pensamiento: la inteligencia es

la solución de un problema nuevo por el sujeto, es la coordinación de los medios para

llegar a un fin que no es accesible de manera inmediata, mientras que el pensamiento

es la inteligencia interiorizada que no se apoya sobre la acción directa sino sobre un

simbolismo, sobre la evocación simbólica por el lenguaje, por las imágenes mentales

etc., que permiten representar lo que la inteligencia sensorio motriz, por el contrario,

va a captar directamente, (p. 17).

El pensamiento lógico es una actividad mental o habilidad de la percepción que permite

poner en marcha la inteligencia y está conectado al cerebro mediante un mecanismo fisiológico.

Comienza con simples abstracciones y luego generaliza ideas de manera difusa para concluir con

especificidades lógicas de tal proceso activo circunscrito al mundo objetivo. En los experimentos

mentales estos tres pasos se corresponden con él antes, durante y después, acciones ajustadas

siempre dentro del escenario. Toda actividad del pensamiento resulta en la formación de

conceptos, tanto generales como científicos, además de juicios razonados.

La inteligencia da origen a formas y procesos, consiste en un fenómeno sicológico, se le

estima compleja puesto que existen varios tipos, además, es medible, el pensamiento no.

Envuelve la capacidad de asimilar y aprender, mezcla razonamiento y entendimiento. Es el

pensamiento el que hace trabajar a la inteligencia en una forma y dirección específica. La

264

Aparición de dos juicios contradictorios pero igualmente fundamentados en el curso de un razonamiento. Véase Rosental – Iudin, Concepto

de Antinomia.

Ro

iman

Val

bu

ena:

Lo

s Ex

per

imen

tos

Men

tale

s.

Page 267: La investigación científica avanzada primera edición 2015

266

inteligencia está presente en contextos tanto animados como inanimados, es un criterio de éxito

que diferencia a los seres humanos, implica el procesamiento y uso de pensamientos abstractos.

En Experimentos Mentales se erige como la base para la construcción de situaciones hipotéticas

dignas de ser tomadas en cuenta.

La inteligencia es el arte de interpretar juicios y se relaciona con la velocidad de

procesamiento mental. Se operacionaliza en varias etapas, la primera da origen al concepto que

identifica al objeto. Consecutivamente se sobreviene un enlace lógico y sucesivo de varios

conceptos que concatenados hacen emerger un juicio. Y por último, se da lugar a una operación

mental que enlaza tales juicios y simplifica los conceptos, esto se denomina razonamiento. Lo

único que diferencia un Experimento Mental de otro es el nivel de inteligencia aplicado y que da

soporte a sus supuestos lógicos.

Un Experimento Mental jamás debe confundirse con cualquier otra forma de expresión

imaginativa de la mente. Son útiles cuando no se pueden ejecutar experimentos materiales.

Conforman la etapa intermedia entre la teorización y la experimentación pura. Han de

delimitarse de manera tal que, usando instrumentos reales o no, pueda edificarse una

representación bastante aproximada del mundo real, pero carecen de fuerza demostrativa y

probatoria. Se componen de suposiciones y de un contexto necesario que atados a una secuencia

lógica, harán emerger aspectos y entidades antes inobservables. Para Brown (1991), un

experimento mental representa una curiosa y diversa colección de ideas, además de un

deslumbrante despliegue de gimnasia mental (p. 33).

A su vez afirma que, no por estar supeditado a la mente, debe carecer de estructura,

contrariamente, propone una taxonomía. En su contexto macro se encuentran los Experimentos

Mentales Destructivos y los Constructivos respectivamente. Posteriormente, y por debajo de los

anteriores, especifica otros tres tipos: los Mediativos, los Conjeturales y los Directos. Taxonomía

semejante a la propuesta por Popper (1959); esta distingue tres tipos de experimentos mentales:

Los Heurísticos <<que sirven para ilustrar una teoría>>, La Crítica o experimentos orientados

contra la teoría. Y por último, los experimentos Apologéticos, son aquellos que se proyectan a

favor. A continuación la taxonomía de experimentos mentales de Brown (1991):

10.3.1.- Los Experimento Mentales Destructivos

Son aquellos cuyo argumento va dirigido contra una teoría a la cual intenta destruir, o al

menos el experimento representa serios problemas para ella. Por lo general, señalando una

Ro

iman

Val

bu

ena:

Lo

s Ex

per

imen

tos

Men

tale

s.

Page 268: La investigación científica avanzada primera edición 2015

267

deficiencia en su marco general. Intenta demostrar que la teoría se sobreviene en

incompatibilidad contra otras creencias, muchas veces se usan las pruebas de reducción al

absurdo como herramientas.

10.3.2.- Los Experimentos Mentales Constructivos

Estos intentan esclarecer una teoría, sobre todo si se le considera en extremo abstracta,

persiguen obtener conclusiones de una teoría ya en uso, o un conjunto de nuevos pareceres que la

hagan más aceptable.

10.3.3.- El Modelo Conjunto: Destructivo – Constructivo

Consiste en un tipo de experimento mental que dependiendo del contexto y la circunstancia

donde se aplique, va contra una teoría para con ello apoyar otra distinta. La destrucción se

ejecuta con mecanismos lógico deductivos, donde se intentan vulnerar supuestos e hipótesis. Una

vez identificada la debilidad y demostrada la inconsistencia lógica, se le asume inservible. El

modelo constructivo entra en juego ya cuando, evidenciada la inconsistencia de la primera, se

usa como argumento válido para soportar una segunda.

10.3.4.- Experimentos Mentales Mediativos

Para Brown (1991, p. 40), consisten en un sub-tipo de los constructivos. Son aquellos que

facilitan el entendimiento haciendo posible una conclusión. Se diseñan basados en

procedimientos reglados o normatizados en una teoría bien soportada.

10.3.5.- Experimentos Mentales Conjeturales

Los Experimentos Mentales Mediativos pueden iniciarse con unos simples antecedentes de la

teoría dada, ésta, hasta el momento no ha sido suficientemente soportada. El experimento actúa

entonces como médico que trae al mundo una nueva conclusión. Sin embargo, no todos los

Experimentos Mentales mediativos actúan así, y existe una gran cantidad de clases de que no

Ro

iman

Val

bu

ena:

Lo

s Ex

per

imen

tos

Men

tale

s.

Page 269: La investigación científica avanzada primera edición 2015

268

pueden partir de una teoría dada. El centro de este tipo de experimentos es el establecimiento de

algunos Experimentos Mentales con posibilidades de conjeturarse, es decir, obtener de ellos

conjeturas sobre el fenómeno aludido. Se le denomina entonces conjetural ya que permite

hipotetizar una teoría para explicar el fenómeno.

10.3.6.- Experimentos Mentales Directos

Se constituyen como la clase final de los experimentos constructivos. En ellos se inicia sin

problema alguno un Experimento Mental que posteriormente finaliza en la propuesta de una

teoría. Actúa en este sentido como uno del tipo conjetural, es decir, no comienza con una teoría

dada pero si finaliza con una, Brown Op. Cit, (p.41).

En consideraciones de Bunge (2004), los Experimentos Mentales son cada vez más comunes

en ingeniería y tecnología. Cuando por determinada circunstancia no puede aplicarse estímulos a

sistemas reales es menester optar por la práctica con modelos, donde convenientemente se

extrapolan los resultados a los sistemas originales. De hacerse imposible la consecución de un

modelo concreto, se imagina un modelo conceptual que imite algunos rasgos del sistema real y

se practica mentalmente en él, confrontándose contra la teoría toda compilación de reacciones.

Se llama modelado a esta proyección de los modelos conceptuales, y simulación al sometimiento

del modelo a cambios imaginarios. El par modelado – simulación se llama Experimento Mental,

(p. 691).

Finalizado el proceso, ya el Experimento Mental y el escenario han tomado forma en la mente

del experimentalista, ahora solo falta explicitarlo y hacerlo entendible. En función de ello debe

proveerse de una artillería de medios connaturales de manera que, el experimento real futuro se

considere apógrafo y unívoco al mental. A continuación se presenta una serie de los más

famosos Experimentos Mentales aplicados a las ciencias, unos en física y otros en filosofía, éstos

conjugan magistralmente la capacidad ingenieril de Leonardo Da Vinci con los escenarios de

ciencia ficción de Julio Verne.

Ro

iman

Val

bu

ena:

Lo

s Ex

per

imen

tos

Men

tale

s.

Page 270: La investigación científica avanzada primera edición 2015

269

10.3.7.- El Gato de Shrodinger

Experimento Mental del tipo destructivo concebido por el físico austríaco Erwin Shrodinger,

premio nobel de física en 1933 por la denominada Ecuación de Shrodinger. Este experimento

<<muy comúnmente llamado paradoja de Shrodinger>> se ha hecho muy popular en la

Mecánica Cuántica. En aras de la simplicidad, en lo adelante se omitirán algunas fórmulas, pero

se introducirán conceptos que posterior a la confrontación contra las teorías despejaran el

escenario para el cual se planificó. Este experimento imaginario consiste en colocar un gato

dentro de una caja de opacidad absoluta, además de un aparato detector de partículas radioactivas

<<contador Geiger>> sujeto a un martillo que de activarse, rompería una ampolla contentiva de

un gas venenoso. En la caja se encuentra dispersa también una partícula radioactiva con

probabilidad 50% - 50% de desintegrarse en un tiempo específico. Refiérase a la gráfica.

Experimento del Gato de Shrodinger

Por meras deducciones lógicas sólo pueden presentarse dos escenarios; el primero donde la

partícula se desintegre, el dispositivo active el martillo, se desprenda el gas venenoso y el gato

muera. De sucederse así, el experimentalista encontrará al gato muerto al abrir la caja. En el

segundo escenario la partícula radioactiva no logra desintegrarse, el mecanismo no se activa, el

martillo permanece inmóvil y el gato vive. Hasta el momento todo es ideal y lógico, al finalizar

el experimento sólo hay dos opciones, gato vivo o gato muerto. El problema está en que cuando

se extrapola el experimento y se contrasta contra la teoría cuántica comienza a desafiase el

sentido común de cualquier ser humano.

Supóngase ahora que la partícula es un electrón <<un supuesto es estrictamente necesario

para la conformación de una teoría>>, este elemento presenta una propiedad denominada onda

corpúsculo, es decir, presenta las propiedades de las ondas y también las de los corpúsculos.

Entiéndase de la siguiente manera, la partícula desintegrada, en este caso el electrón, puede

tomar la forma como de cuando se lanza una piedra, esta sale disparada en determinada dirección

conformándose así una proyección de forma corpuscular. Sin embargo y al mismo tiempo, toma

Ro

iman

Val

bu

ena:

Lo

s Ex

per

imen

tos

Men

tale

s.

Page 271: La investigación científica avanzada primera edición 2015

270

la forma de una onda, como cuando se deja caer una gota en una copa llena de agua y se

observan las ondulaciones producidas.

Es decir, la acción desintegradora produce ambos efectos tomando diferentes caminos sin

excluirse, contrariamente, se superponen. Donde el electrón desintegrado se dirigirá hacia el

contador Geiger siendo detectado, y cuya resultante es la muerte del gato. Pero al mismo tiempo

tomará el camino contrario donde no será detectado y el gato vivirá. Bajo los supuestos teóricos

de la mecánica cuántica el gato adquiere ambos estados, vivo y muerto a la vez. Esto sólo es

posible a nivel sub-atómico, y puesto que el gato no cumple con estos requisitos, el

experimentalista al abrir la caja solo observará un estado debido a que ha roto el mundo cuántico

y con la observación ha contaminado el experimento alterando la superposición.

Al operacionalizar la partícula como variable, podrá describirse por una función de onda

extremadamente compleja <<Refiérase a la Ecuación de Shrodinger>>, resultante de la

superposición de dos estados combinados probabilísticamente al cincuenta por ciento: <<gato

vivo y gato muerto>>, a esto se le denomina Formalismo Cuántico265

, el gato estaría a la vez

vivo y muerto; se trataría de dos estados idénticos. Y, mientras el investigador no abra la caja el

gato presentará ambos estados. Cuando el experimentalista abre la caja se produce el

denominado Colapso de Función de Onda, y además de que es atribuible al proceso de medida,

la teoría cuántica establece que es inevitable.

Semejante a cuando se emiten ondas hertzianas que son captadas por un televisor y se hacen

observables a través de un programa televisivo, los objetos en el programa no están ni aquí ni

allá, simplemente son información transmitida bajo la forma de ondas en el espacio. Se asume

entonces que su función de onda ha colapsado cuando el cerebro entra como observador

haciéndolo presente en un lugar específico. En fin, Shrodinger en un primer momento quiso

destruir la teoría de Interpretación de Copenhague en la cual se sostiene que <<En un Estado de

Superposición la Realidad es Indeterminada, donde la Medida Crea la Realidad Colocándola en

uno de sus estados Propios>> y argumentó que esta interpretación es insostenible, no debido a la

serie de circunstancias que rodean a la teoría cuántica, sino al gato. Lo que realmente se debate

aquí es la interpretación del significado de Superposición en la mecánica cuántica. En Sicología

a este tipo de razonamiento se le denomina Pensamiento Productivo266

.

265

La teoría estándar de la mecánica cuántica consiste en una serie de formalismos <<reglas metodológicas circunscritas y delimitadas por la

teoría>>, allí los sistemas físicos están representados por vectores en el espacio de Hilbert. Donde el estado del sistema evoluciona en el tiempo conforme lo dispone la Ecuación de Shrodinger. Para más detalles Véase: Brown (1993, p. 129). The QM Formalism. 266

Término usado por el Sicólogo Max Wertheimer quien en 1916 entrevistó a Albert Einstein como parte de su experimento en sicología bajo

la teoría de Gestalt. Su reporte de la entrevista fue publicado a título póstumo en 1945 bajo la denominación Productive Thinking. Puede leerse en: Chasing the Light, por Norton John. Aparece en: Tought Experiments in Science, Philosophy and the Arts. (2013, p. 131).

Ro

iman

Val

bu

ena:

Lo

s Ex

per

imen

tos

Men

tale

s.

Page 272: La investigación científica avanzada primera edición 2015

271

Los teóricos de Copenhague sostienen que todo aquello observado y el observador interactúan

de alguna manera, el electrón asume que está siendo observado, lo que genera el colapso de su

función de onda, para Shrodinger algo realmente absurdo. Esta interpretación despertó gran

resistencia entre los científicos de la época. En el folclore cotidiano de la actividad científica de

la teoría cuántica se dice que Shrodinger elige un gato a manera de burla, donde se llegó a

afirmar que debido a la dualidad de estados del gato en la caja, podría ser familiar del gato de

Cheshire, personaje que Lewis Carroll inmortalizó en El País de las Maravillas, y que tenía la

capacidad de desvanecerse por partes.

Esta paradoja causó gran revuelo y enfrentamientos entre grandes científicos, Niels Bohr era

uno de los que avalaban la teoría de interpretación de Copenhague, a su vez Einstein estaba en

contra, tanto así que increpó alguna vez a Bohr y le preguntó: ¿De verdad crees que la luna no

está allí cuando nadie la mira?... a lo que Niels Bohr respondió encarecidamente: ¿Puedes

demostrarme lo contrario? ¿Puedes probarme que la luna está ahí cuando nadie la mira? ¡No

es posible ni puedes!… si el lector lo desea indague sobre el experimento de doble rendija, donde

las partículas se comportan de manera diferente si las están observando que si no hay nadie

mirando. Saque usted sus propias conclusiones.

Un Experimento Mental puede ser usado en una amplia gama de campos de investigación y

su forma ha de ajustarse a la teoría de la rama científica de referencia. Pueden clasificarse tanto

por la naturaleza del fenómeno como por el nivel de razonamiento aplicado, éste último podrá

derivar, según la conclusión obtenida, en experimentos del tipo meramente plausibles,

deductivos o probabilísticos. Ciertamente, a muchos experimentos mentales se les estima

imposibles desde el punto de vista lógico, pero desde la óptica intuitiva267

son bastante

aceptables. En algunos casos son considerados como Fenomenología de la Intuición.

10.3.8.- Galileo Galilei y la Caída Libre

Aristóteles sostuvo una teoría en la cual afirmaba… no importa la altura, los objetos pesados

caen más rápido que los ligeros, si dos cuerpos con distinta masa se dejan caer simultáneamente

267

La intuición es un talento especialísimo e individualísimo de cada ser humano que le permite ver en la mente la verdad de las cosas sin

previo sometimiento a prueba. En aquellos denominados genios se constituye en un don innato debido a la facultad creadora que poseen. Para un experimentalista es estrictamente necesaria. Para Rosental – Iudin (2004), consiste en la facultad de conocer de modo inmediato la verdad sin previo razonamiento. En ese mismo orden para Descartes, la intuición unida al método deductivo sirve de criterio universal para establecer plena evidencia. Desde la concepción de Ferrater Mora (2000), la intuición representa una visión directa e inmediata de la realidad, o la comprensión directa e inmediata de una verdad. Una condición para que haya intuición en ambos casos, es que no existan elementos intermediarios que se interpongan en tal visión directa. Tal como en el escenario de los experimentos mentales.

Ro

iman

Val

bu

ena:

Lo

s Ex

per

imen

tos

Men

tale

s.

Page 273: La investigación científica avanzada primera edición 2015

272

desde la misma altura sobre la superficie de la Tierra, el cuerpo con mayor masa llega antes al

suelo, sin embargo esta teoría nunca fue probada. A esto se denomina Principio de Caída Libre.

Esta teoría Aristotélica no cayó muy bien al célebre italiano Galileo Galilei, quien la refutó

proponiendo lo siguiente: En Ausencia de Resistencia del Aire, todos los Objetos caen

Presentando la Misma Aceleración Uniforme, por lo tanto caerán al mismo tiempo.

En otras palabras, todos los cuerpos caen al mismo tiempo sin importar su peso. En semejante

problema se había metido Galilei, pues para probarlo tendría que extraer el vacío del aire, algo

realmente imposible para la época puesto que carecía de medios y tecnología para lograrlo.

Además, le era imposible medir el tiempo de caída de cada objeto para compararlos. Bajo la

modalidad de Experimento Mental del tipo Consensual Platónico268

y usando a la torre

inclinada de Pisa, planificó la siguiente secuencia: por la dificultad de medir el tiempo de caída

para ambos objetos, el pesado y el ligero, tendría que corroborar su teoría con un segundo

experimento.

Primeramente, imaginó un cuerpo pesado (CP) y un cuerpo ligero (CL), si Aristóteles estaba

en lo cierto, la velocidad del cuerpo pesado (VCP) habría de ser mayor a la velocidad del cuerpo

ligero (VCL), [VCP > VCL] y sería evidente al observar que (CL) haría contacto posterior con el

suelo y llega después de (CP). Esto no funcionó para Aristóteles pues ambos cuerpos cayeron al

mismo tiempo. Galileo ya había refutado la teoría pero no disfrutaba el hecho de imponer la

suya.

Repite entonces el experimento y ahora vienen las condiciones, se dejan caer CP y CL

separadamente pero atados mediante cuerda, de allí deduce lo siguiente…si ambos CP y CL son

lanzados en caída libre desde el mismo punto y al mismo instante, y como CP + CL > CP;

entonces se esperaría que la velocidad combinada de ambos sea mayor a la velocidad del cuerpo

pesado VCP… [VCL + VCP] > VCP. Además, el cuerpo ligero en su descenso más lento haría

la función de paracaídas sobre el cuerpo pesado, disminuyendo su velocidad. Todo un éxito.

Según Gilbert y Reiner (2000, p. 274), las dos conclusiones son contradictorias entre sí, pero

ambas invalidan la teoría original.

268

Otra Modalidad propuesta por Brown (1991). Este ejemplo consiste en una adaptación del mismo fenómeno y que aparece en: Gilbert y

Reiner (2000).

Ro

iman

Val

bu

ena:

Lo

s Ex

per

imen

tos

Men

tale

s.

Page 274: La investigación científica avanzada primera edición 2015

273

Tomado con permiso de Wikipedia.org.

No existe evidencia cierta de que Galileo haya realmente ejecutado este experimento, quizás

por la dificultad de medir exactamente los intervalos temporales. Posteriormente logró verificar

su hipótesis haciendo uso de planos inclinados. Sin embargo, fue en 1971 con una misión lunar

en el Apollo 15, cuando el astronauta David Scott dejaría caer un martillo y una pluma en la

superficie lunar en estado de gravedad cero, observándose que ambos llegaron al suelo al mismo

tiempo. Galileo siempre criticó que a Aristóteles se le obedeciera ciegamente e incluso se le

considerara autoridad científica para la época. Logrando edificar la ley de la Inercia y el

Principio de la Relatividad en el cual se soportó Einstein, éstos allanaron el camino a la

investigación experimental que hoy por hoy la comunidad científica usa.

10.3.9.- David Hilbert y su Hotel Infinito

El siguiente Experimento Mental se usa para explicar las paradojas relacionadas con el

infinito y su concepto en matemáticas. El sueño de un prestigioso gerente hotelero era crear el

hotel más grande del mundo, decide entonces consultarlo con su esposa, sin embargo nunca

lograron ponerse de acuerdo en la cantidad exacta de habitaciones que tendría, pues siempre era

posible que un competidor construyese uno con al menos una habitación más. Deciden entonces

construir un hotel con habitaciones infinitas. No obstante, una vez levantado el hotel la pareja se

plantea las siguientes paradojas:

1- ¿Qué pasa si el hotel se llena hasta el infinito pero aun así llega uno más? Paradoja del

Infinito más Uno. Realmente era una pregunta interesante, y debido a que cada habitación

estaba debidamente numerada [1-2-3-4-5….], cuando llegase el huésped [infinito + 1]

simplemente se le informaría a los demás para que se trasladasen a la habitación de al lado.

Entonces el que estaba en la 1 pasaría a la 2, el de la 2 a la 3, el de la 3 a la 4 y así

Ro

iman

Val

bu

ena:

Lo

s Ex

per

imen

tos

Men

tale

s.

Page 275: La investigación científica avanzada primera edición 2015

274

sucesivamente, como habían infinitas habitaciones, el último huésped no tendría problemas.

Quedaba solucionado el asunto puesto que la habitación uno quedaría disponible para el nuevo

huésped. Pero no todo era color de rosa.

2- ¿Qué pasaría si el hotel se encontrase lleno hasta el infinito y llegase un nuevo infinito

número de turistas? Paradoja de los dos Infinitos. Si esto sucedía, se les informaría a los

huéspedes que tendrían que cambiarse a una habitación cuyo número sería la resultante de

multiplicar por 2 la actual. Y puesto que al multiplicar por 2 cualquier número impar este resulta

par, todos los huéspedes previamente alojados estarían conformes cada uno en una habitación

par. Así el nuevo infinito número de turistas se alojaría en las habitaciones impares que habían

quedado vacías. De esta manera el hotel alojaría a dos infinitos números de huéspedes.

3- ¿Qué pasaría si llegase un infinito número de excursiones con un infinito número de

turistas? Paradoja del Infinito Número de Infinitos. Efectivamente, al hotel llegó un infinito

número de excursiones con un infinito número de personas cada uno. Esta vez se le informó

solamente a las habitaciones cuyo número fuese primo, o alguna potencia de él derivada. Se les

pidió entonces que a la base numérica (2) la elevasen al número de la habitación en la cual se

encontraban, es decir, [ ]. El resultante era el número de sus nuevas habitaciones. De esta

manera quedaron alojados todos los huéspedes previamente registrados en el hotel.

Tomado con permiso de: www.mathstube.org.uk

Ahora solo faltaba buscar un espacio para el nuevo infinito grupo de excursiones con un

infinito número de turistas cada una. En función de ello, asignó a cada una de las excursiones un

número primo mayor a 2, y a cada turista de cada excursión un número impar, de manera que la

habitación de cada uno de los turistas se calculaba tomando el número primo de su excursión (p)

y elevándolo al número impar que les tocó dentro de la excursión (t), lo que da [ ]. Ejemplos

como este y más pueden encontrase en la excelente obra de Alberto Coto (2007, p. 68-69).

Bien sabido es que tanto los números primos como los impares, representan grupos diferentes

de números infinitos, fue así entonces como el gerente y su esposa lograron hospedar a un

Ro

iman

Val

bu

ena:

Lo

s Ex

per

imen

tos

Men

tale

s.

Page 276: La investigación científica avanzada primera edición 2015

275

número infinito de huéspedes, dentro de un hotel con infinito número de habitaciones. Este

consistió en un experimento mental del tipo conjetural aplicado a las matemáticas, a la teoría de

conjuntos y los números infinitos, de los cuales de George Cantor (1845 – 1918) fue uno de sus

instauradores. Según Cobalán (2006), los conjuntos infinitos pueden resumirse de la siguiente

forma: En cualquier conjunto finito se cumple que el todo es mayor que cualquiera de sus

partes. En los conjuntos infinitos se tiene la característica de que el todo no es mayor que alguna

de sus partes, (p. 11).

10.3.10.- El Cerebro en una Cubeta

Este Experimento Mental del tipo crítico o destructivo, se constituye en una versión

modernizada del experimento de René Descartes y su Hipótesis del Genio Maligno. Cuando

Descartes deja a un lado las críticas hacia el conocimiento y pasa a las críticas de las propias

facultades que tiene el ser humano y su razón de percibir y diferenciar qué es realmente

conocimiento y qué realmente no lo es. Deja en entredicho cualquier criterio de verdad que le

permita fiarse del método, y ello implica admitir, al menos en teoría, la existencia de la absoluta

irracionalidad. Estaría así asintiendo la duda metódica y adquiriendo un estilo radical sobre el

conocimiento.

¿Es que acaso Descartes se cambiaría al lado oscuro de los Escépticos? Si quería encontrar

verdades absolutas de alguna manera tendría que encontrar el cómo eliminar todo vestigio de

duda del método. Y puesto que éste algunas veces tiende a engañar al más ilustrado de los

científicos, planteó lo siguiente:

Todo lo que he admitido hasta el presente con más seguro y verdadero lo he

aprendido de los sentidos y por los sentidos. Ahora bien, he experimentado a veces

que tales sentidos me engañaban, y es prudente no fiarse nunca por entero de quienes

nos han engañado alguna vez…Discurso del Método.

Descartes creía que las verdades de la geometría y las matemáticas eran dependientes de la

voluntad de Dios, y que este, de alguna manera nos engañaba. Con esto no afirmaba a ciencia

cierta la existencia de un dios engañador, simplemente lo toma como una hipótesis que llevaría a

los seres racionales a la duda universal sobre todos los conocimientos. Según Morillo (2001, p.

58) Descartes plantea su Hipótesis del Genio Maligno así:

Pensaré que el cielo, el aire, la tierra, los colores, las figuras, y todas las cosas

Ro

iman

Val

bu

ena:

Lo

s Ex

per

imen

tos

Men

tale

s.

Page 277: La investigación científica avanzada primera edición 2015

276

exteriores que vemos no son más que ilusiones y supercherías, de las que se sirve

para abusar de mi credulidad. Me consideraré a mí mismo como si no tuviera manos,

ojos, carne, sangre, sentidos, pero con la falsa creencia de tener todas esas cosas.

En la cuarta parte de su libro El Discurso del Método expone 3 posibles motivos para dudar:

la desconfianza en los sentidos; la posibilidad de error en el razonamiento matemático y el

sueño. Concluye entonces, en escritos de Morillo op, cit, que ninguna proposición basada en la

experiencia, incluyendo las matemáticas, puede superar la duda metódica. Descartes termina

negando la existencia un dios maligno, y afirmando su propia existencia en el mundo. No

admitía el engaño de ningún genio maligno, ni siquiera él puede engañar sin saber alguien a

quien engañar, y donde afirmó que si bien una persona puede dudar de lo que piensa, jamás

habrá de hacerlo con el mismísimo acto de pensar, pues es este hecho el que le indica que

realmente existe. De allí la famosa frase cartesiana Cogito Ergo Sum… Pienso, Luego Existo.

Preste atención y compárese con el siguiente Experimento del Cerebro en una Cubeta.

Imagínese ahora que un cerebro humano ha sido introducido en una cubeta rodeada de cierta

substancia que le proporciona nutrientes y lo mantiene vivo. Un experimentalista y científico

loco le ha conectado al citado cerebro, sensores electrónicos que unen sus neuronas a una

supercomputadora, este aparato le inyecta impulsos que le hacen creer cualquier estado que le

plazca, como en un escenario de realidad virtual, donde ningún estímulo procede realmente del

mundo exterior, contrariamente, todo es ficticio e inmaterial.

Le induce entonces a creer que está corriendo, manejando un auto o simplemente trabajando.

El objetivo de este científico loco consiste en estudiar el origen del conocimiento y sus

significados, en función de ello induce al cerebro realidades y verdades escenificadas a su gusto,

tal como en la famosa película de ciencia ficción Matrix. El científico desea comprobar si lo que

plantea René Descartes en su Discurso del Método y sus Meditaciones Metafísicas de la

existencia de un genio maligno es realmente cierta. Pues de serlo, sus propios conocimientos

científicos estarían en entredicho, lo que le impulsa a conocer entonces ¿quién ha introducido

tales conocimientos en su mente?, esta respuesta le llevará a saber para quien realmente trabaja.

En otras palabras, desea conocer a su jefe y deslindarse de tal genio maligno.

Para Glannon (2011), en el capítulo 1 de su obra denominado <<Our Brain Are Not Us --

Nuestro Cerebro no es Nuestro>> sostiene que este experimento se basa en la teoría funcionalista

computacional de la mente. Afirma: la mente emerge desde el nivel más alto de las funciones

cerebrales con el fin de promover la adaptabilidad y supervivencia del organismo, (p. 11). Así

mismo prosigue…los estados mentales pueden ser explicados por entero en términos de su rol

funcional o, en términos de su relación causal con otros estados mentales como los estímulos

Ro

iman

Val

bu

ena:

Lo

s Ex

per

imen

tos

Men

tale

s.

Page 278: La investigación científica avanzada primera edición 2015

277

sensoriales o simples respuestas del comportamiento (p. 14). La respuesta de la teoría es que

estos estados se constituyen en realidades múltiples, donde es indiferente qué o quién sea la

fuente, o cómo esta llega. Lo que realmente importa es cómo esa fuente ejecuta las funciones

apropiadas que afectan al cerebro, induciendo conocimiento a través de sensaciones.

Esta versión del experimento de Descartes se le atribuye en un primer momento a Jonathan

Dancy, posteriormente Hilary Putnam (1926) filósofo y matemático estadounidense lo usaría

para cuestionar la hipótesis del cerebro en una cubeta269

. Putnam con este experimento riñe la

hipótesis, ya que así como afirmó Descartes, se basa en argumentos insostenibles. El autor

argumenta al menos dos motivos que hacen inviable la hipótesis. Primero, toma demasiado en

serio la posibilidad física de ejecución del experimento. Y segundo, opera inconscientemente con

una mágica teoría de referencia, una teoría en la cual ciertas representaciones mentales sugieren

cosas externas y tipos de cosas (1998, p. 15), cuando el cerebro realmente nunca ha tenido

contacto con el exterior.

Puesto que el cerebro carece de órganos sensoriales y simplemente se alimenta de ellos,

Putnam propuso lo siguiente: supóngase que todos somos cerebros en una cubeta. Que el

universo es una inmensa máquina que alimenta a todos nuestros cerebros. Conteste ahora a la

siguiente pregunta, y suponiendo cierta toda la historia: ¿Podríamos, si es que fuésemos cerebros

en una cubeta de cierta manera, decir o pensar lo que somos?

269

Dos excelentes obras de Hilary Putnam hacen referencias más precisas acerca de las cuestiones de forma y fondo que envuelven a la teoría.

Véase: Reason, Truth and History (1998). Y, Hilary Putnam, editado por: Yemima Ben Menahem. Ambos de la editorial Cambridge University Press.

Ro

iman

Val

bu

ena:

Lo

s Ex

per

imen

tos

Men

tale

s.

Page 279: La investigación científica avanzada primera edición 2015

278

10.4.- El Control Experimental.

ontrol, es un término técnico empleado en la investigación experimental. Suele usarse

para hacer referencia a las condiciones y restricciones a las que obligatoriamente debe

someterse cierto experimento. El control es un proceso que se efectúa tanto sobre las

variables independientes como sobre las extrañas. Implica la minimización de los efectos o

influencias que variables exógenas o extrañas puedan producir sobre el tratamiento aplicado. Es

decir, aquellas variables independientes que en nada se relacionan, ni mucho menos fueron

tomadas en cuenta dentro de los propósitos del estudio. No obstante, pueden llegar a afectarlo

significativamente.

La palabra control tiene varios significados, primeramente, permite establecer un punto de

comparación entre dos o más resultados en un experimento. Es empleada también en el sentido

de mantener invariantes las condiciones al momento de aplicar estímulos a las variables

experimentales. A su vez, el control es usado para minimizar posibles fuentes de errores, y es

calificado como uno de los procesos más importantes dentro de la planificación y ejecución de

experimentos. Fuentes de errores imprevistas son consecuencia de controles incorrectos. El

control asiente la manipulación de factores para hacerlos encajar dentro de los supuestos

teóricos, así como sus condiciones de observación.

Por otro lado, todo aquel concepto que permita elucidar por medio de razonamiento y práctica

matemática, y que además, pueda adquirir diferentes valores cuantitativos, u oscilaciones

susceptibles de medición, será llamado variable270

. Las variables suelen clasificarse en términos

de las relaciones existentes de unas con las otras. Aunque existen diferentes tipos de variables,

hay dos que primariamente interesan al experimentador, la variable dependiente << es la que

sufre la acción de manipulación, es decir, es aquella a que se somete a estímulos>> y la

270

Platón (428 – 347 AC), afirmaba que el conocimiento era una creencia verdadera y justificada. Sólo puede conocerse lo que no cambia.

Cualquier fenómeno que cambie (Variable) ha de ser estudiado.

C

La Investigación Experimental por el cual Ampere estableció la Ley de la Acción Mecánica entre Corrientes Eléctricas es uno de los logros más brillantes de la ciencia. Toda la teoría y el experimento, parecen haber saltado, adulta, armada y completa, desde el cerebro de “Newton". Es perfecta en su forma, e inexpugnable en su precisión, y se resume en una fórmula en la que todos los fenómenos pueden ser deducidos, y que siempre debe seguir siendo la fórmula cardinal de la Electro-Dinámica…

James Clerk Maxwell…

Page 280: La investigación científica avanzada primera edición 2015

279

independiente << la que se mide, o sobre la cual recaen los efectos observables>>. Si los efectos

que sobre una variable se producen son consecuencia271

inequívoca de otra, esta será

denominada variable dependiente. Y la otra variable que la antecedió, dicho de otra manera, a la

que pueden atribuírseles sus efectos o denominados orígenes causales, será llamada variable

independiente.

Con el Método Experimental, el científico persigue deducir consecuencias de la manipulación

de la variable independiente y observar sus efectos sobre la dependiente bajo situaciones

estrictamente controladas. Es esta relación la que se busca explicar con la experimentación. En lo

tocante al control sobre las variables, este es usado en el aseguramiento de que los resultados de

un estudio, sean consecuencia directa de la manipulación de la variable independiente,

eliminando todo vestigio o mera sospecha de que pueda originarse en otra fuente. Aunque no

necesariamente el control deba ser utilizado para inhibir el efecto de variables exógenas, en

ocasiones se utiliza para recomponer grupos experimentales, en estos casos, este tipo de

variables arroja información importante sobre cómo conducir un estudio experimental futuro.

A simple vista un estudio experimental pareciese ser sencillo, esto realmente no es cierto.

Dentro de los diseños experimentales hay dos componentes irreductible que deben considerarse:

la causación y una teoría para inferir causalidad. A continuación se examinan estos dos

elementos. Se entiende por causación a la relación entre eventos particulares; algo pasa y hace

que algo más pase. Cada causa es un particular evento, así como lo es cada efecto. Un evento A

puede tener más de una causa, ninguna de las cuales por sí sola es suficiente para producir A. Un

evento A también puede ser sobredeterminado272

, implicando la existencia de un conjunto de

causas suficientes para que A ocurra.

Es así entonces como la causación se convierte en un efecto transitivo, irreflexivo y

asimétrico. Lo anteriormente expuesto se entiende mejor bajo la siguiente analogía273

:

i) Si A es causa de B y B es causa de C, entonces A es causa de C.

ii) Un evento A no puede causarse por sí solo

iii) Si A es una causa de B, entonces B no es causa de A

271

La consecuencia es una proposición condicional o una proposición hipotética compuesta por lo menos por dos enunciados unidos

condicionalmente, de tal manera que se la declara verdadera cuando el antecedente implica el consecuente, esto es, cuando del antecedente

puede deducirse el consecuente. Ferrater Mora (2000). Véase. 272

Término empleado en filosofía y psicología para designar, según las modalidades propias de cada objeto, una pluralidad de determinaciones

que generan un efecto dado. Efecto mediante el cual el subconsciente sobre interpreta algo. En investigación experimental debe evitarse pues puede llevar al científico a sobredimensionar los alcances de su trabajo, tornándolo a todas luces erróneo. Al momento de intentar refutar una investigación experimental se busca si se dimensionaron correctamente los supuestos causales y su consistencia matemática en relación con la validez interna entre otros. 273

Aparece en: Spirtes, Glymour y Scheines (2000). Causation, Prediction and Search. P. 20. Este a su vez es originario del Organon Aristotélico.

Ro

iman

Val

bu

ena:

El C

on

tro

l Exp

erim

enta

l.

Page 281: La investigación científica avanzada primera edición 2015

280

A este conjunto de relaciones se le conoce como causaciones directas e indirectas. Según

Spirtes et, al, la distinción entre causas directas e indirectas es proporcional al conjunto de sus

eventos. Si C es el evento de encender un fósforo, y A es el evento que coincide con la captura

del fuego, y ningún otro evento es considerado, entonces C es causa directa de A. De otra manera

si se añade B, como que el azufre en la punta del fósforo logra suficiente calor como para

combinarse con el oxígeno, entonces, mal podría inferirse que C es directamente causado por A.

Sin embargo, si se plantease que C es directamente causado por B, y B directamente causado por

A, podría inferirse que B es causal Intermediaria entre C y A, sólo si C causa B y causa A.

Una teoría para inferir causación ha de hacerse corresponder con los postulados del método

axiomático, y se concibe al tomar en cuenta que un evento transitivo puede ser asociado a la

estadística. En toda relación causa – efecto, la primera antecede temporalmente a la segunda. No

puede darse primero el efecto y luego la causa, siempre ha de evidenciarse la relación entre el

tiempo y la explicación causal. Según Aristóteles274

, la causa y el efecto podrán existir al mismo

tiempo y podrán demostrase el uno por el otro. Para Pearl275

(2000, p. 57), en el discurso

humano una explicación causal debe satisfacer al menos dos expectativas; una temporal y una

estadística. El aspecto temporal viene representado porque la causa ha de preceder a su efecto.

El aspecto estadístico se conforma a través de una completa explicación causal, incrustada

dentro de una teoría de causalidad, de manera que pueda visualizarse un escenario probabilístico

con todos sus posibles efectos. Toda explicación que no muestre sus efectos será denominada

incompleta, y las dependencias residuales serán supuestas como espurias276

o no explicadas. El

conflicto de la coexistencia de estas dos expectativas a través de siglos de observaciones

científicas, ha derivado en que todo fenómeno natural ha de mostrar alguna tendencia temporal

básica. Es allí donde se hace necesaria una teoría que permita inferir causación.

Para Rubin y Babbie (2013, p. 182), antes de llegar a inferir que la variable independiente es

realmente la única causante de los cambios en la variable dependiente, debe estudiarse qué

cambio se sobreviene primero. Pues, no tiene sentido el siquiera imaginar que algo haya sido

causado por algo más y que suceda después, dicho de otra manera, primero se observe el efecto y

274

El Organon. Tratados de Lógica. Sección Cuarta: Capítulo 16, numeral 2. Véase. 275

Pearl, Judea. Causality: Models, Reasoning and Inference. 276

Este término se utiliza sobre todo aquello que en apariencias parece ser pero no lo es. En estadística, una correlación espuria es aquella en

la cual dos acontecimientos carecen de toda conexión lógica y se evidencia la omisión de un tercer factor no tomado en cuenta. Es posible la detección de una relación espuria a simple vista considerando violación de la siguiente secuencia lógica: a) Todo evento “x” debe preceder al evento “y”: b) Si “y” no ocurre entonces “x” nunca ocurrió: c) “y” debe ocurrir cada vez que ocurra “x”. Existe y puede darse también el caso de una Correlación Parcial. Es decir, se conoce como correlación parcial entre dos variables a aquella, cuyo coeficiente de correlación depende de una tercera no tomada en cuenta en las consecuencias relacionales lineales. La correlación parcial “X”; “Y” dado “Z”, sirve para identificar en qué escala de medida de la variación lineal entre “X” y “Y”, puede deberse a la correlación de ambas con “Z”. Es bueno recalcar que cuando “X” y “Y” no están correlacionadas con “Z”, se obtendrá un coeficiente de correlación igual al coeficiente de correlación parcial. Evidenciándose que el valor de la correlación, atribuible y medible en la escala, no se debe en este caso, a la presencia de “Z”. Tomado de: Dodge, Yadolah (2008). The Consice Encyclopedia of Statistic. Editorial Springer. Concepto de: Partial Correlation, Véase.

Ro

iman

Val

bu

ena:

El C

on

tro

l Exp

erim

enta

l.

Page 282: La investigación científica avanzada primera edición 2015

281

posteriormente se dé la causa. En función de ello, el Primer Criterio para Inferir Causalidad es:

Toda Causa ha de Preceder a su Efecto en el Tiempo. El Segundo Criterio para Inferir

Causalidad: Las dos variables deben covariar la una con la otra.

Aquí carece de todo sentido el que un estímulo pequeño sobre una variable, provoque una

gran reacción sobre la otra. Manifestándose a todas luces, una variación irregular entre ambas. El

tercer requerimiento exige: La covariación entre dos variables no puede ser explicada como

resultado de la influencia de una tercera variable que cause efectos sobre ambas. En ese caso ha

de optarse por una teoría para inferir Multi Causalidades. Hay al menos 2 maneras de controlar la

intervención de variables externas usando técnicas estadísticas: el uso de la Aleatoriedad; y el

Método de Control Estadístico.

10.5.- Aleatorización Experimental

La aleatorización, desde el punto de vista estadístico, consiste en un proceso de selección de

unidades pertenecientes a un conjunto, donde cada elemento particular presenta la misma

probabilidad de ser seleccionado. El diccionario Oxford define ―Aleatorio‖ como algo sin

propósitos o fines específicos, además, carente de una dirección concreta o particular. Todo

proceso de aleatoriedad implica la inexistencia de determinado orden. Sin embargo, se le

considera predecible bajo la forma de Esperanza Matemática.

Desde el punto de vista de la Investigación Experimental, a las unidades experimentales se les

asignan números aleatorios de manera que se asegure su probabilidad de selección, y donde

ninguna ha de quedar exenta. La aleatoriedad permite agregar credibilidad y validez a los

resultados de determinado estudio. Alférez (2012, pp. 1-5), explica: la aleatorización aplicada

sobre experimentos comparativos es considerada como la Regla de Oro para lograr

satisfactorias inferencias causales a partir de un pool de datos estadísticos. La asignación

aleatorizada de sujetos hacia las condiciones de tratamiento, asegura que los factores

manipulados en un experimento son independientes de aquellas causas inobservables originadas

por variables exógenas, al menos dentro de los límites de la probabilidad.

La aleatoriedad puede ser modelada por la teoría de la probabilidad, el azar simplemente

proviene de lo fortuito. Mario Bunge (2004), al igual que muchos otros autores afirma que

aleatoriedad es sinónimo se casualidad. Sin embargo, muchas discrepancias se han presentado

en la diferenciación entre Aleatorio y al Azar, para ello habría que adentrarse en el estudio del

Ro

iman

Val

bu

ena:

El C

on

tro

l Exp

erim

enta

l.

Page 283: La investigación científica avanzada primera edición 2015

282

Determinismo277

e Indeterminismo, no obstante, se deja eso al lector. Superficialmente, el

proceso de aleatoriedad cumple con los postulados de la teoría de la probabilidad y persigue

eliminar las casualidades. El proceso de aleatoriedad se basa en la selección de números

aleatorios, según Alférez (2012, p. 139), en sentido estricto, un número aleatorio consiste en un

número generado por un mecanismo no causal o estocástico.

Para generar una secuencia de números aleatorios es necesario partir de determinada fórmula

aleatoria o una tabla de números aleatorios, allí se crea una semilla278

, la cual consiste en un

valor que inicia la secuencia aleatoria279

. La aleatoriedad ha de ser aplicada sobre la población

a estudiar con el objeto de extraer una muestra representativa al conjunto. Un experimento será

aleatorio cuando al repetirlo en las mismas circunstancias, y considerándose las mismas

condiciones iniciales, el resultado resulta diferente para cada una, tornándolo impredecible. Sepa

diferenciar entre lo anterior y la aleatoriedad sobre los diseños experimentales, a todas luces no

son lo mismo. La aleatoriedad evita la repetición o formación de patrones.

Con respecto al azar, si bien se le asocia a la teoría de casualidad, recae sobre un fenómeno

que no tiene origen, es decir, producido por lo accidental. En el azar no son necesarios los

algoritmos ni las secuencias numéricas. Contrariamente, en la investigación experimental se

persigue establecer causación cierta a través de inferencias válidas y conclusiones correctas, en

la investigación científica una conclusión se corresponde con una verdad, no con un hecho. La

aleatoriedad sólo es posible gracias a que el azar interviene, dicho de otra manera, son términos

que se complementan, pero no son iguales. Es así como, y según Aristóteles…

No hay ciencia por demostración para lo que depende del azar; porque lo que sólo

depende del azar no puede ser considerado, ni como necesario, ni como si acaeciera

habitualmente. Lejos de esto, el azar es precisamente de un modo contrario a lo uno y

a lo otro. El Organon (p. 215). Véase.

La aleatorización suele usarse en diseños donde se compara cierta cantidad de grupos, plantea

esencialmente que tanto las variables extrañas como las conocidas, afectarán de manera

homogénea a todos los sujetos de la población. Distribuyéndose similarmente en los grupos a

comparar.

277

El determinismo y el indeterminismo son concepciones filosóficas contradictorias y relativas al lugar que ocupa, y al papel que desempeña

la causalidad. Se da el nombre de determinismo a la teoría en la cual se afirma la condicionalidad causal y universal de todos los fenómenos. Los deterministas afirman que todos los acontecimientos del universo están sometidos al principio de causalidad universal. Los indeterministas niegan tal posibilidad, o teoría de que exista una ley de causación universal que rija todos los fenómenos. Contrariamente, aducen que las causas y efectos son meramente actos libres e independientes de cada cosa. 278

El software de procesamiento estadístico de datos SPSS Versión 15 así lo denomina. 279

El SPSS Versión 15 utiliza un generador de números aleatorios denominado Tornado de Mersene. Creado por Matsumoto y Nishimura

(1998). Este algoritmo es capaz de generar [ ] valores antes de que al menos uno se repita. Su artículo MT19937, contiene una rutina mejorada y publicada en 2002.

Ro

iman

Val

bu

ena:

El C

on

tro

l Exp

erim

enta

l.

Page 284: La investigación científica avanzada primera edición 2015

283

10.5.1- El Método de Control Estadístico

Consiste en una técnica de control indirecto y sirve como ajuste asociado al diseño. El método

de control estadístico se avoca sobre el proceso de medición sistemática de las variables

exógenas tendente a ajustar, no eliminar sus efectos, haciendo uso adecuado de ciertos análisis

estadísticos. En el diseño es posible el empleo de la asociación estadística, implica covarianza o

correlación entre variables. Cuando se demuestra asociación de algún tipo entre dos o más

variables, es indicativo de alguna clase de tendencia o patrón entre los distintos valores que estas

variables presentan, de manera que su análisis se hace necesario en función de observar, de qué

manera esta asociación afecta los resultados del experimento.

Los efectos de la asociación estadística entre variables se muestra bajo diversas formas: como

en el caso de los estadísticos de correlación, su asociación puede ser débil, moderada o fuerte. El

concepto de asociación estadística aunque resulta fundamental como técnica de control, implica

un conocimiento de estadística avanzada por parte del experimentalista. Hanneman, Kposowa y

Riddle (2013), aportan lo siguiente;

Dos variables estarán estadísticamente asociadas si la distribución de Y,

condicionada a la distribución de X, difiere de la distribución de Y no condicionada a

la distribución de X. En otras palabras, la distribución de Y no está condicionada

sobre X, es decir, son sólo las frecuencias relativas de la variable Y. La distribución

de Y condicionada sobre X, consiste en las frecuencias relativas de Y, calculadas

separadamente para cada puntuación. (P. 373).

Se axiomatiza así: si las puntuaciones de una variable Y difiere con dependencia de las

puntuaciones de otra variable X, entonces ambas variables están asociadas. Bajo ningún

concepto puede llegar a inferirse que las dos variables están causalmente correlacionadas por el

simple hecho de haber demostrado asociación, pues este estadístico está en la imposibilidad de

probar los supuestos contenidos en las leyes de causalidad. Aunque es posible usarlo como

evidencia en una relación causal no derivando en contradicción.

El resultado del test de asociación estadística por sí mismo no se constituye en elemento que

sustancie suficientemente un juicio conclusivo sobre la existencia inequívoca de una relación

causal, sólo se limita a mostrar evidencias. Los autores argumentan que lo opuesto a la

asociación estadística sería la Independencia Estadística, indican que no hay tendencia cierta que

las puntuaciones sobre X vayan con particulares puntuaciones de Y, las distribuciones

condicionales de Y, al conocerse X, no difieren para ningún rango de distribución de X; y al

conocerse X, no reduce el error o la incertidumbre en la predicción de Y.

Ro

iman

Val

bu

ena:

El C

on

tro

l Exp

erim

enta

l.

Page 285: La investigación científica avanzada primera edición 2015

284

A diferencia de la prueba de Independencia estadística, cuando dos variables están asociadas

es posible predecir las puntuaciones de una en función de la otra Para concluir, el método de

control estadístico, aunque consiste en una herramienta de control poderosa, implica la añadidura

de procedimientos extras al diseño experimental, úsese en caso de que el experimentalista posea

las destrezas suficientes como para manejar los datos que allí consiga.

10.6.- Los 5 Cánones de Jhon Stuart Mill280

Este autor (1806 – 1873), siempre fue defensor activo de la metodología inductiva, centrado

especialmente en el descubrimiento de leyes. Siempre argumentó…los más simples y obvios

métodos de singularización entre las circunstancias que anteceden o suceden a un fenómeno,

son aquellas en las cuales tal fenómeno es conectado por leyes invariantes, éstas,

numéricamente son dos:

La primera, comparando diferentes instancias en las cuales el fenómeno ocurre. La otra es, a

través de la comparación de instancias en las cuales el fenómeno ocurra con otras instancias

similares pero donde el fenómeno no ocurra. Estos dos métodos son respectivamente

denominados: el Método de la Concordancia y el Método de la Diferencia. El primero puede ser

fácilmente comprobable a través del segundo, y sus usos son muy comunes en investigaciones

experimentales. Los otros 3 Métodos corresponden al Método Conjunto Concordancia –

Diferencia, el Método de los Residuos y el Método de las variaciones Concomitantes. A

continuación se explican.

10.6.1- Método de la Concordancia

Stuart Mill, (1858) bajo el Canon I: Método de la Concordancia, afirma: si dos o más casos de

un fenómeno bajo investigación tienen sólo una circunstancia en común, la circunstancia en la

que convergen todos los casos es la causa (o efecto) del fenómeno dado, (p. 224). Es así como,

este método consiste en la búsqueda de una condición antecedente y común para todos los casos

de los efectos cuya causa se intenta determinar. En el método de la concordancia el investigador

se ve forzado a concatenar eventos que converjan circunstancialmente, pero que diverjan en los

demás aspectos. El procedimiento se basa en la búsqueda de factores liados a ciertos sucesos,

280

John Stuart Mill, filósofo inglés del siglo XIX, hizo significantes aportes a la investigación experimental bajo los principios de la lógica

inductiva. Como esquema general intentaba establecer nexos causales en donde una misma circunstancia estaba presente en todos los casos estudiados. Sus detalles pueden leerse en su obra: A System of Logic: Ratiocinative and Inductive. (1858).

Ro

iman

Val

bu

ena:

El C

on

tro

l Exp

erim

enta

l.

Page 286: La investigación científica avanzada primera edición 2015

285

pero que se diferencian en la presencia o ausencia del fenómeno que se desea estudiar.

A continuación se presenta un ejemplo del Método de la Concordancia, las letras mayúsculas

representan a los agentes causales, y las minúsculas son los efectos a esas causas, se denotará de

la misma manera para todos los subsiguientes modelos. Ejemplo 1: si se puede producir ―A‖ en

una variedad de circunstancias, tal que, cuando se presenten diferentes casos no existan

circunstancias en común excepto ―A‖; entonces, cualquier efecto derivado de alguna prueba

pareciese poder atribuírsele a ―A‖, puesto que se constituye en el factor común de todos los

eventos. Cuando la circunstancia se presenta en algunos casos y en otros no, mal podría

atribuírsele determinados agentes causales.

En este método, el investigador presupone una cierta cantidad de condiciones como posibles

agentes causales, y sólo es necesario indagar sobre aquella causa considerada como condición

necesaria. En el proceso, es menester aislar cada factor y someterlos a análisis uno a la vez. El

método de la concordancia, desde Mill hasta ahora, ha demostrado ser un principio

verdaderamente incuestionable, siendo promotor de grandes avances científicos mediante la

producción de hipótesis bastante aceptables. Y las cuales han dado pie a investigaciones futuras

con resultados verdaderamente concluyentes.

A continuación el ejemplo 2:

Un agricultor encuentra que en su parcela, en todos los lugares bajos, las plantas de

maíz se marchitan. Si la semilla del maíz pertenece a un mismo lote y el terreno fue

trabajado uniformemente, el agricultor puede suponer que el efecto

(marchitamiento), se debe a las mismas causas que es la diferencia del nivel del

terreno. Espíndola (2005, p. 107).

Ejemplo 3:

Cinco de siete estudiantes presentan señales visibles de una alergia severa en varias partes de

sus cuerpos luego de pasar horas de estudio en la biblioteca de su universidad. Sin embargo, dos

de ellos carecen en su totalidad de cualquier sintomatología asociada y afirman estar en perfectas

condiciones. Luego de una indagación profunda, se encuentra que si bien los 7 estudiantes

compartieron el mismo espacio, estudiaban materias diferentes y en mesas apartes. Marta, María,

Pablo, Julio y Rosa, leían obras originales de William Shakespeare. Mientras Miguel y Dayana,

estudiaban las aplicaciones de un nuevo software computacional a los problemas en

matemáticas.

Julio maneja la hipótesis de que presentaron reacciones alérgicas luego que Miguel abriese un

tarro que contenía una extraña substancia química con alta probabilidad de ser tóxico y que

Ro

iman

Val

bu

ena:

El C

on

tro

l Exp

erim

enta

l.

Page 287: La investigación científica avanzada primera edición 2015

286

emanaba un fuerte olor. Pablo y Rosa argumentan que pudieron haberse enfermado luego de

haber ingerido todos café con un sabor infrecuente. María conjetura que pudo deberse al uso de

material bibliográfico que data de hace 150 años, al menos por parte de los afectados. A

continuación se presenta un cuadro descriptivo de las relaciones entre los afectados y no

afectados contra los agentes causales:

Cuadro de Concordancia entre Factores

Estudiante Agente Causal 1:

Substancia

Química

Agente Causal 2:

Café

Agente Causal 3:

Libros Antiguos Alergia

Marta Expuesta Expuesta Expuesta Si

María Expuesta Expuesta Expuesta Si

Pablo Expuesto Expuesto Expuesto Si

Julio Expuesto Expuesto Expuesto Si

Rosa Expuesta Expuesta Expuesta Si

Miguel Expuesto Expuesto No Expuesto No

Dayana Expuesta Expuesta No Expuesta No

Del cuadro de concordancia entre factores es posible extraer las siguientes conclusiones:

todos los estudiantes estuvieron expuestos a la substancia química, sin embargo, Miguel y

Dayana no contrajeron la alergia, por lo que se descarta como agente causal. Con respecto al

café, todos lo consumieron, pero se repite el patrón anterior, quedando los mismos dos

estudiantes fuera de los efectos alérgicos, aquí se descarta también como agente causal. Por

último, todos los expuestos a los libros antiguos contrajeron la alergia, mientras que los restantes,

salieron ilesos.

Por lo que es posible concluir, de los siete estudiantes en la biblioteca, sólo contrajeron la

alergia aquellos en contacto directo con los libros antiguos, pudiendo atribuirle la causa a la

aspiración vía aérea de los hongos que anidan en sus hojas, que se forman luego de varios años,

asociados a la humedad del ambiente y que las tornan amarillas. El método de descubrimiento y

prueba de leyes naturales que hasta el momento se ha examinado, procede basado en el siguiente

axioma: cualquier circunstancia puede ser excluida sin perjuicio del fenómeno, o puede estar

ausente a pesar de su presencia, y no se le considera conectada con el fenómeno bajo la forma

de causación. Las circunstancias causales se suprimen de esta manera, si sólo queda una,

considérese la causa de aquello que se busca. Si queda más de una, también son o contienen

entre ellas la causa.

Ro

iman

Val

bu

ena:

El C

on

tro

l Exp

erim

enta

l.

Page 288: La investigación científica avanzada primera edición 2015

287

10.6.2- Método de la Diferencia

Bajo las consideraciones de Hurley (2008, p. 493), el objetivo del método de la diferencia

consiste en identificar una condición suficiente entre todas aquellas que están presentes en una

ocurrencia específica. En ocasiones, la ausencia de un factor puede considerarse como algo

positivo que obligatoriamente debe ser tomado en cuenta. Así mismo asiente, este método está

confinado a la investigación de sólo dos ocurrencias, y a la identificación de una causa en el

sentido de una condición suficiente. Este procedimiento se soporta sobre las bases del supuesto

de que todo aquello que sea imposible de ser eliminado ha de estar sujeto al fenómeno mediante

alguna ley.

Cualquier antecedente que no pueda ser excluido sin prevenir la aparición del fenómeno, es la

causa o una condición de este fenómeno; cualquier consecuencia que pueda ser excluida sin

ninguna otra diferencia en los antecedentes más que la ausencia de alguna en particular,

considérese el efecto de esta. En lugar de comparar diferentes instancias de un fenómeno para

descubrir en cuales converge, este método compara instancias de sus ocurrencias contra

instancias de no ocurrencia, con el fin de descubrir bajo qué situaciones difieren.

Para Mill, op. Cit, El Canon II: Método de la diferencia puede ser expresado de la siguiente

manera:

Si hay una situación en que ocurre el fenómeno en investigación, y otra situación en

que no ocurre, y se parecen en todo excepto en una circunstancia, que sólo se

presenta en la primera situación, entonces esta circunstancia, que es la única

diferencia entre las dos situaciones es el efecto, la causa, o una parte indispensable de

la causa del fenómeno mencionado. (p. 225).

Si el objeto del científico es descubrir los efectos de un agente ―A”, se debe procurar ―A”

bajo un conjunto de circunstancias comprobadas, tales como ―A-B-C”, y habiendo observado los

efectos producidos, debe comparársele entonces con los efectos de las restantes circunstancias

―B-C”, cuando ―A” está ausente. Si el conjunto de los efectos totales de ―A-B-C”, son ―a-b-c”,

y los efectos de ―B-C” son ―b-c”, se hace evidente entonces que el efecto de “A” es “a”.

Si se comienza de nuevo, deseando investigar la causa de un efecto “a”, deben seleccionarse

escenarios ―a-b-c‖ en los cuales el efecto ocurra y en donde sus antecedentes fueron ―A-B-C‖.

Debe prestarse mucha atención a otros escenarios en los cuales las restantes circunstancias ―b-c‖,

ocurran sin la intervención de ―a‖. Si los antecedentes en estos escenarios fueron ―B-C‖, se sabe

entonces que la causa de ―A‖ debe ser ―a‖, esto para ambos escenarios, estando ―A” solo o en

conjunción con alguna otra circunstancia.

Ro

iman

Val

bu

ena:

El C

on

tro

l Exp

erim

enta

l.

Page 289: La investigación científica avanzada primera edición 2015

288

Govier (2010, p. 297), presenta un ejemplo interesante de la aplicación del método de la

diferencia en un caso clínico particular, a continuación se hará un esfuerzo por encontrar un

factor “C” que está ausente en todos los casos donde “E” también lo está: supóngase por

ejemplo, que de 100 pacientes que toman un nuevo medicamento, 34 de ellos experimentaron

dolores de cabeza, mientras que los restantes 66 no. Para indagar las causas de los dolores de

cabeza usando el método de la diferencia de Mill, se hace necesario explorar la diferencia entre

los dos grupos.

Se tratará de identificar casos similares en todos los aspectos probables de ser causa relevante,

excepto uno <<aquel cuyas características representen una probable diferencia causal>>

Supóngase que todos aquellos que no presentaron dolores de cabeza, no consumieron derivados

lácteos durante la medicación. Este aspecto podría considerarse como una diferencia causal de

relevancia entre los dos grupos. En el párrafo previo se hizo mención al esfuerzo por encontrar

un factor “C” <<Dolores de Cabeza>> que está ausente en todos los casos donde

“E”<<Consumo de Productos Lácteos>> también lo está, es decir, ambos en el grupo de los que

no presentaron dolores de cabeza. Ahora, usando el método de Mill, es tentativamente posible

concluir que el consumo de derivados lácteos es una causal suficiente en la experimentación de

dolores de cabeza mientras se está en uso de tal medicación.

Govier además sostiene que, así como en el método de la concordancia, el usar el método de

la diferencia presupone que se cuenta con una relativamente corta lista de factores susceptibles a

aislamiento. Tal lista ha de cotejarse con un perfil básico de conocimientos en el área. En las

ciencias médicas, los hechos demuestran que el consumo diario de derivados lácteos, es un ítem

plausible para incluir en la lista en estos casos.

10.6.3.- Método Conjunto Concordancia – Diferencia

El método de la diferencia consiste en un proceso de verificación del método de la

concordancia, sin embargo, a ninguno se le considera infalible. El método conjunto concordancia

– diferencia, puede ser denominado como un método indirecto de diferencias, gravita en emplear

2 veces el método de la concordancia, donde cada prueba ha de ser independiente de la otra,

corroborándose. Los dos métodos previamente descritos poseen varias semejanzas, así como

también, ciertas diferencias. Ambos, son denominados métodos de eliminación.

Este término <<empleado comúnmente en teoría de ecuaciones para denotar el proceso

mediante el cual los elementos de una pregunta son excluidos, y la solución sólo depende de las

Ro

iman

Val

bu

ena:

El C

on

tro

l Exp

erim

enta

l.

Page 290: La investigación científica avanzada primera edición 2015

289

relaciones entre los restantes elementos>> es el más adecuado para expresar este tipo de

operaciones. El proceso conlleva una sucesiva exclusión de varias circunstancias, las cuales

previa corroboración, se demuestra que acompañan al fenómeno en una instancia dada, esto con

el fin de indagar cuales de ellas puedan estar ausentes consistentemente con la existencia del

fenómeno.

Por ser este un método conjunto, lleva implícito los axiomas de cada uno. El método de la

concordancia reside en que todo aquello que pueda ser eliminado no ha de estar conectado al

fenómeno bajo ninguna ley. El método de la diferencia por su lado, gravita en que cualquier

instancia que no pueda ser eliminada ha de estar conectada al fenómeno bajo alguna ley. El

canon 3, Método Conjunto Concordancia – Diferencia se presenta bajo el siguiente formato:

Si dos o más ejemplos en los que el fenómeno ocurre muestran una sola

circunstancia en común, mientras que dos o más situaciones en las que el fenómeno

no ocurre sólo comparten la ausencia de la circunstancia mencionada, entonces tal

circunstancia, la única, en que difieren los ejemplos mencionados, es el efecto, la

causa, o una parte indispensable de la causa, del fenómeno estudiado.

Por denominársele un método indirecto de diferencias, no debe jamás confundírsele con el

método de las diferencias, en función de ello Hurley Op. Cit. (p. 542) explica… el propósito del

método de la diferencia es determinar si una condición preseleccionada es la causa del

fenómeno. Esta condición preseleccionada está presente en una de las 2 ocurrencias, pero

ausente en la otra. Por otro lado, el propósito el método conjunto es determinar cuál condición,

dentro del grupo de seleccionadas, es causal directa del fenómeno. Para ello debe aplicar

eliminaciones sucesivas, en donde subyacen condiciones suficientes y condiciones necesarias.

La aplicación del método conjunto, a diferencia de cualquiera de sus predecesores, requiere

un estricto análisis Causal e Inferencial, de hecho el mismo Stuart Mill no termina de exponerlo

y argumenta: No es posible entrar a explicarlo y generar una intrincada discusión sin introducir

nuevos elementos de complejidad…(p. 229). Recomienda usarlo cuando se logre un

conocimiento profundo de las Leyes de Causación; las Composiciones de las Causas; las

diferencias entre Observación y Experimento, además de la Pluralidad de Causas y Mezcla de

sus Efectos. Se recomienda al lector remitirse en este mismo texto al apartado relativo a Los

Sistemas Físicos y la Causación, allí se exponen elementos importantes de estos temas desde

varias aristas, la Física Teórica, la Experimentación y las Leyes de Causación Universal. Así

como, se le invita también, a repasar los tipos de argumentaciones que dan origen a las

Inferencias Científicas en el Capítulo IV.

Ro

iman

Val

bu

ena:

El C

on

tro

l Exp

erim

enta

l.

Page 291: La investigación científica avanzada primera edición 2015

290

10.6.4.- Método de los Residuos

El método de los residuos permite la exploración de leyes naturales bajo observaciones

específicas y la experiencia. Este método es en extremo simple, consiste en subconducir, de

cualquier fenómeno dado, todas las porciones que en virtud de inducciones precedentes, puedan

ser asignadas como causas conocidas, el resto han de ser los efectos de los antecedentes que se

habían pasado por alto, o la evidencia que de alguna manera, tal efecto era todavía una cantidad

desconocida. Este método tiende a asegurar que el restante del efecto, es decir el residuo, es

causado por ―a”.

Preste atención al siguiente ejemplo: María desea pesar el contenido de un jarro de forma

irregular imposible de sostenerse por sí solo en una báscula sin derramarse. Procede primero a

pesarse ella misma con el jarro en sus manos, y la báscula registra un peso total de 63,7

kilogramos. Posteriormente coloca el jarro en lugar seguro y se pesa ella sola, registrando ahora

la báscula un peso total de 56,8 kilogramos. El efecto residual de los efectos de los pesos

combinados y no combinados es de 6,9 kilogramos, lo que le hace inferir que el peso residual se

corresponde con el del jarro.

El método de los Residuos aplica a los casos en los cuales un fenómeno “D” pueda ser

causado por cualquier otra condición “e”, “f” o “g”, y se desea determinar cuál condición

representa verdaderamente la causa. Es previamente conocido a través de la inducción que ni “e”

ni “f” es causa de “D”. Por lo que ha de asociársele a “g” la condición restante, y conocida

como el residuo, tal condición presenta coherencia racional y suficiente para atribuirle los

efectos causales de “D”. No obstante, tal inferencia ha de ser corroborada por observaciones

ulteriores. Bajo el Canon 4, Método del Residuo, Mill establece: Cuando se resta o sustrae de

cualquier fenómeno la parte que por inducciones previas se sabe que es el efecto de ciertos

antecedentes, el residuo del fenómeno es el efecto de los antecedentes restantes.

A continuación, Bickenbach y Davies (1997), presentan un conjunto de atenciones a tomar en

cuenta para la aplicación del Método del residuo.

De acuerdo a este método, si se sabe que en una ocasión un efecto es causado por

determinado factor identificable, entonces para otra ocasión, tanto las causas como

los efectos que ocurran en combinación con otros factores, la relación causal

conocida puede ser sustraída haciendo posible identificar las relaciones causales que

ahora se presentan en la segunda ocasión. (p. 298).

Para diversos casos, el método del residuo se asemeja más a un patrón matemático de

inferencia que a uno del tipo inductivo. No obstante, su naturaleza empírica lo hace más obvio en

Ro

iman

Val

bu

ena:

El C

on

tro

l Exp

erim

enta

l.

Page 292: La investigación científica avanzada primera edición 2015

291

casos donde las causas a descontar son diferentes de aquellas restantes y consideradas como

residuos. Analícese el siguiente ejemplo que plantean los autores:

La pimienta roja, el azúcar y el vinagre, son ingredientes de una sopa con sabor

picante y agridulce. El azúcar causa el sabor dulce de la sopa, el vinagre causa el

sabor agrio. Considerando la información aportada, se puede concluir implícitamente

bajo el método del residuo, que la pimienta roja es la causante del sabor picante en la

sopa.

En este ejemplo se aplicó la observación en combinación con los supuestos recomendados por

Mill, los cuales aportaron las razones suficientes para emitir tales juicios conclusivos.

Seguidamente, Hurley Op. Cit (p. 538) ofrece el siguiente ejemplo:

Luego de ocupar su nueva casa, el Sr. Smith encuentra una corriente de aire. Sigue la

pista a la corriente de aire y encuentra tres posibles causas: una ventana rota en el

garaje; una grieta bajo la parte frontal de la puerta; y un amortiguador roto en la

chimenea. Cuando la ventana fue reparada se hizo evidente una disminución del flujo

de aire, lo mismo ocurrió cuando hizo instalación del burlete necesario en la puerta.

El Sr. Smith concluye, que el remanente de flujo de aire es causado por el

amortiguador roto.

Hurley argumenta que en ciertos casos, el análisis pareciese proceder más de un origen

deductivo que inductivo, a lo que recomienda: si la conclusión solo depende de un proceder

matemático o computacional, el argumento se caracterizará mejor deductivamente, sino,

entonces probablemente sea inductivo. (P. 539).

10.6.5.- Método de las Variaciones Concomitantes

El método de las variaciones concomitantes281

planteado por Mill, se centra en el estudio de

las diferencias halladas durante la evolución de un fenómeno justo cuando este coincide con la

evolución de otros…bajo el Canon 5: Método de las Variaciones Concomitantes Mill establece:

Cuando un fenómeno varía de alguna manera particular, condicionado a que otro

fenómeno también lo haga…sólo hay dos inferencias posibles… o el segundo es una

causa o efecto del primero… o ambos están conectados a través de alguna ley de

causación…pues entre ellos existen variaciones concomitantes… (p. 233).

El Método de las Variaciones Concomitantes se centra en la observación de factores o

variables, que estando estrictamente ligados al experimento, varían de forma sistemática el uno

con el otro. Es decir, un efecto varía siempre que su causa también lo hace. No obstante, el

281

Concomitante; dícese de todo aquello que acompaña, escolta o colabora en el mismo sentido que otra cosa. Para el diccionario de la Real

Academia, Concomitancia: Coincidencia deliberada o casual de dos o más factores en la producción de un efecto. En aras de la simplicidad, el término Concomitancia al que hace referencia Stuart Mill, resulta aplicable a la variación sistemática de dos eventos en apariencia relacionados mediante alguna ley de causalidad.

Ro

iman

Val

bu

ena:

El C

on

tro

l Exp

erim

enta

l.

Page 293: La investigación científica avanzada primera edición 2015

292

científico ha de saber distinguir qué tipo de relación se presenta entre los eventos, este método

sólo es posible usarlo cuando el efecto varía numérica y similarmente conforme lo hace su causa,

para Srinagesh (2006, p. 50), esto no siempre sucede así. Las relaciones entre causa y efecto

tienen diversificaciones. Primeramente es necesario hacer distinción entre una causa necesaria y

una causa suficiente. Una causa es necesaria cuando cumple con todas las condiciones para

producir determinado efecto <<sólo con la fuerza de cien hombre podrá moverse esa roca>>, por

otro lado, una causa es suficiente cuando cumple con las exigencias mínimas para que tal efecto

se suceda <<bastó sólo el roce del viento para que el manzano cayese>>. Segundo, debe

distinguirse entre una causa próxima o inmediata y una causa remota. Es así como, el método de

las variaciones concomitantes se convierte en una poderosa herramienta de análisis.

Mill especifica que este canon está sub-condicionado, ya que de ninguna manera cuando dos

fenómenos se acompañan mutuamente en sus variaciones, significa que uno es el efecto y el otro

la causa. Lo mismo puede suceder, y de hecho es así, suponer que ambos se consideren efectos

diferentes de una causa común. Este método por sí solo no permite a ciencia cierta establecer

cuál de las dos suposiciones era la real y correcta. La única forma de disipar la duda, implicaría

hacer el esfuerzo por determinar si se pueden producir variaciones de una por medio de la otra.

Hughes y Lavery (2008) argumentan…al observar que las variaciones entre dos fenómenos

coinciden el uno con el otro, hay razones suficientes para creer que ambos están causalmente

correlacionados, (p. 202). Este método es bastante útil cuando se intenta diagnosticar la fuente

de variación en el tiempo sobre determinada población. Más aun cuando las variaciones pueden

ser descritas en términos de una proporción. La concomitancia entre dos fenómenos puede ser

probada haciendo uso del método de la diferencia.

Mill sostuvo que de los cinco métodos resumidos arriba, el más importante era el canon II o

Método de las Diferencias. Sin embargo, para que este método funcionara, reconoció que era

necesario que entre una observación y otra del mismo fenómeno sólo hubiese una diferencia, que

podría ser de tiempo o de espacio, pero nada más; en otras palabras, Mill parecía exigir un nivel

de identidad entre sus dos observaciones que, en sentido estricto, no puede darse en la realidad.

Pero Mill tenía clara conciencia de este problema y señaló que para el uso adecuado de su

método de las diferencias, bastaba con que en las dos observaciones se conservaran iguales sólo

las semejanzas relevantes entre ellas. Esto plantea de inmediato los criterios para juzgar de la

relevancia, que deben anteceder a la comparación entre las dos observaciones requeridas. En

otras palabras, el uso del método de las diferencias requiere de un proceso previo, de naturaleza

indefinida pero no por eso menos importante, que no forma parte de los esquemas de Mill.

Ro

iman

Val

bu

ena:

El C

on

tro

l Exp

erim

enta

l.

Page 294: La investigación científica avanzada primera edición 2015

293

Como ejemplo, en el caso del calor, a través de un aumento de temperatura un cuerpo puede

aumentar su masa… pero si inversamente se incrementase su masa, no necesariamente

aumentaría su temperatura. Por el contrario, <<como en la disminución de un cuerpo gaseoso

debido a la temperatura>> la disminuiría. Por consiguiente, considérese al calor no como un

efecto, sino como una causa del aumento de la masa. Si no se puede producir la variación, el

científico debe esforzarse en lograrla a través de ciertos intentos que raras veces resultarán

exitosos, ello con el fin de reproducirlos naturalmente en algunos casos donde las circunstancias

preexistentes sean lo suficientemente conocidas. Es absolutamente necesario, en función de

comprobar una concomitancia uniforme, que las variaciones de los efectos sean congruentes con

las variaciones de las causas.

Las mismas precauciones han de ser tomadas en cualquier otro caso de determinación de

secuencias invariables. El investigador debe hacer énfasis en la retención de cualquier

antecedente sin alteración, mientras que a otras circunstancias en particular se les requiera un set

de variaciones. En otras palabras, debe garantizarse que las inferencias causales provengan sólo

y únicamente del conjunto de variaciones concomitantes observadas y no de otra fuente.

Planteado de esta manera, el método de las variaciones concomitantes pareciese agregar otro

axioma o ley de causalidad en general, de manera que cada modificación en sus causas ha de ser

seguido por una modificación en sus efectos. A continuación y como modelo, Mill ofrece un

ejemplo relacionado a la ley de gravitación universal:

El sol causa una cierta tendencia hacia el movimiento en la tierra, aquí tenemos una

relación entre causa y efecto; la tendencia es hacia el sol, y por lo tanto, la tierra varía

en su dirección como el sol varía en relación de su posición; cabe agregar que la

tendencia varía en intensidad conforme a cierta relación numérica que relaciona la

distancia del sol con la tierra, es decir, de acuerdo a otra relación con el sol. En

consecuencia, se observa que no solo hay una invariable conexión entre el sol y la

gravitación terrestre, sino que las dos relaciones con respecto al sol, su posición con

respecto a la tierra y su distancia con respecto a ella, están invariablemente

conectadas como antecedentes, con la cantidad y dirección de gravitación sobre la

tierra. Por lo que se puede inferir; la causa de la gravitación terrestre es simplemente

el sol, pero la causa de su gravitación con respecto a cierta intensidad y dirección

dada, es la existencia del sol en una dirección y distancia específica. A esto se

denomina Variación Concomitante.

Ro

iman

Val

bu

ena:

El C

on

tro

l Exp

erim

enta

l.

Page 295: La investigación científica avanzada primera edición 2015

294

10.7.- La Validez Experimental.

a Validez se usa para designar a todo aquello que es adecuado y que de alguna u otra

manera se ajusta a las reglas. Se emplea también para expresar firmeza y exactitud en

el resultado de un proceso. Cuando se utiliza sobre la Investigación Experimental, hace

avocamiento sobre la solidez y consistencia de los resultados de determinado experimento.

Donde la puesta en práctica del manifiesto conclusivo de sus resultados, y en sentido estricto,

indica que se han desenvuelto, aclarado, dilucidado y cristalizado las relaciones causa efecto que

en un primer momento se consideraron obscuras.

La validez experimental preconiza que desde la primera etapa del proceso de

experimentación, es decir, desde la creación de las condiciones mínimas básicas y necesarias,

pasando por la eliminación de factores extraños a la situación experimental, la reproducción

artificial del fenómeno, así como el proceso de observación sistemática y la metodología de

recolección de datos junto a su procesamiento estadístico, no solo ha sido un éxito, sino que está

en condiciones de explicar exhaustivamente las relaciones causales entre las variables estudiadas

dando paso al entendimiento y la razón. En ese sentido, al entendimiento se le concibe como la

facultad de dilucidar de manera lógica y con certeza, pero ese entendimiento debe encontrar un

lugar en la razón, habiendo demostrado la esencia misma del fenómeno estudiado. He aquí el

poder del Método Científico Experimental y la importancia de la Validez.

En el proceso científico experimental son necesarias al menos dos tipos de validación, una

interna y otra externa. Mientras más alto se considere el grado de uno de los tipos de validez,

menor será el grado de la otra, en otras palabras, existe una correlación negativa y fuerte entre

ambas. Si alguien se hace la pregunta: ¿Cuál es más importante?, la respuesta es solo una, y bajo

la lógica de los principios verdaderamente concluyentes es posible afirmar… ambas lo son282

.

No obstante, Vogt; Gardner y Haeffele (2012, p. 53), sostienen que todo dependerá de la

282

Algunas de las más interesantes y clásicas discusiones sobre Métodos de Investigación siempre ha sido el de qué tipo de validez es más

importante y porqué. Para Cook y Campbell, citados en Vogt; Gardner y Haeffele (2012). La Validez Interna es la más importante. A su vez, Cronbach encontró que la validez externa es tan o más importante que la interna. Se sugiere al lector referirse al apartado de: What Methods to Use to Enhace Validity (pp. 323 y ss.) en: When to Use What Research Design (2012). En la obra de Rubin y Babbie (2012) se detallan gran cantidad de tipos de validez en la investigación científica, (P. 103 y ss.). Véase.

L

La única prueba relevante de la validez de una hipótesis es la comparación de las predicciones con la

experiencia…

Milton Friedman…

Page 296: La investigación científica avanzada primera edición 2015

295

dirección que tenga la pregunta de investigación. Ésta, muchas veces hace énfasis en la validez

externa y otras en la interna. En función de ello, es menester armarse de una artillería analítica y

proceder con sus explicaciones.

10.7.1.- La Validez Interna

Hace referencia a la probabilidad cierta de lograr inferir conclusiones correctas sobre el papel

que juega la variable independiente en el experimento. Ésta depende de muchos factores, uno de

ellos, la omisión arbitraria de datos o controles, que de presentarse, la amenazan. En ese sentido,

Berg y Latin (2004) ofrecen sus consideraciones, puesto que la variable dependiente es la que el

investigador afecta con su tratamiento, y sobre la cual recae la observación y la medición…

entonces, la Validez Interna es la medida en que las condiciones de investigación se controlan

de modo que la variable independiente produce un efecto o cambio en la variable dependiente,

(p. 174). Desafortunadamente, no existe un valor numérico, matemático o estadístico, cuya

magnitud pueda ser asociada como coeficiente de validez interna.

Por su lado, Rubin y Babbie (2013) afirman…la validez interna se refiere al nivel de

confianza que adquiere el investigador de que los resultados de su estudio describen en forma

precisa si una variables es o no causal de otra. Al igual que Berg y Latin, sostienen que como no

existe un coeficiente estadístico asociado a un nivel alto o bajo de validez interna, recomiendan

adoptar al menos 3 criterios para inferir causalidad para con ello soportar sus inferencias. La

validez interna siempre intenta abordar todas aquellas explicaciones causales que de alguna u

otra manera puedan ser eliminadas. Siempre ha de soportarse en la evidencia, pues ha de

demostrarse que la conmutación de la variable dependiente ha sido causada única y

exclusivamente por la exposición a las condiciones de tratamiento de la variable independiente, y

ningún otro tercer factor intervino.

10.7.1.1.- Amenazas a la Validez Interna

A continuación se presenta un compendio de factores aportados por: Rubin y Babbie (2013);

además de McDaniel y Gates (1998), que pueden afectar la validez interna:

i. La Historia:

Se refiere a cosas que pasan o suceden en el proceso experimental, e inducen cambios desde

Ro

iman

Val

bu

ena:

La

Val

idez

Exp

erim

enta

l.

Page 297: La investigación científica avanzada primera edición 2015

296

el inicio hasta el final del experimento. Durante el curso de la investigación, extraños eventos

pueden ocurrir y confundir a su vez los resultados. Tal confusión se sucede debido a que estos

especiales sucesos coinciden en tiempo con la manipulación de la variable independiente.

ii. La Maduración:

Contrario a la historia, la maduración implica cambios en los sujetos o unidades

experimentales que forman parte de un experimento, tales cambios no se deben al experimento

sino, a las circunstancias que hacen cambiar al sujeto a través de un prolongado curso de

experimentación. Tal situación afecta su respuesta al factor experimental, y representa una

severa amenaza a la validez interna.

iii. El Efecto de las Pruebas:

Se producen como resultado de diversos factores asociados al proceso de experimentación.

Este tiene sus efectos sobre los resultados observados, y bajo ninguna circunstancia debe

asociársele a la variable experimental. También se da cuando en el proceso se utilizan diferentes

instrumentos, uno en el pretest y otro en el postest, acción que lleva a dudar de la comparabilidad

de ambas medidas. Los efectos de las pruebas pueden generarse de dos formas: los efectos

principales y los interactivos. Los primeros son los posibles efectos de observaciones previas

sobre observaciones posteriores. Los efectos interactivos se refieren a los efectos de medidas

anteriores sobre el sujeto o unidad experimental, y que pueden de alguna manera, afectar una

medida posterior. Se le asocia a las condiciones de pre-exposición y post-medida bajo las

condiciones de tratamiento.

iv. Sesgo en la Selección:

Se sucede cuando se observan diferencias sistemáticas del grupo control contra el resto de los

grupos debido al sesgo en el proceso de selección. Es decir, el grupo experimental se comporta

diferente al resto de la población. En este caso, la comparación carece de sentido, a menos que

los grupos a comparar presenten las características mínimas y necesarias para serlo. Para

asegurar la igualdad de los grupos es necesaria la aleatorización.

v. Mortalidad:

Se muestra cuando hay pérdida de unidades experimentales durante el curso del tratamiento.

Representa un serio problema debido a la dificultad de conocer a ciencia cierta, si las unidades

perdidas habrían respondido al tratamiento experimental de la variable, en la misma medida que

Ro

iman

Val

bu

ena:

La

Val

idez

Exp

erim

enta

l.

Page 298: La investigación científica avanzada primera edición 2015

297

aquellas unidades que continuaron durante el resto del experimento. Esto compromete

gravemente la validez interna, se considera fácil de subsanar siempre y cuando no se produzca

una mortalidad diferencial entre los grupos. Es decir, las pérdidas en unos grupos es mayor que

en otros, si bien es cierto el científico puede proceder a su reemplazo, surge el problema de la

asignación aleatoria y basada en un diferencial proporcional sobre grupos que en teoría debiesen

ser iguales. Si por diversos motivos se retiran, eliminan, o pierden unidades experimentales,

entonces existe mortalidad.

vi. Regresión Estadística:

Es un término estadístico asociado a la Ley de Regresión Filial. Suele darse cuando las

unidades experimentales son asignadas a determinados grupos basada en puntajes anteriores.

Esto se hace con el fin de intentar predecir una medida bajo el sólo supuesto de conocer otra

previa. La regresión estadística es la tendencia de que una medición extrema se presente más

cerca de la media en una segunda medición. La regresión estadística también conocida como

regresión a la media, se refiere a una tendencia observada sobre sujetos con medidas extremas

que suelen moverse o acercarse a la media durante el curso del experimento. El problema de esta

oscilación alrededor de la media, nada tiene que ver con el tratamiento aplicado a la variable

experimental, sin embargo, puede ocurrir que sea interpretado como tal. Agregando a todas

luces, un serio problema a la validez interna.

vii. Ambigüedad sobre la Dirección de las Inferencias Causales:

Existe la posibilidad de inferir causalidades ambiguas sobre la relación temporal y el orden de

sucesos entre las variables. Es decir, jamás ha de producirse primero el efecto y luego la causa

<<explicación espuria>>. Toda conclusión del investigador debe direccionarse a explicar que la

variable independiente causa cambios en la dependiente y bajo los supuestos del principio de la

razón suficiente.

10.7.2.- La Validez Externa

La Validez Externa centra su atención en las posibilidades de generalización de los resultados

de un experimento científico, con énfasis en aquellas características especiales y únicas que

llevan a preguntarse si el estudio tendría los mismos resultados bajo otras condiciones. Para

Creswell (2009, p. 162 y ss.), además de Gravetter y Forzano (2012, p. 168-170), implica

Ro

iman

Val

bu

ena:

La

Val

idez

Exp

erim

enta

l.

Page 299: La investigación científica avanzada primera edición 2015

298

extender hacia otros estudios cuáles relaciones causales medidas y observadas en el experimento

pueden ser generalizadas a la población. Involucra lugares, tiempo, medidas y características.

Una amenaza a la validez externa recae sobre todo aquel elemento que limite, cercene o impida,

cualquier posibilidad de generalización. Un estudio experimental tendrá validez externa siempre

y cuando los resultados sean generalizables a otras poblaciones y se ajuste a otras circunstancias.

Creswell Op. Cit, argumenta que las amenazas a la validez externa aumentan cuando los

experimentalistas organizan un set de inferencias incorrectas obtenidas de la data de una

muestra, y las aplican sobre otras personas, o sobre eventos pasados o futuros. Se considera de

alto riesgo a este tipo de validez, cuando el investigador se atreve a generalizar más allá de los

grupos bajo experimentación, haciendo recaer inferencias sobre otros conjuntos que jamás

fueron tomados en cuenta en el estudio. Otra de las amenazas potenciales, y digna de mencionar,

es la referida a la validez de las conclusiones estadísticas. Éstas aumentan cuando el científico

extrae inferencias inexactas de la data, y cuyo factor originario procede de un inadecuado

proceso estadístico.

10.7.2.1.- Amenazas a la Validez Externa

A continuación se presenta un compendio de factores aportados por: Gravetter y Forzano

(2012); Jackson (2012); además de: Cohen, Manion y Morrison (2007): que pueden afectar la

validez externa:

i. Sesgo en la Selección

Para Gravetter y Forzano op, cit, una de las amenazas que se presentan en la validez externa

también tiene que ver con el Sesgo en la Selección que se generó en la interna. Donde se ha

comprobado que el procedimiento de selección a favor de algunos participantes afecta a otros.

Básicamente, si la muestra no ha sido obtenida de un minucioso proceso de aleatorización, y

además, no presenta características de representatividad estadística, no es ni nunca será posible

generalizar.

ii. Selección de Estudiantes

Otro factor importante se soporta sobre la Selección de Estudiantes para experimentos, si

bien es cierto, éstos son más accesible y dispuestos a someterse a experimentos y explotados

como ratas de laboratorio, al ser destinados en investigaciones sobre ciencias del

Ro

iman

Val

bu

ena:

La

Val

idez

Exp

erim

enta

l.

Page 300: La investigación científica avanzada primera edición 2015

299

comportamiento, existe suficiente evidencia acumulada que sugiere que muchas de las

características presentes en los estudiantes no son generalizables hacia los adultos. Otro factor de

importancia viene representado por el sesgo en la selección de voluntarios para los experimentos.

En muchos casos determinado diseño experimental requiere que sus unidades experimentales

sean estrictamente voluntarias.

iii. Sesgo del Voluntario

Esto crea un problema para los investigadores conocido como Sesgo del Voluntario. Allí es

posible afirmar que un voluntario no es perfectamente representativo al resto de la población. La

pregunta hacia la validez externa sería entonces: ¿Cómo generalizar resultados obtenidos con

voluntarios hacia individuos que no participaron deliberadamente en el estudio? Este sesgo posee

también una característica importante, en muchos países desarrollados los voluntarios reciben

incentivos económicos por su participación en experimentos, a medida que la tasa de desempleo

aumenta, también lo hace la cantidad de voluntarios.

iv. Generalización de Entornos de Laboratorio

Según Jackson (2012), una de las amenazas a la validez externa viene representada por la

Generalización de los Entornos de Laboratorio. Conducir un experimento en laboratorio

permite adaptarse a las mejores características que permitan maximizar el control. Sin embargo,

el exceso de control presenta potenciales desventajas en la creación de ambientes artificiales,

afectando considerablemente la generalización hacia ambientes del mundo real. Surge entonces

la pregunta: ¿Cómo generalizar en estos casos? Una respuesta obvia es a través de la replicación

del experimento en función de demostrar que sus resultados son confiables. Para ello son

necesarias 3 tipos de replicaciones: las exactas; las conceptuales y las sistemáticas.

v. Las Replicaciones Exactas

Consisten en repetir el estudio exactamente de la misma manera. Implica repetir el estudio

usando los mismos medios, procesos de manipulación y medidas que se aplicaron a las variables

en el experimento original.

vi. Las Replicaciones Conceptuales

Es una prueba que consiste en probar los mismos conceptos por diferentes vías. Es un estudio

basado en otro estudio, pero usando diferentes métodos, una manipulación diferente e incluso

diferentes medidas. En todo caso, la prueba replicatoria ha de arrojar los mismos resultados que

el experimento original para poder establecer generalización.

Ro

iman

Val

bu

ena:

La

Val

idez

Exp

erim

enta

l.

Page 301: La investigación científica avanzada primera edición 2015

300

vii. Las Replicaciones Sistemáticas

Esta prueba se usa para cambiar un parámetro a la vez y con ello observar sus efectos. En este

caso es un estudio que varía del original, pero de una manera sistemática. Pueden utilizarse

diferentes números o tipos de sujetos, diferentes ajustes o más niveles de la variable

independiente. Cohen, Manion y Morrison, (op. Cit. P. 156) Presentan cierto número de factores

adaptados de otros autores (Campbell y Stanley; 1963 – Bratch y Glass; 1968 – Hammersley y

Atkinson; 1983 – Vulliany 1990 y Lewis Beck 1993), que pueden afectar severamente la validez

externa de un experimento.

viii. Fallas en la Descripción Explícita de la Variable Independiente

A menos que la variable independiente haya sido explícitamente descrita por el investigador,

cualquier replicación futura <<sobre todo la replicación conceptual>> de las condiciones

experimentales resultará virtualmente imposible.

ix. El Efecto Hawthorne

Investigaciones médicas han reconocido después de mucho tiempo, que los efectos

sicológicos aumentan por la sola participación en experimentos. Se produce como una forma de

reactividad sicológica en la cual las unidades experimentales muestran cambios en su conducta

por el simple hecho de saber que están siendo estudiados. Tal condición obedece a una respuesta

meramente sicológica y no tiene nada que ver con los tratamientos aplicados. Este efecto tiende a

contaminar los resultados experimentales. Los placebos y los diseños doble ciego son

comúnmente empleados para contrarrestar este efecto.

x. La Inadecuada Operacionalización de las Variables Dependientes

Las variables dependientes que el experimentador operacionalice, han de ser validadas en la

etapa no experimental, es decir, en la etapa conceptual no sometida a las reacciones causa –

efecto, y sobre las cuales desee generalizar sus resultados. No es posible generalizar resultados

sobre una dimensión o indicador que no haya sido previamente contemplada en la

operacionalización.

xi. Efectos Interactivos de Factores Extraños Vs. Tratamientos Experimentales

Todas las amenazas a la validez externa previamente nombradas, representan la interacción

de varios clusters de factores y sus respectivos tratamientos. Estos efectos interactivos tienden a

Ro

iman

Val

bu

ena:

La

Val

idez

Exp

erim

enta

l.

Page 302: La investigación científica avanzada primera edición 2015

301

incrementarse como resultado de cualquiera, o todos los factores anteriormente descritos, e

incluso otros. Por lo que el experimentador debe prestar gran atención, tanto de las condiciones

experimentales, como de la descripción de cada factor que concurra con su proceso.

Ro

iman

Val

bu

ena:

La

Val

idez

Exp

erim

enta

l.

Page 303: La investigación científica avanzada primera edición 2015

302

10.8.- El Diseño de Experimentos.

e concibe como Diseño de una Investigación Experimental, a una fórmula, plan o

estrategia sistemática guiada por un propósito razonado. Todo diseño de determinado

estudio experimental se direcciona a explicar relaciones entre variables, en función de

ello implica entradas con factores controlados y no controlados, que posterior a un proceso,

proporcionan una salida. Esta se corresponde a una explicación causal previamente planificada

bajo la forma de objetivos cognoscitivos. El Diseño Experimental generalmente produce los más

fuertes, lógicos y válidos resultados que pueda concebir la mente del científico. Todo Diseño en

Investigación Experimental configura un modelo que persigue una meta con un propósito en

mente, los diseños no son únicos, existen varios tipos.

10.8.1.- Tipos de Diseños en Investigación Experimental

El tipo de diseño de investigación experimental se corresponde tanto con la forma bajo la cual

el fenómeno se presenta, forma que da origen al problema a indagar, como con los objetivos que

para ello se plantee el investigador. Según Salkind (1999), los tipos de métodos de investigación

difieren en dos dimensiones: la naturaleza de la pregunta que se hace y el método empleado

para contestarla, (p. 10). Existe gran variedad de planes o estrategias que el investigador puede

adoptar en su actividad, a continuación se enumeran y explican algunas.

10.8.2.- Diseños Experimentales Verdaderos e Investigación Cuasi Experimental

Para Salkind op, cit. Los verdaderos diseños experimentales incluyen todos los pasos de

selección y asignación de sujetos de manera aleatoria, más un grupo de control, esto proporciona

argumentos más fuertes para inferir de forma más precisa, las relaciones causa-efecto a que se

diesen lugar. Mientras, en la investigación cuasi experimental, no es posible aplicar la

aleatoriedad en sus diseños, y el grupo control es imposible o demasiado costoso, por lo que

S

Un propósito… una intención o un diseño… pueden golpear en cualquier parte al más estúpido

pensador…

David Hume…

Page 304: La investigación científica avanzada primera edición 2015

303

habrán de usarse grupos de control equivalentes. Esta conjunción de elementos hace que el

establecimiento de las relaciones causales no sea tan convincente como la de los experimentales.

Aunque se aplican parte de los procesos de la experimentación verdadera, el diseño cuasi

experimental carece de control.

Jackson (2012, p. 342-343) argumenta, al diseño cuasi experimental puede razonársele como

un punto intermedio entre un estudio relacional y un diseño experimental verdadero, y si bien

arroja relaciones efectivas entre variables, sus conclusiones nunca llegan a ser tan verídicas y

fuertes. El término cuasi significa que tiene algunas pero no todas sus características. Este diseño

orienta su intervención hacia el manejar ensamblando, todos los pasos de un experimento. Sin

embargo, dista mucho de serlo. Su principal diferencia reside en que no existen grupos de control

o comparación, pero si se prueban hipótesis. Se le conoce como experimentación sin

aleatorización.

En lo tocante a la inferencia sobre las hipótesis, se aduce, además de otras razones, que podría

presentarse el caso donde la cantidad de hipótesis explicativas que puedan rivalizar contra la

planteada por el investigador sea considerablemente alta. Dentro de tal contexto, subyace el

hecho de no poder aislar los efectos que terceras variables ejercen sobre la independiente.

Haciendo que su Potencia Inferencial decaiga grandemente en comparación a un experimento

puro. Los diseños experimentales verdaderos son aquellos que a través de determinados

protocolos operacionales, llegan a cristalizar todos los requisitos que le permitan ejercer un

control suficiente sobre las variables, sin afectar con ello la validez interna. En este tipo de

diseño se manipula premeditada y deliberadamente, la variable independiente, midiendo así, los

efectos sobre la dependiente.

10.8.3.- Diseños Ex - Post – Facto

Ex Post Facto, es una expresión que significa: Algo que Ocurre Posterior al Hecho, suele

denominársele también investigación Causal - Comparativa. Considérese investigación Ex Post

Facto, a cualquier investigación cuyo punto de partida implique el uso de data preexistente.

Omitiendo el proceso de recopilación de datos nuevos. En ella se hace el estudio de la variable

de manera retrospectiva. Su objetivo consiste en partir desde un consecuente y encontrar su

antecedente, se convierte entonces en una indagación del tipo exploratoria, pues sus

características así lo evidencian, lo conocido sobre el hecho es tan ínfimo que no es posible

Ro

iman

Val

bu

ena:

El D

iseñ

o d

e Ex

per

imen

tos.

Page 305: La investigación científica avanzada primera edición 2015

304

establecer conjeturas, suposiciones, ideas y mucho menos teorías explicativas.

El investigador persigue establecer causalidad, y puesto que no se le es posible manipular la

variable independiente, se hace de evidencias suficientes como para conducir posteriormente un

estudio experimental puro para con ello probar sus hipótesis. La investigación Ex Post-Facto, es

un tipo de diseño de investigación donde se intenta probar hipótesis y establecer causación a

través de evidencias de hechos observados en el presente (efectos), pero que deviene su origen

del pasado (causas)283

. En las investigaciones ex post facto se hace análisis de la data posterior a

la ocurrencia del hecho, es decir, la acción pretérita ya se ha sobrevenido, y posterior a la

cristalización de evidencias es posible el establecimiento, por medio de razonamiento, de los

primeros axiomas que darán origen a una teoría causal.

Conlleva una serie de procedimientos que involucran el remontar al presente la mayor

cantidad de evidencias, pues, la data ha de estar disponible, haciéndose imposible su generación

por medio de un experimento puro. Su principal diferencia contra este último consiste en que en

los diseños ex post facto, el investigador hace observancia de los efectos y emprende la búsqueda

de sus causas con el fin de explicarlo. Contrariamente, en los experimentos puros el investigador,

planificada y deliberadamente crea las causas, observa sus efectos, establece conjeturas e incluso

diseña modelos predictivos.

La investigación ex post facto implica que no se ha producido deliberadamente ningún tipo de

estímulo, manipulación ni medida, previa ocurrencia del hecho. El investigador hace observancia

primeramente sobre los efectos (variable dependiente) separándolo en menudas partes y

haciéndose de un pool de hipótesis que irá descartando a medida tanto que la evidencia se haga

insuficiente para sostener algunas, como a medida que se haga suficientemente convincente

como para probar otras. Encontrando en el proceso, las causas y relaciones que le permitan una

inferencia correcta. La investigación ex post facto toma validez cuando el investigador,

siguiendo los pasos lógicos del proceder científico, logra establecer causación única284

, dicho de

otra manera, ha conseguido eliminar cualquier cantidad de posibles causas. El investigador

intentará establecer causas incluso sin poder ejercer control sobre las variables.

Newman y Benz (1998) alegan que existen dos tipos de variables independientes, las Activas

y las de Atributo. Las variables activas están bajo control del investigador y por ello pueden ser

manipuladas. Las variables de atributo como el género y la raza, no pueden ser manipuladas. Si

283

Una investigación de un siniestro aeronáutico presenta un diseño ex post facto, pues no es posible establecer causas hasta luego de

sucedido el hecho. 284

Para los Diseños Unifactoriales, Unifactorial significa que existe sólo una variable independiente, o factor único.

Ro

iman

Val

bu

ena:

El D

iseñ

o d

e Ex

per

imen

tos.

Page 306: La investigación científica avanzada primera edición 2015

305

todas las variables independientes son no manipulables, entonces la investigación se denomina

ex post facto, (p. 41). Lo anteriormente descrito se sustenta sobre el hecho de la imposibilidad285

de manipular dos variables cuyas características lo impiden. Las autoras alegan que las

investigaciones ex post facto y las relacionales son por otros autores sinonimizadas.

La Investigación Relacional286

no establece causación, mientras que a la ex post facto se le

considera en muchos otros casos como exploratoria. El hecho de que una variable preceda a otra

en el tiempo, o que una variable presente correlación fuerte con otra, no se constituye en

elemento probatorio suficiente como para inferir causación en investigaciones ex post facto. En

muchos casos tal inferencia resulta inapropiada. Para asumir relación causal, el diseño ha de

presentar validez interna, significa esto que, cualquier otra explicación de los efectos basado en

los criterios de la variable dependiente han sido controlados, acción en sí que el diseño prohíbe.

Y la única fuente posible de explicación para los cambios en la variable dependiente, se deben a

la variable independiente bajo investigación (p. 42).

A continuación, Cohen, Manion y Morrison (2007, p. 268) ofrecen algunas consideraciones

sobre las ventajas y desventajas de los diseños ex post facto:

Ventajas:

Se adapta a las necesidades del investigador cuando no es posible la experimentación.

El método aporta información importante acerca de la naturaleza del fenómeno <<que va con

qué y bajo qué condiciones>> De esta manera la investigación ex post facto se erige como

una invaluable herramienta exploratoria.

Mejoras en las técnicas estadísticas y la metodología en general, han hecho más factible a la

investigación ex post facto.

En algunas formas y bajo ciertas circunstancias el método resulta ser más útil que el

experimental. Especialmente porque este último puede añadir un toque de artificialidad en el

procedimiento.

La investigación ex post facto es particularmente apropiada cuando se explora una simple

relación causa efecto.

El método puede dar sentido y dirección, además de proveer de abundantes fuentes de

hipótesis que puedan subsecuentemente ser probadas por un método experimental más

riguroso.

Desventajas, Limitaciones y Debilidades:

Existe el problema de la carencia de control, esto imposibilita al investigador la manipulación

285

Este aspecto concierne tanto a la imposibilidad práctica, legal o jurídica y ética. En este caso se dificulta la aplicación de todos los procesos

inherentes al diseño experimental puro. 286

Es a todas luces un error asumir la existencia de las Investigaciones Correlacionales. Lo que realmente existe son las Investigaciones

Relacionales. Éstas, buscan varios tipos de relación entre variables. La correlación es un procedimiento estadístico mediante el cual se pretende determinar si existe o no asociación entre un grupo de variables. Pues, dos variables podrán estar correlacionadas y no asociadas.

Ro

iman

Val

bu

ena:

El D

iseñ

o d

e Ex

per

imen

tos.

Page 307: La investigación científica avanzada primera edición 2015

306

de la variable independiente o la aleatorización entre sujetos287

.

No se puede saber a ciencia cierta si el factor causal se han incluido o identificado.

Puede que la causa no provenga de un solo factor.

Una sola consecuencia puede derivar desde diferentes causas en diferentes ocasiones.

Cuando una relación ha sido descubierta, surge el problema de decidir cuál es realmente la

causa y cual el efecto; donde ha de considerarse la posibilidad de causación en reverso.

La relación entre dos factores bajo ninguna circunstancia establece causalidad.

Se hace problemática la clasificación entre grupos dicotómicos.

Carece de la capacidad de anular y confirmar.

Existe la dificultad de interpretación, y el peligro después de todo, de asumir o creer que

porque ―X‖ precede causa ―Y‖.

Las conclusiones comúnmente son basadas en una muestra muy limitada de ocurrencias.

287

Los autores sostienen… los investigadores están imposibilitados a usar cualquier tipo de medida o control en sus investigaciones, y el

principio de aleatorización es uno de ellos, Véase la pág. 270 del citado texto. Por otro lado, una versión contraria la ofrece Sevilla y col, quien responde a la pregunta: ¿Puede la aleatorización ser utilizada en estudios ex post facto?, por su puesto. Si el evento acaecido necesita la selección de sujetos debe usarse aleatorización para ejercer control sobre las variables extrañas. En estudios ex post facto es posible la aleatorización pero no la asignación aleatoria <<elementos claramente diferenciables>>. Véase; Sevilla et, al (2007, p. 150).

Ro

iman

Val

bu

ena:

El D

iseñ

o d

e Ex

per

imen

tos.

Page 308: La investigación científica avanzada primera edición 2015

307

10.9.- Clasificación de los Diseños Experimentales.

a clasificación como proceso consiste en la colocación sistemática de ciertas unidades

de estudio u objetos en determinadas categorías que presenten semejante o misma

naturaleza. El acto operativo de clasificar presupone la preexistencia de ciertos

criterios. La tipificación de los diseños experimentales que se presentan en este aparte se ejecuta

en función de las clases que puede presentar el diseño, liado a las relaciones que se tienen lugar

dentro de estas clases. Es de recalcar que el uso más común de los diseños experimentales que a

continuación se hacen mención es para el área de la sicología. Y no importando el área

cognoscitiva, como para cualquier otro diseño, la estadística es la gramática de la ciencia288

.

10.9.1. Diseños Intrasujetos

La Investigación Intrasujetos, también denominada Diseño de Medidas Repetidas, en este caso

para Diseños Unifactoriales, consiste en un procedimiento asociado a un tipo de Investigación

Experimental donde se evalúan los efectos de un tratamiento sobre los mismos sujetos en todos

los grupos. Allí cada individualidad es sometida a todas las condiciones de tratamiento

experimental con el fin de probar la variable independiente. Se compara el conjunto de medidas

de la variable dependiente observándose así sus efectos. En este tipo de diseños ningún sujeto ha

de ser contrastado con otro del grupo, y donde los resultados de uno se convierten

automáticamente en un registro u observación que sirve de referencia sólo para él, sus

puntuaciones se comparan con las distintas condiciones a que fue sometido.

En los Diseños Intrasujetos cada unidad experimental sirve como su propio control y se

288 Frase atribuida a Karl Pearson. Karl Pearson, influyente matemático inglés quien en 1911 fundara el Departamento de Estadística del

University College en Londres. Creador del denominado Coeficiente de Correlación de Pearson. Su obra: The Grammar of Science, publicada por

primera vez en 1892, fue ampliamente difundida en varios continentes, incluso Albert Einstein la elogió, constituyéndose en uno de los aportes

bibliográficos fundamentales para el desarrollo de su Teoría de la Relatividad. Se recomienda al lector, si desea profundizar sobre la ley de

causación en general, cuya aplicación es de suma importancia en diseños experimentales, revisar el Capítulo IV de tan Magistral obra: Cause

and Effect – Probability. La obra contiene También temas Como: Contingency and Correlation – The Insufficiency of Causation.

L

La clasificación de los hechos, el reconocimiento de su secuencia e importancia relativa es la función

de la ciencia, y el hábito de formarse un juicio imparcial sobre estos hechos por el sentimiento

personal es característico de lo que puede llamarse el marco científico de la mente.

Karl Pearson.

Page 309: La investigación científica avanzada primera edición 2015

308

utiliza el contrabalance como técnica de control agregada para adicionar validez a sus resultados.

Contrabalance implica el cambio de orden en el que están sucediendo las cosas, y que de alguna

manera puede incidir en los resultados. El contrabalanceo consiste simplemente el alternar el

orden de aplicación de los tratamientos con el fin de evitar el denominado Efecto Debido al

Orden, o el mencionado Efecto Arrastre. Vogt y Johnson (2011, p. 81), aportan un modelo de

contrabalance para tres participantes: Por ejemplo, un experimentador desea probar los efectos

de 3 tipos de estímulos luminosos (A, B y C) sobre el desempeño de las habilidades visuales.

Los sujetos primeramente se someten a la condición A y se les aplica el test de desempeño.

Posteriormente se les coloca en la condición B y también se les aplica el respectivo test.

Para la condición C y el tercer test o tercera medición, se presentan dos opciones a considerar,

las puntuaciones de los sujetos pareciesen aumentar simplemente porque adquirieron práctica

con las dos pruebas previas, o contrariamente, sus puntuaciones pareciesen disminuir por el

efecto fatiga. Los efectos de práctica y fatiga pueden ser contrabalanceados a través de la

rotación de las condiciones de luminosidad a las que están siendo sometidos los sujetos,

observándose y estudiándose así los resultados en todos los órdenes posibles.

El experimento presentará entonces seis posibles secuencias: ABC; ACB; BAC; BCA; CAB;

y CBA. Obtenidos los órdenes de rotación de los factores, los sujetos han de ser divididos en seis

grupos, y tal como lo rige el diseño Intrasujetos, cada uno ha de ser comparado con él mismo y

no contra otro, es donde se procede entonces a la determinación de resultados derivados de todos

los posibles órdenes. Posterior a la aplicación de cada secuencia no deben existir diferencias

significativas entre ellas, de encontrarse, el investigador habrá de inferir correctamente por qué y

bajo qué condiciones se sucede tal evento, demostrando así el poder del método de

contrabalanceo para un procedimiento netamente lineal. Sin embargo, el contrabalanceo no

controla los efectos no lineales o interactivos, tales como los efectos de arrastre diferencial.

10.9.2.- Diseños Intersujetos

Los Diseños de Investigación Intersujetos consisten en un procedimiento científico

experimental muy usado en sicología, en el que cada uno de los niveles en que se constituye la

variable independiente se aplica a un grupo de sujetos distintos. Es decir, se utilizar los mismos

sujetos en todos los grupos y cada sujeto pasa por todas las condiciones experimentales. Se

conforma entonces cierta cantidad de grupos y donde cada nivel de la variable independiente se

Ro

iman

Val

bu

ena:

Cla

sifi

caci

ón

de

los

Dis

eño

s Ex

per

imen

tale

s.

Page 310: La investigación científica avanzada primera edición 2015

309

administra a un subgrupo diferente de sujetos, aunque por lo general se recibe un solo nivel por

sujeto, es decir, cada unidad experimental recibe un estímulo diferente. Esto permite la

comparación entre grupos que se someten a dos condiciones, la de control y la experimental. En

este tipo de diseños existe una única variable independiente <<Unifactorial>>, y se caracteriza

porque los sujetos que conforman los grupos son diferentes.

Estructurándose así grupos independientes, pero donde cada sujeto recibe un tratamiento

disímil. Contrario a los diseños Intrasujetos, donde cada sujeto pasa por todas las condiciones de

tratamiento. El experimentalista opta por un diseño Intersujetos cuando se desean estudiar

cambios de conducta en determinada posición del tiempo, y cuando no es posible controlar el

efecto del orden de aplicación de los tratamientos. Como ejemplo imagínese un diseño con la

siguiente arquitectura:

Estímulo 1 Sujeto 1 Grupo 1;

Estímulo 1 Sujeto 1 Grupo 2;

Estímulo 1 Sujeto 1 Grupo 3;

Estímulo 2 Sujeto 2 Grupo 1;

Estímulo 2 Sujeto2 Grupo 2;

Estímulo 2 Sujeto 2 Grupo 3;

Estímulo 3 Sujeto 3 Grupo 1;

Estímulo 3 Sujeto 3 Grupo 2;

Estímulo 3 Sujeto 3 Grupo 3;

Obsérvese que cada estímulo se aplica a sujetos diferentes asignados a grupos diferentes.

Dicho de otra manera, el estímulo 1 y ningún otro, sólo lo recibe el sujeto 1 de cada grupo; el

estímulo 2 es recibido entonces por los segundos sujetos en todos los grupos y así

sucesivamente. Esto hace posible compara los estímulos 1, 2 y 3, de diferentes sujetos, contra

los restantes en cada grupo. Es menester que los participantes sean asignados aleatoriamente de

forma que los grupos se consideren equivalentes. Este concepto se explica mejor en los diseños

denominados de grupos al azar y completamente Aleatorizados.

Cuando se emprende una investigación bajo este tipo de diseño, el investigador debe

asegurarse que dispone de unidades experimentales suficientes, puesto que el proceso de

aleatorización hace que se desperdicien algunas. Si no se dispone de unidades suficientes o lo

que se desea probar presenta cierta complejidad, intente experimentar con otro diseño. Así como

los demás diseños, este presenta también algunos inconvenientes. La acción en sí de asignar

sujetos diferentes a cada grupo acarrea un efecto diferencial sobre cada condición, la

Ro

iman

Val

bu

ena:

Cla

sifi

caci

ón

de

los

Dis

eño

s Ex

per

imen

tale

s.

Page 311: La investigación científica avanzada primera edición 2015

310

experimental y la de control. En algunos casos de denomina diferencial entre grupos, o

simplemente variabilidad entre grupos.

Le corresponde entonces al experimentador hilvanar si tales efectos se deben a las respuesta

naturales que se producen sobre la variable dependiente sobrevenidas desde la independiente; o

si se corresponden con la desemejanza entre los sujetos que se asignaron a cada grupo. En

cualquier caso, un procedimiento incorrecto puede hacer tambalear la validez de la investigación.

Muchinsky (2002 p. 345), ofrece un ejemplo que para sus efectos es adaptado a la explicación:

Un gerente desea conocer quién es la persona ―más motivada‖ y la persona ―menos motivada‖

de cierto departamento <<grupo>> en su empresa. Una vez que ha obtenido el puntaje de fuerza

para cada persona, aquella que presente el puntaje más alto se corresponde con la ―más

motivada‖, contrariamente, considérese la ―menos motivada‖. Este tipo de enfoque se denomina

diseño Intersujetos porque las predicciones se hacen para todas las personas. Si el gerente lo

desea, puede repetir el experimento con varios departamentos y compararlos ya que a ninguno de

los empleados experimentales del primer grupo aparecerán en cualquier otro. Después de

calcular el diferencial entre grupos podrá establecer a ciencia cierta por qué hay personas más

motivadas que otras.

10.9.3.- Diseños Factoriales

Un factor consiste en un grupo de tratamientos con características bien definidas, cuyos

elementos condicionantes guían hacia la consecución de un resultado. Así mismo, un conjunto de

factores se convierten en una agrupación de elementos que en diseños experimentales son

transformados en variables causales de la evolución o transformación de ciertos hechos. Para que

se sucedan cambios en la variable dependiente han de controlarse bien los factores. Como diseño

de investigación, y contrario a los diseños unifactoriales, implica el uso simultáneo de dos o más

variables independientes, se opta por ellos en experimentos donde los efectos de variación

ocasionados por uno o más factores ameritan que sean determinados.

Se ajustan perfectamente cuando el experimentalista pretende ejecutar mediciones de los

efectos de dos o más variables independientes, y estas a su vez presentan una variedad de

niveles. Se les considera exhaustivos a los diseños factoriales, sólo cuando abarcan la totalidad

de su entorno, presentando una tabla matricial contentiva de todas las posibles combinaciones

Ro

iman

Val

bu

ena:

Cla

sifi

caci

ón

de

los

Dis

eño

s Ex

per

imen

tale

s.

Page 312: La investigación científica avanzada primera edición 2015

311

para las variables independientes, de manera que se individualice cada efecto, permitiendo con

ello interpretaciones y análisis separados de cada resultado.

En escritos de Kuehl (2001):

El concepto de diseño factorial se extiende para incluir experimentos con factores

anidados con otros factores, se estudian diseños para experimentos que tienen una

combinación de factores anidados y factores cruzados, incluyendo la información

para determinar el número de réplicas y se proporcionan reglas para derivar los

cuadrados medios esperados para una variedad de experimentos factoriales

balanceados, (p. 175).

El autor afirma que la escogencia de diseños factoriales posibilita en gran medida un éxito

real en un experimento, puesto que las observaciones por separado suministran información

sobre todos los demás factores. Haciéndose posible la observación de las respuestas de un factor

individual en diferentes niveles de otro factor en el mismo experimento. Por su lado, Kothari

(2006) explica… el diseño factorial más simple es el de [2 x 2], allí se consideran los efectos de

variación de 2 factores sobre la variable independiente. Esto arroja como resultado 4 posibles

combinaciones de tratamiento. Puede interpretarse también como una investigación experimental

con dos variables independientes con dos niveles cada una.

Kothari describe dos tipos de diseños factoriales, el simple y el compuesto. El primero refiere

a cuando se toman los efectos de variación de al menos dos factores sobre la variable

independiente. Contrariamente, si el diseño amerita más de dos factores se denomina complejo.

A continuación un modelo matricial de tratamiento contra niveles denominado también diseño

de factores cruzados:

Control

de las

Variables

Variables Experimentales

Tratamiento X Tratamiento Y Media

Nivel 1 X-1 Y-1 M 1[ X – Y ]

Nivel 2 X-2 Y-2 M 2[ X – Y ]

Obsérvese que el ejemplo anterior refiere a un diseño factorial completo de [2 x 2], no

obstante, en notación factorial se les entiende de la siguiente manera: un diseño factorial de [3 x

4] indica que existen dos variables independientes, una por cada dígito, donde la primera

presenta 3 niveles y la segunda cuatro, de allí surgen 12 combinaciones posibles.

Otro diseño puede presentarse así: [3 x 3 x 3], indicando que existen 3 variables

independientes; con tres niveles cada una, o, un diseño de [2 x 2 x 3]. Donde se obtendrán doce

combinaciones de grupos. Nótese que en los diseños hay bases numéricas que se repiten, según

Ro

iman

Val

bu

ena:

Cla

sifi

caci

ón

de

los

Dis

eño

s Ex

per

imen

tale

s.

Page 313: La investigación científica avanzada primera edición 2015

312

Arnau y Col. (1990, p. 91), esta es la forma de representar a los diseños factoriales completos,

haciéndose posible su división en dos grandes categorías. Los de valores cuya base es fija [2 x 2

x 2]; [3 x 3 x 3] o [4 x 4 x 4 x 4], estos se pueden notar matemáticamente por exponenciales: [

-- [ -- [ . Y los de base variable, siendo representados en situaciones totalmente diferentes

a estas.

En escritos de Jackson (2012), se encuentra que existen dos efectos diferentes en los diseños

factoriales. Los principales, atribuibles a una única variable donde se omite cualquier otra como

si no existiese. Y los efectos interactivos, que consisten en los efectos de cada variable

independiente sobre cada nivel de las restantes variables independientes. Esta clase de efectos

permite ponderar si los efectos de una variable, dependen o no, del nivel de otra variable.

10.9.4.- Diseño Experimental de Caso Único (N=1)

Estos diseños tienen sus principales aplicaciones en los campos de la sicoterapia, la educación,

la criminología, además de algunos casos de medicina y enfermería. Sin embargo, en años

recientes se ha optado por su uso en ingeniería. El diseño permite medir asertivamente cuán

efectivo ha sido un tratamiento. A diferencia de los casos de grupos, se trabaja con un solo sujeto

y son muy comunes cuando se desean hacer estudios de individualidades. En la práctica, arroja

evidencias basadas en el comportamiento. Su metodología es rigurosa, su objetivo es la

documentación de las causas conforme varían las relaciones observadas entre las variables

dependientes e independientes.

El participante se convierte en la única unidad de análisis, aunque en procedimientos reales el

grupo es comúnmente numeroso debido a causales económicas, el sujeto se transforma en

individualidad con respecto a los demás, sus datos, observaciones e inferencias le pertenecen

solo a él y a ningún otro participante, lo que impide asociarlo o correlacionarlo con otra unidad

de análisis, convirtiéndolo de esta manera en su propio control. Se le concibe como un modelo

de replicación con (N=1) de los diseños Intrasujetos y también presenta ciertas variantes con

respecto a este. Algunos autores lo encuadran dentro de los diseños cuasi-experimentales ya que

carece de aleatorización289

.

289

Para sus efectos, Balluerka lo concibe como un diseño netamente experimental y puro ya que presenta todas sus características. Véase:

Diseño de Series Temporales: Técnicas de Análisis. (2001). Editado por: Jaume Arnau. Cap. 8.

Ro

iman

Val

bu

ena:

Cla

sifi

caci

ón

de

los

Dis

eño

s Ex

per

imen

tale

s.

Page 314: La investigación científica avanzada primera edición 2015

313

Para Balluerka en Arnau (2001), el principal objetivo de los diseños (N=1), dentro de los

diseños conductuales, se circunscribe a la examinación de la influencia que ejercen uno o varios

tratamientos sobre la conducta del sujeto a lo largo del tiempo. Tratando mediante

experimentación de superar las limitaciones que presenta el promedio de un grupo como medida

de referencia y que sirve para representar la variabilidad de la conducta individual. En

consideraciones de Arnau op. Cit, los diseños (N=1) son esencialmente un procedimiento de

indagación caracterizada por la sucesión de una serie de períodos de observaciones repetidas

bajo condiciones idénticas o una serie de fases.

En los estudios de caso único, el investigador ejecuta una serie de intervenciones delimitadas

por espacios temporales denominados períodos, allí en el desempeño de la primera intervención

o primera fase, conocida como fase de línea de base, no se aplica tratamiento, sin embargo, las

respuesta del sujeto son registradas en ausencia de este. Se compara posteriormente con el de las

subsiguientes fases hasta conseguir un patrón de conducta que se considere estable. Estando ya la

conducta relativamente controlada, se aplican tratamientos tendentes a observar ciertas

propensiones que cambien la dirección del patrón, es lo que se denomina fase de intervención.

Los diseños de caso único o diseños (N=1) tienen sinónimos según el autor a que se haga

referencia; el mismo Sidman (1960) lo denominó Diseño Operante, así como en Arnau op, cit, se

indican como Diseños de Series Temporales debido a la metodología implícita. Los diseños de

caso único son comúnmente confundidos con los Estudios de Casos290

, esto es un error y no

deben sinonimizarse. Aunque ciertamente los diseños de caso único carecen de aleatoriedad, los

sujetos son expuestos a dos condiciones de control, la fase de línea de base sin tratamiento, y a

cualquier cantidad de condiciones o fases de intervención que el investigador considere

necesarias para soportar sus inferencias.

La rigurosidad de su metodología conlleva una correcta concatenación de sus procesos

internos tendente a cristalizar relaciones que en un principio no eran evidentes, base de toda

inferencia. En ese sentido, Gast y Ledford (2010, p. 1938), aportan un conjunto de

consideraciones al momento de especificar indicadores de calidad dentro de los diseños de sujeto

único: la descripción de los participantes y sus ajustes; las variables dependientes e

independientes; la línea de base; el control experimental y la validez interna, así como la validez

externa y social.

290

Los estudios de casos se caracterizan porque plantean una estrategia de investigación que consiste en el estudio netamente descriptivo en

algunos escenarios, de un sujeto individual. Sin embargo, en muy pocas ocasiones la recopilación de datos se hace de manera secuencial y con dependencia lineal.

Ro

iman

Val

bu

ena:

Cla

sifi

caci

ón

de

los

Dis

eño

s Ex

per

imen

tale

s.

Page 315: La investigación científica avanzada primera edición 2015

314

En cuanto a la descripción y ajuste de los participantes, estos han de ser descritos con

suficiente detalle como para poder seleccionar individuos con similares características. Las

variables dependientes291

han de ser descritas con precisión operacional. Cada variable

dependiente se medirá con procedimientos que generen índices cuantificables, y su medición se

realizará repetidamente en el tiempo. La variable independiente debe describirse con precisión

replicable. En cuanto a la línea de base, la mayoría de los estudios de sujeto único deben incluir

una fase de línea de base que permita las repeticiones de medidas sobre las variables

dependientes, de manera que apruebe el establecimiento de patrones de respuesta, ello en función

de predecir futuros patrones de conducta.

Sobre el control experimental y la validez interna, el diseño debe proveer al menos 3

demostraciones de efectos experimentales en 3 diferentes puntos del tiempo, las fallas en este

control afectarán significativamente la validez interna. El resultado que se consiga debe

demostrar el control experimental. La validez externa se evidencia cuando los efectos

experimentales son replicados hacia otros participantes. Así mismo, la variable dependiente

estudiada ha de ser socialmente importante, de manera que justifique sus costos, es decir, tendrá

impacto a la sociedad inmediatamente circundante siendo su implementación práctica y efectiva.

En otro orden de ideas, los diseños de sujeto único se caracterizan por la gran cantidad de

pequeñas observaciones que presentan, y que para algunos autores se constituye en un problema.

Cifre y Mateu (1997) afirman que, una de las características fundamentales de los diseños de

sujeto único es la dependencia serial que reciben los datos, haciendo que pruebas estadísticas

clásicas como distribuciones ―T‖ o F‖ no se adapten al contexto. Si no se toma en cuenta la

dependencia serial se obtendrá una incorrecta estimación del Error Tipo I292

. Es por ello que

proponen ejecutar un análisis exploratorio y no paramétrico. Los autores hacen adaptación a su

trabajo de series temporales largas, sin embargo, son una opción a las operacionalizadas por

Arnau que se corresponden con series cortas.

291

En este tipo de estudios es necesario que exista más de una variable dependiente. 292

Error tipo I o error alfa (α), es un tipo de error que se sucede cuando se encuentra que la hipótesis nula es verdadera, y aun así es

rechazada. La probabilidad de cometer un error del tipo I es igual a alfa (α), nivel de significación.

Ro

iman

Val

bu

ena:

Cla

sifi

caci

ón

de

los

Dis

eño

s Ex

per

imen

tale

s.

Page 316: La investigación científica avanzada primera edición 2015

315

10.10.- Encuesta Vs. Experimento. La Falibilidad de las Escalas de Likert.

as encuestas y los experimentos, podría decirse, son los dos polos opuestos de un imán.

Su diferencia más notable reside en el tipo de pregunta o problemas de investigación

que ambos están en capacidad de abordar. Las encuestas comúnmente reflejan las

opiniones de cierta cantidad de voluntarios a los que se les suministra un cuestionario. Estas

recogen sentires aleatorios de diferentes personas acerca de un producto o asunto particular. El

experimento por su lado, se convierte en un estudio del tipo causal y más comprensivo del

evento, busca la objetividad y la reproducibilidad a través de la prueba científica. En ese sentido,

René Dubos293

alguna vez argumentó lo siguiente: El experimento tiene dos propósitos, a

menudo independiente el uno del otro: permite la observación de nuevos hechos hasta entonces

insospechados o aún no bien definidos; y determina si una hipótesis de trabajo se ajusta al

mundo de hechos observables.

En la Investigación Científica existen diferencias significativas entre un estudio donde se

utilice a la encuesta como técnica de recolección de información y otro apoyado en la

experimentación. Un estudio basado en encuestas podrá contener o no, una o más hipótesis, lo

ideal ha de ser al menos una. Allí el científico intenta ejecutar un análisis de relaciones entre

variables sin manipularlas. Contrariamente, la experimentación provee de uno de los mejores

métodos por excelencia de probar hipótesis, el ensayo y el error. Primeramente, el

experimentador habrá de definir el problema en todo su amplio contexto, orientado siempre a

obtener la mejor forma de plantear sus hipótesis.

Posteriormente, la somete a prueba buscando su confirmación o desconfirmación, siempre

bajo estimaciones estadísticas cuantitativas y a la luz de todo nuevo descubrimiento resultante

inequívocamente del control aplicado, donde además se cristalicen las relaciones observadas. En

este caso, el experimento se convierte en un poderoso método de descubrimiento, permitiendo

293

Microbiólogo Estadounidense. Esta cita aparece en un excelente libro de Rafael Moreno González (1974). Antología de la Investigación

Científica.

L

Tortura a los números y te lo dirán todo…

Gregg Easterbrook

Page 317: La investigación científica avanzada primera edición 2015

316

develar un organizado cuerpo de conocimientos hasta los momentos invisibles. Las encuestas

también pasan por una etapa observacional y se usan para medir otras cosas, su diseño debe ser

rígido y blindado contra toda parcialidad, prejuicio o tendencia que lleven a admitir conclusiones

erróneas. Son comúnmente explotadas en la investigación social donde se hace uso de la

sicometría. Su diseño se basa en conceptos pre-teoréticos y, por lo general, sus conclusiones

llegan a agrupar un conjunto de hechos analíticos294

.

Sus hallazgos no son sorprendentes y se hace difícil la abstracción sobre cantidades o

números. Las encuestas suelen aportar resultados basados en un gran cúmulo de observaciones y

sus juicios conclusivos imposibilitan la demostración. Eso no implica que lo anterior sea la única

forma de hacer ciencia, más, aporta una forma de validación y contraste externo diferente. Las

encuestas, si bien son una forma válida de investigación científica, y de hecho poderosas en

cuanto a sus resultados cuando éstos son bien estructurados, están confinadas a proveer un

conocimiento del tipo autoevidente, es decir, sus juicios conclusivos se conforman a través de

enunciados como los siguientes:

Posterior a la aplicación del cuestionario a la muestra poblacional objeto de estudio

se determinó que <<Los solteros no están casados>>; puesto que el 90% de los

solteros encuestados manifestó no estar casados. Así también como <<En el polo

norte hace frio>>; o, de los consumidores encuestados, 81% reveló <<Es uno de los

mejores productos del mercado>>

En sus resultados el investigador se limita a emitir juicios analíticos carentes de toda lógica

argumentativa y sin contraste alguno contra determinada teoría. Sobre la base de esas vertientes

Kant295

(1997) explica…los juicios analíticos son simplemente explicativos, no hacen progresar

el conocimiento, sólo se limitan a explicitarlo. Los juicios analíticos se componen de

proposiciones analíticas, en éstas el valor de verdad sólo posee cierto significado por los

términos que involucra. En todo juicio analítico el significado del concepto predicado está

incluido en el significado del concepto sujeto. Estos juicios sólo se restringen a explicar pero no

añaden conocimiento nuevo al que ya contenía el concepto sujeto (p. 15).

Para poder causar conocimiento verdadero, el juicio debe ser sintético, es decir, el significado

294

Un hecho analítico es aquel que es posible abordarlo desde lo más complejo a lo más simple, o en sentido inverso, haciéndose uso de una

secuencia finita y ordenada de pasos. Al abordársele en sentido inverso, normalmente consiste en una secuencia lógica de sentencias que permiten desembocar en un axioma. Obsérvese que planteado de esa manera un hecho analítico es completamente deductivo. Al análisis suele entendérsele como la descomposición de un todo en sus partes primigenias constitutivas <<algo que realmente cuestiono>>, sin embargo, cuando se estudian los hechos analíticos y tratan de recomponerse usando el método sintético, sus partes no concuerdan, no por el mal abordaje de la investigación en algunos casos, sino, por los datos subjetivos que aporta una encuesta y que son usados en la recomposición del sistema. Desde el punto de vista tautológico, un hecho analítico no posee condiciones que lleven a emitir juicios verdaderos. Haciendo con ello que los juicios conclusivos del investigador carezcan de contenido científico, es decir, no hay descubrimiento, y si no hay descubrimiento no hay ciencia, estos sólo se producen con la experimentación y el sometimiento a réplicas de sus componentes causa-efecto. 295

Véase Juicios Analíticos y Sintéticos.

Ro

iman

Val

bu

ena:

En

cues

ta V

s. E

xpe

rim

ento

. La

Falib

ilida

d d

e la

s Es

cala

s d

e Li

kert

.

Page 318: La investigación científica avanzada primera edición 2015

317

del concepto predicado no incluye al del concepto sujeto, sino que agrega uno nuevo. Con ciertos

grados de diseminación, estos juicios añaden información nueva y están basados en la

experiencia, por lo que no se puede llegar a ellos a través de una simple encuesta, es necesaria la

abstracción a partir de la experiencia, y una de las más poderosas formas de producirla es a

través de la experimentación científica, cuya fiabilidad supera a la de las encuestas.

El constructo de fiabilidad cuando se aplica en la investigación y en la construcción de

cuestionarios, y que además, se convierte en componente fundamental de la validez, presupone

cierto grado de error en su aplicación. Éste depende del contexto y de la disposición del

encuestado, elementos fuera de todo control. La fiabilidad es una función de la probabilidad e

introduce una incertidumbre, funciona bajo ciertas condiciones y sólo durante un tiempo

determinado. Un error grave en las investigaciones que involucran cuestionarios consiste en la

omisión discrecional de aquellas cuestiones que lo hacen inválido <<Disonancia Cognitiva>>

Centrándose únicamente en sus bondades y no en sus fallas. En el diseño experimental a la

fiabilidad se le conoce como validez. Mientras que la fiabilidad de un cuestionario es calculable,

la de un experimento puede llegar a ser observable.

Entre los modelos de encuestas más usados se encuentra el escalamiento de actitudes

propuesto por Renkis Likert. Una escala Likert consiste en un proceso de escalamiento

sicológico296

unidimensional y normalmente usada en la construcción de cuestionarios. Allí el

encuestado puede seleccionar aquellas opciones que mejor se alineen con su punto de vista. Éstas

se han hecho de uso generalizado en investigaciones en ciencias sociales, incluso se ha llegado a

un uso tan extendido que se considera abusivo. Sin embargo, presenta serios cuestionamientos.

Renkis Likert sintió inquietud sobre las numerosas ilustraciones que infructuosamente se habían

realizado sobre el estudio de las actitudes sociales, e hizo intentos por mejorar los aportes de

Gardner Murphy297

(1929 y otros), quien quiso asociar magnitudes cuantitativas al estudio de

las actitudes sociales.

Likert además, pretendió emitir consideraciones sobre el Escalamiento Sicológico planteado

por Thurstone298

(1927), cuyo método había mostrado rendir una excelente y satisfactoria

fiabilidad, sobre todo, en términos de correlaciones entre puntuaciones cuantitativas y casos

históricamente evaluados por jueces. No obstante, el escalamiento Thurstone es extremadamente

296

El escalamiento sicológico es un proceso de medición de dimensiones sicológicas que carecen de referente físico, es decir, no son

susceptibles de medición directa. Por ejemplo: la belleza y el amor. Se le asume contrario al escalamiento sicofísico que si posee referentes. No obstante, fue Thurstone (1927a), y quien oponiéndose al escalamiento sicofísico introdujo el sicológico. 297

Murphy, G. (1929). An Historical Introduction to Modern Psychology. New York. Harcourt, Brace and Company. 298 Thurstone, L. L. A' law of comparative judgment. Psychob Rev.,1927. Sb. 273-286.

Ro

iman

Val

bu

ena:

En

cues

ta V

s. E

xpe

rim

ento

. La

Falib

ilid

ad d

e la

s Es

cala

s d

e Li

kert

.

Page 319: La investigación científica avanzada primera edición 2015

318

complejo desde el punto de vista matemático, pero mucho más poderoso que lo planteado por

Likert.

La Teoría de la Especificidad de Likert299

se basó en las siguientes premisas; [se podía

definir la personalidad como un componente de muchos hábitos independientes, mientras que

aquellos hábitos que enfatizan una relativa unidad hacia un punto general de factores de

significancia, y los cuales serían eficaces para la predicción del comportamiento, en una

situación o en otra totalmente diferente, también eran posibles definirlos]. En otras palabras,

diferencial de actitudes.

Sin embargo, problema 1, las escalas Likert son del tipo ordinal, es decir, llevan un orden

sucesoral y allí 3+4 no es 7, esto dificulta la sumatoria entre sus componentes elementales a

pesar de estimárseles como escala aditiva. Problema 2, se hace difícil conocer a ciencia cierta

porqué motivos se desaprueba una afirmación u objeto de actitud, por lo que dos individuos con

opiniones aparentemente distintas podrían a llegar a obtener las mismas puntuaciones. Como

regla general Likert plantea que dos personas con actitudes distintas han de contestar de manera

diferente, allí el problema surge con la denominada Teoría de Reacción al Objeto300

, en otras

palabras, se reacciona en función de los pareceres con respecto al objeto y no en dirección

sicológica de la composición semántica de la afirmación que intenta medir la actitud, ejemplo:

Las Armas aún si no son utilizadas Ocasionan la Muerte

Así, un sujeto objeto de actitud no será capaz de distinguir el contenido intermedio de la

afirmación: Aún si no son utilizadas. Y se limitará a reaccionar en dirección al objeto <<Las

Armas>>: Las Armas Ocasionan La Muerte. Derivando de esta manera, en la obtención de datos

a todas luces erróneos. Problema 3, Likert afirma que la actitud es un hábito suficientemente

compacto como para ser tratado como unidad, op. Cit (P. 8), premisa refutada en varias

ocasiones pues, se ha comprobado que una persona reacciona mejor o positivamente hacia el

objeto de actitud, cuando ha tenido experiencia grata y plena, y no cuando la enfrenta en sentido

299

Se sugiere al lector, y para un mejor entendimiento de esta teoría, adentrase en la lectura del planteamiento del problema de la obra:

Likert, Renkis (1932). A Technique for a Measurement of the Attitudes. Archives of Psychology, Vol. 22 140, 1-50. 300

Denominada también Teoría de Acción Razonada. Esta teoría incluye una serie de consideraciones del tipo Volitivo sobre el sujeto. Una

conducta Volitiva permite plasmar mediante hechos, los pensamientos de una persona para convertirlos en acciones razonadas producto de la inteligencia. Para Schiffman y Kanuk (2005), representa una integración completa de los componentes de la actitud en una estructura diseñada para la obtención de explicaciones y predicciones mejores respecto del comportamiento, (p. 261). Los autores afirman que la intensión se mide mediante normas subjetivas y que éstas influyen sobre el modo de actuar del sujeto <<introducir subjetividad significa acudir a la probabilidad>>. Según Larson (2010), el comportamiento volitivo puede ser influenciado por sentimientos, actitudes o predisposiciones culturales regidas por normas. A la teoría de acción razonada se le considera una teoría del tipo persuasiva, donde los patrones de conducta social ejercen una influencia coercitiva sobre el comportamiento. En ese sentido, Likert pretende medir actitudes y no comportamientos. La actitud es una disposición que un sujeto asume frente a determinada situación, contrariamente, un comportamiento es simplemente una consecuencia de tal actitud y su medición se hace de manera diferente. En conclusión, Likert mediante su escala mide actitudes y no comportamientos, para medir estos últimos, ameritaría replantear su teoría.

Ro

iman

Val

bu

ena:

En

cues

ta V

s. E

xpe

rim

ento

. La

Falib

ilid

ad d

e la

s Es

cala

s d

e Li

kert

.

Page 320: La investigación científica avanzada primera edición 2015

319

negativo por primera vez. Predisposición sicológica.

Likert claramente establece;

La fiabilidad de las dos mitades se debería encontrar mediante la correlación de la

suma de los estados impares de cada individuo frente a la suma de los estados totales,

incluso. Debido a que cada declaración es respondida por cada individuo, los

cálculos se pueden reducir mediante el uso de la suma en lugar de la media. (P. 48).

En párrafo previo se argumentó por qué no se podía usar la sumatoria en escalas Likert, por

otro lado, es común encontrar resultados de investigaciones bajo escalas de actitud cuyo dato

central corresponde a la media <<Craso Error, Problema 4>> Problema 5, en la construcción de

la escala se recomienda intercalar juicios de valor en sentido positivo con los del sentido

negativo301

, caso contrario se produce el efecto sicológico de respuesta automática. Es decir, si

las primera 5 afirmaciones orientaban en sentido positivo del objeto de actitud, el cerebro

automáticamente deduce que las siguientes también lo serán, obteniéndose un pool de respuestas

en un solo sentido haciendo que el test carezca de significancia sicológica302

.

En ese sentido, la significancia sicológica adquiere mayor relevancia con los Escalogramas de

Guttman, allí las afirmaciones varían en intensidad y ameritan de prueba piloto. Su forma más

común de evaluación descansa sobre la técnica de los 5 pasos de Cornell. En un primer estadio,

se crea una tabla donde se busca la ruptura del patrón de intensidad, es decir, los ítems

comienzan a carecer de los niveles de intensidad adecuados debido a que presentan errores de

inconsistencia, eso no es posible con el diferencial de actitudes tipo Likert. Se procede entonces

a calcular un coeficiente de reproducibilidad, factor que indica si el test es reproducible o

aplicable a otros sujetos. Si CR > 0,9. Se dice que las respuestas del cuestionario se ajustan al

Modelo Guttman.

El programa de procesamiento estadístico SPSS Versión 19 presenta 6 casos para evaluar

validez y confiabilidad de un Escalograma de Guttman. En ese sentido, hace uso del Alfa de

301

Es a todas luces erróneo la omisión de reactivos en sentido negativo del objeto de actitud, incluso han de existir ítems indiferenciadores, es

decir, no aportan valor ni peso a lo que se investiga. Como diría Nietzsche <<Renunciar a los juicios falsos sería renunciar a la vida, negarla>> Sin embargo, es común encontrar evaluadores expertos de instrumentos de recolección de datos que recomiendan dejar sólo los positivos. Esta arbitrariedad se produce por desconocimiento de los principios estadísticos en los que descansan las escalas de actitud, extrayendo los conocimientos para la construcción de escalas sólo de los libros de metodología y no de los de estadística. Es muy común que un metodólogo pretenda conocer el método pero desconoce las teorías probabilísticas involucradas en él. Lamentablemente, muchos de ellos nunca hablan… solo repiten. 302

Probabilidad de que los datos obtenidos se deban al azar y no a la construcción del instrumento.

Ro

iman

Val

bu

ena:

En

cues

ta V

s. E

xpe

rim

ento

. La

Falib

ilid

ad d

e la

s Es

cala

s d

e Li

kert

.

Page 321: La investigación científica avanzada primera edición 2015

320

Cronbach y de la fórmula de Spearman Brown, además de un proceso de validación por la

fórmula de las dos mitades. Ahora bien, Likert crea su Escala en el año 1932, asunto previamente

descrito. No obstante, en su validación, hoy día, se usa el denominado Alfa de Cronbach, el cual

no fue desarrollado sino entre [1943 y 1951]303

. El coeficiente alfa compara un indicador en

función de la longitud total del test, es decir, la cantidad de reactivos o ítems. Y la covarianza

proporcional total resultante, entonces, la aplicación del Alfa de Cronbach es sólo una aplicación

derivada a posteriori y no tomada en cuenta a la hora del diseño original de la escala Likert.

El método que si toma en cuenta Likert al plantear y diseñar las escalas, es el de las Dos

Mitades y el Método Sigma como coeficiente de correlación entre puntuaciones de Spearman

Brown de [1910]304

. En el desarrollo posterior de la prueba Alfa de Cronbach no participó

Renkis Likert, sino que su origen se remonta hacia los trabajos de varios autores entre ellos

Guttman, Louis (1945). «A basis for analyzing test-retest reliability» Psychometrika 10 (4): 255–

282>> Entonces, podría decirse que las mal formuladas nociones para el uso de las escalas de

Likert vienen desde interpretaciones erróneas sobre el cómo aplicar la estadística sobre las

escalas de actitud.

En cuanto a la prueba de las dos mitades sugerida por Likert, Cronbach, L. J. (1946). A case

study of the split-half reliability coefficient. The Journal of Educational Psychology, 37 (3), 473-

480. Describe lo siguiente: la habitual división par – impar de elementos para determinar la

fiabilidad por la prueba de las dos mitades, no garantiza, de forma alguna, equivalencia entre

las dos partes de la prueba. Y, la fórmula de Spearman Brown, citada para su uso también por

Likert, sólo es aplicable cuando la equivalencia ha sido garantizada. A lo que encarga una

solución poco ortodoxa, pero recomendable.

El Método Paralelo – Split, o Método de las Dos Mitades Paralelas. Sin embargo, para ello

sería necesario un diseño deliberado donde las dos mitades sean similares en forma, contenido y

dificultad. Esto es ventajoso, ya que es una división única, las medias pruebas son comparables,

las mitades son representativas de la totalidad, y el procedimiento requiere poco más de trabajo

que el par-impar o el método aleatorio de división. Todo esto aparece en el Abstract de la obra.

Es de recalcar que los Escalogramas de Guttman si cumplen con todos estos criterios.

Problema 6, es fácil de comprobar el hecho de que es estadísticamente imposible, a menos

303 Cronbach, L. J. (1943). On estimates of test reliability. The Journal of Educational Psychology, 34 (4), 485-494. Cronbach, L. J. (1946). A case

study of the split-half reliability coefficient. The Journal of Educational Psychology, 37 (3), 473-480. Cronbach, L. J. (1947). Test “reliability”: its meaning and determination. Psychometrika, 12 (1), 1-16. Cronbach, L. J. (1951). Coefficient alpha and the internal Structure of tests. Psychometrika, 16 (2), 297-334. 304

Brown, W. (1910). Some experimental results in the correlation of mental abilities. British Journal of Psychology, 3 (3), 296-322. Spearman,

C. (1910). Correlation calculated from faulty data. British Journal of Psychology, 3 (2), 271-295.

Ro

iman

Val

bu

ena:

En

cues

ta V

s. E

xpe

rim

ento

. La

Falib

ilid

ad d

e la

s Es

cala

s d

e Li

kert

.

Page 322: La investigación científica avanzada primera edición 2015

321

que esté mal estructurado el cuestionario, que las distribuciones frecuenciales de las respuestas

en sentido positivo, siempre superan a las del sentido negativo. No importa el tipo de afirmación,

es muy común conseguir tales resultados. Una mal asignación de los valores numéricos a los

ítems del test pueden derivar en un coeficiente de correlación negativo. Y para demostrar la

validez de los ítems indiferenciadores, su coeficiente de correlación ha de ser cero. Es decir, esta

magnitud numérica indica que un ítem es respondido de la misma manera por el grupo entero. Lo

que significa que no se están observando diferentes actitudes para el mismo continuo sicológico.

Problema 7, el coeficiente de fiabilidad alfa de Cronbach usado en las escalas Likert es

manipulable con software estadístico, dicho de otra forma, al obtenerse o imitar haber

obtenido305

los datos necesarios para el cálculo de la confiabilidad, basta con variar el nivel de

heterogeneidad de los datos para hacer incrementos en el coeficiente. Problema 8, otro asunto

importante dentro del sistema de escalas Likert, consiste en la cercanía de las afirmaciones:

Totalmente de Acuerdo y Parcialmente de Acuerdo. ¿Cuál es la diferencia absoluta entre

Total y Parcial?306

Su proximidad es tan estrecha que se dificulta conseguir una variación entre

una y la otra. Implicando que al encuestado le da igual contestar a la primera o la segunda, a la

final los 5 puntos de la primera se acercan a los 4 puntos de la segunda.

Así mismo, Problema 9, se ha comprobado sicológicamente que el encuestado al tomar la

opción Nula o Indeciso, tiende a creer que afecta negativamente al tema en cuestión, así como,

intentará parecer más moderado que extremista omitiendo el uso de valores extremos. Esto le

lleva a ubicarse dentro de las dos opciones que representan las partes positivas y negativas.

Ambas opciones, por estar tan cercanas, convierten subjetivamente al cuestionario en

dicotómico307

, pues hace que el encuestado sólo se dedique a contestar positiva o negativamente.

Problema 10, los cuestionarios en general, presentan el serio problema denominado: Efecto

de Regresión Estadística. Para visualizarlo debe recurrirse a los sistemas Pretest y Postest.

Campbell y Stanley (1963), citados en: Arnau, Anguera y Gómez (1990, p. 110-111), afirman

305

Lamentable pero cierto, en Internet es posible conseguir tablas completas con los valores entre 5 puntos y un punto de la escala Likert,

arrojando confiabilidades de hasta 0,96. De hecho, si lo desea, Ud. mismo puede definir el valor de confiabilidad deseado, y sólo posterior a ello es que se proceden a llenar los cuestionarios con los datos sugeridos. 306

Como opción a esta disyuntiva se recomienda el Método del Escalograma de Guttman. Este aporta soluciones al problema de medir la

variable en una sola dirección, como el caso Likert, aquí también se obtiene una escala de entrelazamiento con nivel ordinal. Esta escala es acumulativa y presupone que una respuesta positiva a un ítem, hace pensar que los anteriores también lo han sido. Su diferencia con el método Likert es que sus juicios escalan en intensidad, dicho de otra manera, algunos ítems tienen más fuerza que otros. Allí no se calcula el coeficiente de confiabilidad sino un coeficiente de Reproducibilidad. Donde se calcula también una Reproducibilidad Mínima. El coeficiente de Escalabilidad de Guttman es posible calcularlo posterior a la aplicación del test, así como en pruebas pretest y postest en grupos de control sobre diseños experimentales. Esto no es posible con las Escalas Likert. Su principal ventaja en el caso de esta pregunta, es que permite diferenciar distintas posiciones para un mismo sujeto dentro de la escala, evitando la diatriba de la cercanía entre una opción y otra. Sin embargo, su uso es tan esporádico que es común que lo objeten en las universidades, sobre todo, cuando el tutor o jurado sólo han estado en contacto con las escalas Likert. 307

Renkis Likert recibió su grado de PHD en 1932 en la Universidad de Columbia por este trabajo de las escalas, no obstante, en su tesis

original las escalas eran dicotómicas. Aunque UD. no lo crea.

Ro

iman

Val

bu

ena:

En

cues

ta V

s. E

xpe

rim

ento

. La

Falib

ilid

ad d

e la

s Es

cala

s d

e Li

kert

.

Page 323: La investigación científica avanzada primera edición 2015

322

que los errores ocasionados por no haber tenido en cuenta el efecto de regresión estadística, han

originado muchos problemas… una de las causas más importantes de este efecto recae sobre la

falta de fiabilidad de los cuestionarios. Así, cuanto menor es la correlación entre ambos

cuestionarios o pruebas, mayor será la regresión hacia la media.

Por otro lado, la manera ideal de colocar puntuaciones en esta escala es:

-2: -1: 0: 1: 2

Allí están contenidas todas las opciones, las del lado izquierdo representan el modo correcto

de puntuar el objeto de actitud negativo, y las del lado derecho el modo correcto de los positivos,

el cero no suma ni resta puntos a la escala, así al sumar las opciones de cada lado, en ningún

momento se obtendrán mayores puntuaciones sobre los objetos de actitud positivos. De hacerse

de manera incorrecta, se colocaría mayor puntaje a todo aquel que conteste de manera positiva,

infravalorando los aportes de los que su objeto de actitud es disímil. La gráfica siguiente presenta

mejor las consideraciones.

Modo Incorrecto:

1: Totalmente en Desacuerdo

2: Parcialmente en Desacuerdo

3: Ni de acuerdo ni en Desacuerdo

4: Parcialmente de Acuerdo

5: Totalmente de Acuerdo.

Modo Correcto:

-2: Totalmente en Desacuerdo

-1: Parcialmente en Desacuerdo

0 : Ni de acuerdo ni en Desacuerdo

1: Parcialmente de Acuerdo

2: Totalmente de Acuerdo.

En resumen, a los investigadores se les recomienda usar la encuesta sólo bajo estos dos

supuestos, caso contrario, intente la experimentación:

- Sólo se desea establecer relaciones entre variables mediante observación.

- Se es imposible la manipulación, al menos de las variables independientes.

Es posible conducir encuestas en un laboratorio, así como también es posible llevar a cabo

experimentos en comunidades. Sin embargo recuérdese, una encuesta jamás podrá producir

descubrimientos relevantes ni mucho menos juicios conclusivos del tipo Sintéticos. Todo

experimento persigue: establecer causalidad; cristalizar explicación causal a través de principios

verdaderamente concluyentes y, deducir cierta cantidad de predicciones que puedan sucederse

sobre el fenómeno. Para Popper308

, dar una explicación causal de un acontecimiento implica la

deducción de enunciados que describen al fenómeno basado en premisas deductivas.

Originándose estas en una o varias leyes universales y determinada cantidad de enunciados

308

Aparece en la Primera Edición del Libro: La Lógica de la Investigación Científica. 1991. México. Pp. 57-74.

Ro

iman

Val

bu

ena:

En

cues

ta V

s. E

xpe

rim

ento

. La

Falib

ilid

ad d

e la

s Es

cala

s d

e Li

kert

.

Page 324: La investigación científica avanzada primera edición 2015

323

singulares que hayan sido considerados como condiciones iniciales. Para una explicación causal

completa son necesarios estos dos ingredientes. Las condiciones iniciales describen lo que en

investigación experimental se suele llamar causa, y el efecto309

representa la predicción. A todas

luces imposibles de obtener con una encuesta.

309

La Relación Causa-Efecto como principio es contrapuesta. Todo efecto ha de provenir de una causa que lo justifique, no es posible un efecto

cuya causa se determine imposible, para un mejor entendimiento recomiendo hacer lectura del Principio de No contradicción Lógica en este texto.

Ro

iman

Val

bu

ena:

En

cues

ta V

s. E

xpe

rim

ento

. La

Falib

ilid

ad d

e la

s Es

cala

s d

e Li

kert

.

Page 325: La investigación científica avanzada primera edición 2015

324

BIBLIOGRAFÍA

Alférez, Valentim. (2012). Methods of Randomization in Experimental Design. Series:

Quantitative Applications in the Social Science. Editorial SAGE. EE.UU.

Andrade, Edgar; Cubidez, Pablo; Márquez, Carlos; Vargas, Juliana y Cancino, Diego. (2008).

Lógica y Pensamiento Formal. Ediciones Universidad del Rosario. Bogotá, Colombia.

Aristóteles (1969). Tratados de Lógica. Traducido por: Prof. F. Larroyo. México.

Aristóteles (2006). Tratados de Lógica. El Órganon. Gráficas Modernas. Bogotá Colombia.

Arnau, Jeume. (2001). Diseño de Series Temporales: Técnicas de Análisis. Ediciones de la

Universidad de Barcelona. España.

Arnau, Jaime; Anguera, María y Gómez, Juana. (1990). Metodología de la Investigación en

Ciencias del Comportamiento. Universidad de Murcia. Editorial: Compobell, S.A.

Atocha, Aliseda. (1998). La Abducción como Cambio Epistémico: C.S. Peirce y las Teorías

Epistémicas de la Inteligencia Artificial. Universidad Autónoma de México. Publicado

en la Revista Analogía. Vol. 12. Pps. 125 – 144.

Audi, Robert. (1995). The Cambridge Dictionary of Philosophy.

Ayllón Vega, José. (2007). Filosofía Mínima. Quinta Edición. Editorial Ariel. Barcelona

España.

Azcárraga, José. (1997). Entorno al Conocimiento Científico: Ciencia y Sociedad. Universitat

de Valencia. ISBN: 84-370- 3301-2.

Bannon, Liam. (1991). From Human Factors to Human Actors: The Role of Psychology and

Human Component Interaction Studies in System Design. En: Kyng, Mortem;

Geenbaum, Joan. Design at Work. Laurence Earlbaum Associate, Publisher.

Belfiore, Francesco. (2004). The Structure of the Mind: Outlines of a Philosophical System.

University Press of America.

Belger, Ulrich y Schwichtenberg, Helmut. (1997). Computational Logic. Nato Series:

Computer and System Sciences, Vol. 165.

Berg, Kris y Latin, Richards. (2004). Essentials of Research Methods in Health, Physical

Education, Exercise Science and Recreation. Lippincott William & Wilkins Editores.

Segunda Edición.

Beuchot, Mauricio. (2004). Introducción a la Lógica. Universidad nacional Autónoma de

México.

Bickenbach, Jerome; Davies, Jacqueline. (1997) Good Reasons for Better Arguments: An

Introduction to the Skills and Values of Critical Thinking. Broadview Press. Canadá.

R

oim

an V

alb

uen

a: L

a In

vest

igac

ión

Cie

ntí

fica

Ava

nza

da.

BIB

LIO

GR

AFÍ

A.

Page 326: La investigación científica avanzada primera edición 2015

325

Bravo, Silvia (1997) La Ciencia su Método y su Historia. Universidad Autónoma de México.

Brown, W. (1910). Some Experimental Results in the Correlation of Mental Abilities. British

Journal of Psychology, 3 (3), 296-322.

Brown, James. (1993). The Laboratory of the Mind: Thought Experiments in the Natural

Science. Routledge.

Bugliarello, George. Engineering and Sustainable Development: Fostering Technology,

Innovation and Production. Aparece en: P. J. Bereciartua; G.A. Lemarchand. (2011).

ISTIC-UNESCO-WFEO Workshop on Science, Engineering and Industry: In-

novation for Sustainable Development.

Bunge, Mario. (1985). La Investigación Científica. Editorial Ariel. Madrid.

Bunge, Mario. (1985). Seudociencia e Ideología. Alianza U. Madrid.

Bunge, Mario. (2001). Diccionario de Filosofía. Siglo Veintiuno Editores. México.

Bunge, Mario (2002) Ser, Saber, Hacer. Editorial Paidós Latinoamericana. ISBN: 968-853-484-

6.

Bunge, Mario (2004). La Investigación Científica: Su Estrategia y su Filosofía. Siglo XXI

Editores, Argentina.

Blackburn, Simon. (1996). The Oxford Dictionary of Philosophy. Publicado por: Oxford

University Press.

Blaikie, Norman (2010). Designing Social Research. Polity Press. Cambridge, United

Kingdom.

Calello, Hugo; Neuhaus, Susana; Mónaco, Vincenzo; Hernández, Daniel (2002). Conocimiento

y Desconocimiento en Imaginario Cultural. Fondo Editorial Humanidades y Educación.

Universidad Central de Venezuela.

Calello, Hugo; Neuhaus, Susana. (1999). Método y Antimétodo: Proceso y Diseño de la

Investigación Interdisciplinaria en Ciencias Humanas. Ediciones Colihue, Buenos

Aires Argentina.

Campanario, Miguel. (2004). Científicos que Cuestionan los Paradigmas Dominantes:

Algunas Implicaciones para la Enseñanza de las Ciencias. Revista Electrónica de

Enseñanza de las Ciencias Vol. 3, Nº 3, 257-286.

Carnap, Rudolf. (1995). An Introduction to The Philosophy of Science. Martin Gardner

Editor. Dover Publications. EE.UU.

Carnap, Rudolf. (2002). The Logical Syntax of Language. Traducido por: Amethe Smeaton.

Open Court Publishing.

Carvajal, Álvaro (2006). Disertaciones Filosóficas sobre las Convergencias entre Ciencia y

Tecnología para el Desarrollo, con un Análisis del Caso de Costa Rica. Tesis Doctoral.

Ro

iman

Val

bu

ena:

La

Inve

stig

ació

n C

ien

tífi

ca A

van

zad

a. B

IBLI

OG

RA

FÍA

.

Page 327: La investigación científica avanzada primera edición 2015

326

Universidad Carlos III de Madrid. Disponible en: http://hdl.handle.net/10016/5070

Consultado el 15-12-2011.

Cavaillés, Jean. (1992). Método Axiomático y Formalismo. Servicios Editoriales de la

Universidad Autónoma de México.

Chauvet, Lilian del Valle. (2011). Detección de Alumnos Talentosos en un Área de

Tecnología. Tesis para Optar al Grado de Doctor. Universidad Complutense de Madrid.

ISBN: 978-84-694-1431-6.

Chávez, Nilda (2007). Introducción a la Investigación Educativa. Talleres graficas González,

ISBN: 980-295-068-8. Maracaibo, Venezuela.

Chávez, C. Pedro. (2004). Historia de las Doctrinas Filosóficas. Tercera Edición. Pearson

Education. México.

Cifre, E. y Mateu, J. (1997). Análisis de Series Temporales Largas Mediante S-PLUS para

un Diseño de Sujeto Único. Aparece en: IV Simposio de Metodología de Ciencias del

Comportamiento. García Manuel y López José Coordinadores. Universidad de Murcia.

Ciner, P; Castro, J; Adarvez, M; Espejo, C; Flores, E; Flores, O; Garbarino, M; Inojosa, D;

Mercado, J; Merino, M; Pesce, C; Poblete, M; Podestá, B; Simón, G; Villalonga, S. (2008).

Lo Sagrado: Miradas Contemporáneas. Primera Edición. Editorial de la Facultad de

Filosofía, Humanidades y Artes. Universidad de San Juan. Argentina.

Clarke, D. y Behling, Richard. (1998). An Introduction to Evaluation Techniques and

Logical Theory. Segunda Edición. University Press of America.

Cobalán, Fernando. (2006). Matemática Aplicada a la Vida Cotidiana. Editorial GRAÓ.

Barcelona. España.

Cofré, Alicia y Tapia, Lucila. (2003). Cómo Desarrollar el Razonamiento Lógico

Matemático. Editorial Universitaria. Chile.

Cognitive Patterns in Science and Common Sense. Kuipers, Theo y Mackor, Anne Editores.

Ediciones Rodopi. Atlanta, Georgia. EE.UU.

Cohan, Peter. (1999). Los Líderes en Tecnología. Prentice hall Hispanoamericana, S.A, ISBN:

970- 17- 0209- 3. México.

Cohen, Morris y Nagel, Ernest. (1934). An Introduction to Logic and Scientific Method.

Harcourt, Brace and Company. Inc.

Cohen, Louis; Manion, Laurence y Morrison, Keith. (2007). Research Methods in Education.

Sexta Edición. Editorial: Routledge.

Cooper, Richard; Yule, Peter y Fox, John. (2013). Modeling High – Level Cognitive Processes.

Editorial Psychology Press.

Conferencia Mundial sobre la Ciencia para el Siglo XXI: Un Nuevo Compromiso, reunidos

Ro

iman

Val

bu

ena:

La

Inve

stig

ació

n C

ien

tífi

ca A

van

zad

a. B

IBLI

OG

RA

FÍA

.

Page 328: La investigación científica avanzada primera edición 2015

327

en Budapest (Hungría) del 26 de junio al 1º de julio de 1999, bajo los auspicios de la

Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura

(UNESCO) y el Consejo Internacional para la Ciencia (ICSU). Disponible en

http://www.unesco.org/science/wcs/esp/declaracion_s.htm Consultado el 14-12-2012.

Corona Treviño, Leonel. (1998). Enfoques Económicos de la Tecnología. En: Tecnología:

Conceptos Problemas y Perspectivas. Siglo XXI Editores México.

Creswell, J.W. (2007). Qualitative Inquiry & Research – Choosing Among Five Traditions.

Sage Publications, Thousand Oaks, CA.

Creswell, J.W. (2003). Research design: Qualitative, Quantitative and Mixed Methods. Sage

Publications, Thousand Oaks, CA.

Creswell, John. (2009). Research Design: Qualitative, Quantitative, and Mixed Methods

Approaches. Sage Publications Inc. California. EE.UU.

Creswell, John; Plano, Vicky. (2011). Designing and Conducting Mixed Method Research.

Segunda Edición. Sage Publications.

Cronbach, L. J. (1943). On Estimates of Test Reliability. The Journal of Educational

Psychology, 34 (4), 485-494.

Cronbach, L. J. (1946). A Case Study of the Split-Half Reliability Coefficient. The Journal of

Educational Psychology, 37 (3), 473-480.

Cronbach, L. J. (1947). Test “Reliability”: Its Meaning and Determination. Psychometrika,

12 (1), 1-16.

Cronbach, L. J. (1951). Coefficient Alpha and the Internal Structure of Tests. Psychometrika,

16 (2), 297-334.

Coto, Alberto. (2007). Fortalece² tu Mente. Editorial EDAF. México.

D´Agostino, Salvo. (2001). A History of the Ideas of Theoretical Physics: Essays on the

Nineteenth and Twentieth Century Physics. Editado por: Kluwer Academic Publishers.

Daston, Lorraine y Lunbeck, Elizabeth. (Editoras: 2011). Histories of Scientific Observation.

Chicago Press.

De Gortari, Elí. (1988). Diccionario de la Lógica. México.

De la Vega, Miguel (2002). Problemas de Ingeniería de Puesta a Tierra. Editorial Limusa,

México. Segunda Reimpresión de la Segunda Edición.

Descartes, René. (2007). Discurso del Método. Editorial Maxtor, España.

Detlefsen, Michael (1992). Proof, Logic and Formalization. Editorial Routledge.

Dewey, Joseph. (1854). Logic: of the Science of the Inference. Systematic View of the

Principle of Evidence, and the Methods of Inference in the Various Departments of

Ro

iman

Val

bu

ena:

La

Inve

stig

ació

n C

ien

tífi

ca A

van

zad

a. B

IBLI

OG

RA

FÍA

.

Page 329: La investigación científica avanzada primera edición 2015

328

Human Knowledge. Londres.

Díaz Pérez M, González Pérez M. Propuesta de un sistema interno de propiedad intelectual

como política institucional de información de las universidades cubanas. Estudio de un

caso: la Universidad de Pinar del Río Acimed 2007; 15(6). Disponible en:

http://bvs.sld.cu/revistas/aci/vol15_6_07/aci11607.htm [Consultado: 10/09/2011].

Dictionary of Philosophy. (1996). Grupo Editorial Taylor y Francis. Tercera Edición.

Dimmer, Roger y Dominick, Joseph. (2006). Mass Media Research: An Introduction. Octava

Edición. Editorial Tomson.

Echeverría, Javier. (1998). Filosofía de la Ciencia. Ediciones Akal. Madrid, España.

Edwin H. C. Hung. (2006). Beyond Kuhn: Scientific Explanation, Theory Structure,

Incommensurability and Physical Necessity. Publicado por: Ashgate Publishing Limited.

EE.UU. ISBN: 0- 7546- 5347-1.

Einstein, Albert. (1934). On the Method of Theoretical Physics. Philosophy of Science, Vol. 1,

No. 2. Published by: The University of Chicago Press on behalf of the Philosophy of

Science.

Espíndola, José. (2005). Pensamiento Crítico. Pearson Education. México.

Fernández, Sergio. (1985). Foundations of Objective Knowledge: The Relation of Popper´s

Theory of Knowledge to that of Kant. Robert Cohen editor. Editorial Kluwer: The

Language of Science.

Feyerabend, Paul. Agains Method: Outline of an Anarchistic Theory of Knowledge. Tercera

Edición. British Library.

Fitzgerald, P.F. (1887). A Treatise on the Principle of the Sufficient Reason: A Psychological

Theory of Reasoning, Showing the Relativity of Thought to the Thinker, of

Recognition to Cognition, The Identity of Presentation and Representation, of

Perception and Apperception. Impreso por: Gilbert and Rivington Limited. Londres.

Fourez, Gérard. (2006). La Construcción del Conocimiento Científico: Sociología y Ética de

la Ciencia. Editorial Narcea. Tercera Edición. Madrid, España.

García, Fernando (2007). La Investigación Tecnológica: Investigar, Idear e Innovar en

Ingeniería y Ciencias Sociales. Segunda Edición. Editorial Limusa. México.

Gast, David y Ledford, Jennifer. (2010). Single Subject Research in Behavorial Science.

Editorial Routledge.

Gauch, Hugh ((2003). Scientific Method in Practice. University of Cambridge.

Geertz, Clifford. (1973). The Interpretation of the Cultures. New York Basic Books. Editorial

Gedisa 1976. Septima Edición.

Ro

iman

Val

bu

ena:

La

Inve

stig

ació

n C

ien

tífi

ca A

van

zad

a. B

IBLI

OG

RA

FÍA

.

Page 330: La investigación científica avanzada primera edición 2015

329

Geofrey, Guillaumin. (2005). El Surgimiento de la Noción de Evidencia: Un Estudio de

Epistemología Histórica sobre la Idea de Evidencia Científica. Universidad Autónoma de

México.

Gimbel, Steven. (2011, Compilador). Exploring the Scientific Method: A New Approach to

Teaching and Learning Philosophy of Science. The University Chicago Press.

Gilbert, John y Reiner, Miriam. (2000, p. 265-283). Thought Experiments in Science

Education: Potential and Current Realization. International Journal of Science Education

ISSN 0950-0693 print/ISSN 1464-5289 online#2000 Taylor & Francis Ltd.

http://www.tandf.co.uk/journals/tf/09500693.html

Glannon, Walter. (2011). Brain, Body and Mind: Neuroethics with a Human Face. Editorial

Oxford University Press.

Goldenberg, Jacob; Han, Sangman; Lehmann, Donald. (2010). The Social Hub: The Key to

Network Processes. En: Wuyts, Stefan; Dekimpe, Marnik; Gijsbrechts y Pieters, Rik.

Editores. The Connected Customer: The Changing Nature of Consumer and Business

Market. Editorial Routledge.

Goldrei, Derek. (2005). Propositional and Predicate Calculus: A Model of Argument.

Editorial Springer.

Govier, Trudy. (2010). A Practical Study of Argument. Editorial Wadsworth. EE.UU.

Gower, Barry. (2002). Scientific Method: an Historical and Philosophical Introduction.

Editorial Routledge, Londres y New York.

Gravetter, Frederick; Forzano, Lori. (2012). Research Methods for the Behavorial Sciences.

Wadsworth Cengage Learning. Cuarta Edición.

Grayeff, Felix. (1970). Kant´s Theoretical Philosophy: A Commentary of a Central Part of

the Critique of Pure Reason. Traducido por: David Walford. Manchester University Press.

Griffiths, M.D. (1997). Technological addictions: Looking to the future. Artículo presentado

en la 105th Annual Convention of the American Psychological Association, Chicago,

Illinois.

Guerrero Jara, Salvador. (2010). El Ocaso de la Certeza: Diálogo entre las Ciencias y las

Humanidades. Fondo Editorial Morevallado. México.

Gustav, Ranis y Frances Stewart (2002) ―Crecimiento Económico y Desarrollo Humano en

América Latina‖. En: Comisión Económica para América Latina y el Caribe CEPAL.

Revista 78, Diciembre 2002, pp. 7-24.

Hanneman, Roberta; Kposowa, Augustine y Riddle, Mark. (2013). Basic Statistical for Social

Research. Editorial John Wiley & Sons.

Heidegger, Martin. (1996). The Principle of Reason. Traducido por: Reginald Lilly. Indiana

University Press.

Ro

iman

Val

bu

ena:

La

Inve

stig

ació

n C

ien

tífi

ca A

van

zad

a. B

IBLI

OG

RA

FÍA

.

Page 331: La investigación científica avanzada primera edición 2015

330

Heidelberger, Michael y Schiemann, Gregor. Editores. (2009). The Significance of the

Hypothesis in the natural Science. Editorial Walter de Gruyter GMBH & CO. Berlin,

Alemania.

Heijenoort, Jean Van. (1967). From Freege to Godel: A Source Book in Mathematical Logic.

1879-1931. Library of Congress. EE.UU.

Hernández, Roberto; Fernández, Carlos, Baptista, Lucio. (2010). Metodología de la

Investigación. Quinta Edición. McGraw Hill Interamericana.

Höffe, Otfried. (2001). Breve Historia de la Filosofía. El Mundo de las Ideas a Través de 180

Imágenes. Traducido por: Luis Gil Aristu. Ediciones Península. Barcelona, España.

Hoopner, Frank (1999). Fuzzy Cluster Analysis: Methods for Classification, Data Analysis

and Image Recognition. John Wiley & Sons.

Hughes, William y Lavery, Jonathan. (2008). Critical Thinking and Introduction to the Basic

Skills. Broadview Press. Quinta Edición.

Hurley, Patrick. (2008). A Consice Introduction to Logic. Décima Edición. Editorial Thomson.

Hurtado y Toro. (2007). Paradigmas y Métodos de Investigación en Tiempos de Cambio.

Editorial CEC, c.a. Colección de Libros El Nacional. Caracas, Venezuela.

Jackson, Sherri. (2012). Research Methods and Statistics: A Critical Thinking Approach.

Editorial Wadsworth Cencage Learning.

Johnston, Jane. (2005). Early Explorations in Science. McGraw Hill.

Jonker, Jan; Pennik, Bartjan. (2010). The Essence of Methodology: A Consice Guide for

Master and PHD Students in Management Science. Editorial Springer.

Joseph, Ellis. (2003). Handbook of Research on Catholic Higher Education. Editado por:

Hunt, Thomas; Nuzzi, Ronald; Joseph, Ellis y Geiger, Jhon. Catholic University and

College. EE.UU.

Justus Von Liebig. (1867). El Desarrollo de las Ideas en Las Ciencias Naturales e

Importancia de la Inducción y la Deducción en las referidas Ciencias. Traducido por:

D.R.T.M de Luna. Catedrático de Química General en la Universidad Central. Madrid

España.

Kant, Immanuel. (1819). The Logic. Impreso por: Simpkin, W. y Marshall, R. Stationers Court.

Londres, Inglaterra.

Kant, Immanuel. (1997). Crítica a La Razón Pura. Traducido por: Pedro Ribas. Editorial

Taurus. Series: Pensamientos.

Kant, Immanuel. (2000). Lógica: Acompañada de una Selección de Reflexiones sobre el

Legado de Kant. Editorial Akal.

Readings of the Philosophy of Technology. (2009). David Kaplan. Editor.

Ro

iman

Val

bu

ena:

La

Inve

stig

ació

n C

ien

tífi

ca A

van

zad

a. B

IBLI

OG

RA

FÍA

.

Page 332: La investigación científica avanzada primera edición 2015

331

Kiefer, Claus. (2012). Quantum Gravity. Tercera Edición. Oxford Science Publications.

Kirkpatrick, Larry; Francis, Gregory. (2007). Physics: A World View. Editorial Thomson. Sexta

Edición.

Kothari, C.R. (2006). Research Methodology: Methods and Techniques. New Age

International Publishers. Segunda Edición.

Kosso, Peter. (2011). A Summary of Scientific Method. Editorial Springer.

Kowalski, Robert. (2011). Computational Logic and Human Thinking: How to be an

Artificially Intelligent. Cambridge University Press.

Kuehl, Robert. (2001). Diseño de Experimentos: Principios Estadísticos de Diseño y Análisis

de Investigación. Editorial: Thompson. Segunda Edición.

Kuhn, Thomas. (1970). La Estructura de las Revoluciones Científicas. Traducción al

Castellano: Agustín Contín. México, 1987.

Kuipers, Theo. (2001). Structures in Science: Heuristic Patterns Based on Cognitive

Structures an Advanced Textbook in Neo – Classical Philosophy of Science. Kluwer

Academic Publishers.

Langer, Sussane. (1967). An Introduction to Symbolic Logic. Tercera Edición Revisada.

Courier Dover Publications.

Lara Rosano, Felipe; Casalet, Mónica; Corona Treviño, Leonel; Díaz de Cosío, Roger; Lara,

Nidia; López Ortega, Eugenio; Mulás, Pablo. (1998). Tecnología: Conceptos Problemas y

Perspectivas. Siglo XXI Editores México.

Larson, Charles. (2010). Persuasion: Reception and Responsiblity. Doceava Edición. Cencage

Learning. EE.UU.

Lakatos, Imre. La Metodología de los Programas de Investigación Científica. Alianza.

Madrid. 1989.

Lakatos, Imre. La Metodología de los Programas de Investigación Científica. Alianza.

Madrid. 1993.

Lazlo, Erwin. (2003). The Connectivity of Hypotheses: Foundations of an Integral Science of

Quantum, Cosmos, Life a Consciousness. New York University.

Le Blond, J. M. (1973). Logique et Methode Chez Aristotele. Tercera Edición, Vrin. Paris.

Lefebvre, Henry. (2006). La Lógica Formal, La Lógica Dialéctica. Siglo Veintiuno Editores.

México.

Lindstron, B; Morton, F; Ottoson, T. y Laurillard, D. (1993). Computer Simulation as a Tool

for Developing Intuitive and Conceptual Understanding in Mechanics. Computer in

Human Behavior 9. (263 – 281).

Ro

iman

Val

bu

ena:

La

Inve

stig

ació

n C

ien

tífi

ca A

van

zad

a. B

IBLI

OG

RA

FÍA

.

Page 333: La investigación científica avanzada primera edición 2015

332

Locke, John. (1999). Ensayo sobre el Entendimiento Humano. Fondo de Cultura Económica

de México.

Lombraña, Julián. (1989). Historia de la Lógica. Prólogo de Gustavo Bueno Martínez.

Universidad de Oviedo. España.

Longair, Malcolm. (2003). Theoretical Concepts in Physics: An Alternative View of

Theoretical Reasoning in Physics. Editado por: The Press Syndicate of the University of

Cambridge. Segunda Edición.

López, A. (1995). La Comunicación y la Hermenéutica. En: Inter Alia Hermenéutica;

Universidad Nacional Autónoma de México; Escuela Nacional de Estudios Profesionales

(Acatlán, México (Estado)), Universidad Nacional Autónoma de México; Dirección General

de Asuntos del Personal Académico. Seminario de Hermenéutica y Ciencias del Espíritu.

Martínez, María Antonia. (2006). Biblioteca de Recursos Electrónicos de Humanidades. E-

Excellence: para red de comunicación e internet. Liceus, Servicios de Gestión y

Comunicación, S.L. Madrid, España.

Martín Mateo, Nicomedes. (1862). El Espiritualismo. Tomo II. Universidad Complutense.

Madrid, España.

Martínez Miguélez, Miguel. (1991). El Paradigma Emergente. Barcelona, Gedisa. Vol. 29

(Límites de la Ciencia) 1993.

Mausan y Andrey Kolobov. (2012). Planning with Markov Desition Processes: An IA

Perspective. Morgan & Claypool Publishers.

McDaniel, Carl y Gates, Roger. (1998). Marketing Research Essentials. Segunda Edición.

International Publishing Thompson.

McClellan, J; Dorn, H. (2006). Science and Technology in World History: and Introduction.

Impreso por The Johns Hopkins University Press.

Mertens, Donna. (2008). Mixed Methods and the Politics of Human Research: The

Transformative – Emancipatory Perspective. Thousand Oaks, Sage Publications.

Miaja de la Peña, Concepción. (2001). Lógica. Editorial Pax México. Impreso en Colombia.

Mill, Jhon Stuart. (1858). A System of Logic: Ratiocinative and Inductive. Being a

Connected View of the Principles of Evidence and the Methods of Scientific

Investigation. Harper & Brother Publishers.

Miranda Alonso, Tomás. (2000). El Juego de la Argumentación. Ediciones de la Torre.

Madrid, España.

Mónaco, Vincenzo. (2002). La Falsa Disyuntiva entre lo Cualitativo y lo Cuantitativo en la

Investigación. En: Calello, Hugo; Neuhaus, Susana; Mónaco, Vincenzo; Hernández, Daniel.

Conocimiento y Desconocimiento en el Imaginario Cultural. Fondo Editorial

Humanidades y Educación. Universidad Central de Venezuela.

Ro

iman

Val

bu

ena:

La

Inve

stig

ació

n C

ien

tífi

ca A

van

zad

a. B

IBLI

OG

RA

FÍA

.

Page 334: La investigación científica avanzada primera edición 2015

333

Morano, Daniel. (2011). Education: Engineers for a Better Future. Aparece en: ISTIC-

UNESCO-WFEO Workshop on Science, Engineering and Industry: Innovation for

Sustainable Development.

Moreno Villa, Mariano. (2003). Filosofía. Vol. I. Filosofía del Lenguaje, Lógica, Filosofía de

la Ciencia y Metafísica. Editorial MADRID. SRL, España.

Moore, Gary. (1997). Advances in Environment, Behavior and Design. Toward The

Integration of Theory, Methods, Research and Utilization. Volumen 4. Editado por:

Moore, Gary; Maraws, Robert. Plenum Press. New Work. EE.UU.

Morillo, Diego. (2001). René Descartes: De Omnibus Dubitatum. Editorial Edaf. España.

Moskowitz, Clara. (2008). How Tell if you are Addicted to the Technology. Disponible en:

http://www.livescience.com/9556-addicted-technology.html

Mosterin, Jesús. (2004). Lógica y Teoría de Conjuntos. Aparece en: Orayen, Raúl y Moretti,

Alberto, Editores. Filosofía de la Lógica. Editorial Trotta. Madrid, España.

Muchinsky, Paul. (2002). Psicología Aplicada al Trabajo: Una Introducción a la Psicología

Organizacional. Sexta Edición. Cengage Learning Editores.

Mulás, P. (1998). La Tecnología en los Desarrollo Social y Económico. En: Tecnología,

Conceptos, Problemas y Perspectivas. Siglo XXI Editores. México.

Mungaray, A. (2001). La Educación Superior y el Mercado de Trabajo Profesional. Revista

Electrónica de Investigación Educativa, 3 (1). Consultado el 27 de Marzo de 2011 en:

http://redie.uabc.mx/vol3no1/contenido-mungaray.html

Nagy, Sharlene; Biber, Hesse. (2010). Mixed Methods Research: Merging Theory with

Practice. The Guildford Press. EE.UU.

Newman, Isadore y Benz, Carolyn. (1998). Qualitative – Quantitative Research

Methodology: Exploring the Interactive Continuum. The Board of Trustees. Illinois

University. EE.UU.

Norton, John. (2013). Chasing the Light. Aparece en: Tought Experiments in Science,

Philosophy and the Arts. Editado por: Frappier, Melanie; Meynell, Letitia y Brown, James.

Routledge: Studies of Philosophy of Science.

Norris, J.R. (1997). Markov Chains: Cambridge Series in Statistical and Probabilistic

Mathematics. Cambridge University Press.

Ortega, Claudia. (2000) La Investigación Tecnológica en la Universidad Autónoma del

Estado de México. Colección Biblioteca de la Educación Superior. ISBN: 968-7798-99-8.

Palma, J.T; Marín, R; Sánchez, J:L y Palacios, F. A Model- Based Temporal Abductive

Diagnosis Model for an Intensive Coronary Care Unit. Aparece en: Fuzzy Logic in

Medicine (2002). Editado por: Barro, Senen y Marin, Roque. Universidad de Santiago de

Compostela, España. Ediciones Springer.

Ro

iman

Val

bu

ena:

La

Inve

stig

ació

n C

ien

tífi

ca A

van

zad

a. B

IBLI

OG

RA

FÍA

.

Page 335: La investigación científica avanzada primera edición 2015

334

P. J. Bereciartua; G.A. Lemarchand. (2011). ISTIC-UNESCO-WFEO Workshop on Science,

Engineering and Industry: Innovation for Sustainable Development.

Pavsic, Matej. (2001). The Landscape of Theoretical Physics: A Global View. From Point

Particles to the Brane World and Beyond, in Search of Unifying Principle. Kluwer

Academic Publishers.

Pearl, Judea. (2000). Causality: Models, Reasoning and Inference. Cambridge University

Press.

Pearson, Karl. (1900). The Grammar of Science. Adam & Charles Black Editores. Londres.

Piaget, Jean. (1997). Estudios de Sicología Genética. Emecé editores. Buenos Aires.

Piquer, Andrés. (1781). Lógica. Tercera Edición, Madrid, España.

Poincaré, Henri. (2007). Science and Hypothesis. Editorial: Cosimo. Inc.

Popper, Karl, (1959) On the use and misuse of imaginary experiments: Especially in

Quantum Theory. In The Logic of Scientific Discovery, Editorial Hutchinson. Londres.

Popper, Karl. (1963a). Conjectures and Refutations. Londres. Routledge and Kegan Paul.

Popper, Karl. (1972). Objective Knowledge: An Evolutionary Approach. Oxford University

Press.

Popper, Karl. (Reimpresión 1980). La Lógica de la Investigación Científica. Traducido por:

Victor Sánchez de Zabala. Editorial Tecnos. Madrid, España.

Popper, Karl. (2006). Escritos Selectos. David Miller Compilador. Fondo de Cultura Económica

de México.

Pratt, John W; Raiffa, Howard y Schlaifer, Robert. (2001). Introduction to Statistical Decision

Theory. Massachusetts Institute of Technology.

Putnam, Hilary. (1998). Reason, Truth and History. Cambridge University Press.

Putnam, Hilary. (2005). Series: Contemporary Philosophy in Focus. Editado por: Yemima

Ben Menahem. Cambridge University Press.

Quintanilla, Miguel. (2005). Tecnología: Un Enfoque Filosófico y otros Ensayos de Filosofía

de la Tecnología. Primera Edición. Fondo de Cultura Económica. México.

Radaña, Manuel. (2003). David Hilbert, Hermann Minkowski, la Axiomatización de la

Física y el Problema número seis. Departamento de Filosofía y Lógica, Universidad de

Sevilla. La Gaceta de la RSME. Vol. 6.3. P (641-664).

Randall, Herman Jr. (1992). The Development of Scientific Method in the School of Padua.

Aparece en: Renaissance Essays: From the Journal of the History of the Ideas. Editado

Ro

iman

Val

bu

ena:

La

Inve

stig

ació

n C

ien

tífi

ca A

van

zad

a. B

IBLI

OG

RA

FÍA

.

Page 336: La investigación científica avanzada primera edición 2015

335

por: Kristeller, Paul; Wiener, Philip y Connel, William. University of Rochester Press.

Rinaldi, Silvia. (2003). El Kybalion y la Ciencia. Editorial Kier. Argentina.

RINCON CASTILLO, Élita Luisa. Sistema nacional de Ciencia, Tecnología e Innovación en

Venezuela. Opción. [Online]. dic. 2009, vol.25, no.60 [citado 17 Septiembre 2011], p.55-

67. Disponible en la World Wide Web:

<http://www.scielo.org.ve/scielo.php?script=sci_arttext&pid=S1012-

15872009000300005&lng=es&nrm=iso>. ISSN 1012-1587.

Rossi, Paolo. (1978). Francis Bacon: From Magic to Science. Traducido por: Sacha

Rabinovitch. Editorial Chicago Press University.

Rubin, Allen; Babbie, Earl. (2013). Essential Research Methods for Social Work.

Empowerment Series. Tercera Edición.

Russell, Stuart y Norvig, Peter. (2004). Inteligencia Artificial: Un Enfoque Moderno. Segunda

Edición. Pearson Education. Madrid, España.

Russell, Bertrand y Whitehead, Alfred. (1910-1912-1913). Principia Mathematica.

Salkind, Neil. (1999). Métodos de Investigación. Prentice Hall, Inc. Tercera Edición.

Sanguinetti, Juan. (2005). El Conocimiento Humano: Una Perspectiva Filosófica. Colección

Albatros. Impreso en Artes Gráficas Ansos. Madrid, España.

Santiago Ramón y Cajal. (1999). Reglas y Consejos sobre Investigación Científica. Consejo

Superior de Investigaciones Científicas. Madrid, España.

Sevilla, Consuelo; Ochave, Jesús; Punsalan, Twila; Regala, Bella y Uriarte, Gabriel. (2007).

Research Methods. Versión Original 1992. Tomado de Revisión actualizada. Impreso por:

Rex Print Company.

Sidman, Murray. (1960). Tactics of Scientific Research: Evaluating Experimental Data in

Psychology. New York Basic Books.

Schiffman, León y Kanuk, Leslie. (2005). Comportamiento del Consumidor. Octava Edición.

Pearson Education.

Sincák, Peter; Vascák, Ján; Kvasnicka, Vladimir; y Mesiar, Radko. Editores. (2000). Advances

in Soft Computing: The State of Art in Computational Intelligence. Slovac University of

Technology Bratislava. República de Eslovenia. Editorial Springer.

Spearman, C. (1910). Correlation Calculated from Faulty Data. British Journal of

Psychology, 3 (2), 271-295.

Spencer, Herbert; Fawcett, Henry; y Harrison, Frederick. (2007). John Stuart Mill; His Life

and Works. The Echo Library.

Spielvogel, Jackson. (2004). Civilizaciones de Occidente. Volumen B. Quinta Edición.

Ro

iman

Val

bu

ena:

La

Inve

stig

ació

n C

ien

tífi

ca A

van

zad

a. B

IBLI

OG

RA

FÍA

.

Page 337: La investigación científica avanzada primera edición 2015

336

Editorial Tomson.

Srinagesh, K. (2006). The Principles of Experimental Research. Elsevier.

Stack, George. (2005). Nietzsche´s Anthopic Circle: Man, Science and Myth. University of

Rochester Press. EE.UU.

Stock, George. (1888). Deductive Logic. Oxford University. Longmans, Green & Co. Editores.

Strauss, Anselm. La investigación es trabajo duro, siempre está ligada a cierta dosis de

sufrimiento. De ahí que por otro lado, deba ser entretenida, divertida. Fórum:

Qualitative Social Research. Volumen 5, No. 3, Art. 22 – Septiembre 2004. Disponible en:

http://www.qualitative-research.net/index.php/fqs/article/view/562/1221

Spirtes, Peter; Glymour, Clark y Scheines, Richard (2000). Causation, Prediction and Search.

Segunda Edición. Massachusetts Institute of Technology.

Soyarslan, Sanem. (2011). Reason and Intuitive Knowledge in Spinoza Ethics: Two Ways of

Knowing, Two Ways of Living. Departamento de Filosofía de la Universidad de Duke.

Suppes, Patrick. (1999). Introduction to Logic. Publicado por: Van Nostrand Publishers.

EE.UU.

Teddlie, Charles; Tashakkori, Abbas. (2009). Foundations of Mixed Methods Research:

Integrating Quantitative and Qualitative Approaches in the Social and Behavioral

Sciences. Editorial Springer. EE.UU.

Thagard, Paul y Cameron, Shelley. (1997). Abductive Reasoning: Logic, Visual Thinking,

and Coherence. Departamento de Filosofía de la Universidad de Waterloo. Ontario,

Canadá.

The MIT Encyclopedia of Cognitive Sciences. (1999). The MIT Press. Cambridge

Massachusetts. Wilson, Roberts y Keil, Frank editores. Londres Inglaterra.

The Philosophy of Science: An Encyclopedia. (2006).Volumen 2. N – Z. Sarkar, Sahotra y

Pfeifer, Jessica. Editores. Editorial Routledge.

Tiberghien, Andreé. Construction of Prototypical Situations in Teaching the Concept of

Energy. En: Research in Science Education in Europe: Current Issues and Themes.

Welford, Geoff; Osborne, Jonathan; y Scott, Phil. Editores. Impreso por: Biddles L.T.D.

Gran Bretaña.

Torres, Carlos. (1999). Los Sistemas Formales. Universidad Nacional Autónoma de México.

Valderrama, Carlos. (2000). Comunicación – Educación: Coordenadas, Abordajes y

Travesías. Fundación Universidad Central, Departamento de Investigaciones. Siglo del

Hombre Editores. Santa Fe de Bogotá, Colombia.

Vaze Shilpa Arun (2007). Integrated Formulation Solution Design Scheme for Nonlinear

Multidisciplinary Systems Using the Mixed Models Platform. Kansas State University.

Ro

iman

Val

bu

ena:

La

Inve

stig

ació

n C

ien

tífi

ca A

van

zad

a. B

IBLI

OG

RA

FÍA

.

Page 338: La investigación científica avanzada primera edición 2015

337

Vogt, Paul; Gardner, Diane y Haeffele, Lynne. (2012). When to Use What Research Design.

Editorial The Guildford Press.

Vogt, Paul y Johnson, Burke. (2011). Dictionary of Statistic & Methodology: A Nontechnical

Guide for the Social Science. Sage Publications.

Wang, Zhenyuan y Klir, George. (1999). Fuzzy Measure Theory. Plenun Publishing Corp. New

York.

Westholm, Gunnar. (1995). Recent Developments in International Science and Technology

Personnel Data Collection. Aparece en: Carrers in Science and Technology: an

International Perspective. National Academic Press, Washington EE.UU.

Whewell, William. (1840). Aphorisms Concerning Ideas, Science and the Language of

Science. Harrison & Company Printers. Londres, Inglaterra.

Wilhelm, Dilthey. (2000). Dos Escritos sobre Hermenéutica: y los Esbozos para una Crítica

a la Razón Histórica. Traducido por: Antonio Gómez Ramos. Ediciones Itsmo, Madrid,

España.

Yin, Robert. (2009). Case Study Research: Design Methods. Cuarta Edición. Sage

Publications.

Yuni, José; Urbano, Claudio. (2005). Mapas y Herramientas para Conocer la Escuela:

Investigación Etnográfica e Investigación Acción. 3ra Edición. Editorial Brujas. Impreso

en Argentina.

ZABATTA GALGANO, Vincenzina. Primeras reflexiones sobre un modelo general de

desarrollo tecnológico. Investigación y Postgrado. [Online]. Ago. 2008, vol.23, no.2

[citado 17 Septiembre 2011], p.433-445. Disponible en la World Wide Web:

<http://www.scielo.org.ve/scielo.php?script=sci_arttext&pid=S1316-

00872008000200016&lng=es&nrm=iso>. ISSN 1316-0087.

Zimmermann, H.J. (2001). Fuzzy Set Theory: and It´s Applications. Cuarta Edición. Kluwer

Academic Publishers.

Ro

iman

Val

bu

ena:

La

Inve

stig

ació

n C

ien

tífi

ca A

van

zad

a. B

IBLI

OG

RA

FÍA

.

Page 339: La investigación científica avanzada primera edición 2015

338

La Investigación Científica Avanzada.