175
ALTERNATIVAS TEORICAS EN PERCEPCION: RAICES ORIGENES Y ACTUALIDAD J. Antonio Aznar Casanova Fecha de publicación: 1991 Lugar: Valencia Editorial: Nau Llibres

Aznar Alternativas Teoricas en Percepcion Raic

Embed Size (px)

DESCRIPTION

Percpeción

Citation preview

Page 1: Aznar Alternativas Teoricas en Percepcion Raic

ALTERNATIVAS TEORICAS EN PERCEPCION:

RAICES ORIGENES Y ACTUALIDAD

J. Antonio Aznar Casanova Fecha de publicación: 1991 Lugar: Valencia Editorial: Nau Llibres

Page 2: Aznar Alternativas Teoricas en Percepcion Raic

2

A quienes no pueden VER con CLARIDAD

Page 3: Aznar Alternativas Teoricas en Percepcion Raic

3

Indice Capítulo I: Reflexiones epistemológicas sobre la percepción…. 9

1.1. INTRODUCCION GENERAL…………………………… 9 1.2. ORGANIZACION DEL CONTENIDO………………………….15

Capítulo II: Raíces filosóficas: teorías del conocimiento….…….21 2.1. INTRODUCCION…………………………………………….21 2.2. EL PENSAMIENTO GRIEGO………………………………22 2.3. EL PENSAMIENTO MEDIEVAL …………………………..24 2.4. EL RACIONALISMO CARTESIANO …………………….. 24 2.5. EL EMPIRISMO-ASOCIACIONISMO……………………..26 2.6. EL IDEALISMO TRANSCENDENTAL Y LA FILOSOFIA ALEMANA DEL XIX……………………………………………....30 2.7. LA FENOMENOLOGIA……………………………………...31

Capítulo III: Orígenes científicos de la psicología y estudio de la percepción……………………………………………………………………………….…33

3.1. INTRODUCCION…………………………………………33 3.2. LA PSICOFISIOLOGIA DEL XIX……………………….34 3.3. LA PSICOLOGIA SENSORIAL DEL XIX…………….. 36

A) VISION………………………………………………………………36 B) AUDICION……………………………….……………………….. 36 C) TACTO……………………………………………………………... 37

3.4. INFLUENCIA DE LA ASTRONOMIA: LA ECUACION PERSONAL………………………………………………………. 38

Capítulo IV: Nace la psicología en el terreno de perceptivo……..39 4.1. INTRODUCCION................................................................... 39 4.2. GUSTAV THEODOR FECHNER (1801-1877)……….…… 39 4.3. HERMAN VON HELMOLTZ (1821-1894)………………….. 41 4.4. WILHELM WUNDT (1832-1920)………………..……………42

Capítulo V: Primeros desarrollos teórico-metodológicos: el modelo psicofísico y la fenomenología……………………………….……………….. 47

5.1. PSICOFISICA: CONCEPTO Y OBJETIVO…………………47 5.2. EL MODELO DE LA PSICOFISICA CLASICA……………. 48 5.3. LA MEDIDA DE LA SENSACION: LOS UMBRALES……..49 5.4. METODOS PSICOFISICOS CLASICOS……………………51 5.5. LAS ESCALAS PSICOFISICAS…………………………….. 52 5.6. DE LA PSICOFISICA CLASICA A LA CONTEMPORANEA……..53 5.7. DE LA FENOMENOLOGIA FILOSOFICA A La EXPERIMENTAL..54

Capítulo VI: La dicotomía teórica de base dualista………………. 57 6.1. INTRODUCCION…………………………………………….. 57 6.2. EL ESTRUCTURALISMO……………………………………59

Page 4: Aznar Alternativas Teoricas en Percepcion Raic

4

6.3. LA PSICOLOGIA DE LA GESTALT………………………...60 6.4. OTROS ASOCIACIONISMOS………………………………62

Capítulo VII: Reacciones teóricas frente al conductismo……………... 67 7.1. INTRODUCCION 67 7.2. TEORIA DEL CAMPO SENSORIO-TONICO 69 7.3. TEORIA DEL NIVEL DE ADAPTACION 70 7.4. TEORIA DEL FUNCIONALISMO PROBABILISTICO 71 7.5. TEORIA TRANSACCIONALISTA 72 7.6. TEORIA DEL ESTADO DIRECTIVO Y LAS EXPECTATIVAS 74

Capítulo VIII: Procesamiento de información 79 8.1. INTRODUCCION 79 8.2. MODELOS DE PROCESAMIENTO SERIAL 81 8.3. DISTINCIONES CONCEPTUALES MODELOS DE PROCESAMIENTO 86 8.4. MODELOS DE PROCESAMIENTO EN PARALELO 88 8.5. MODELOS DE PROCESAMIENTO EN LECTURA 92 8.6. EL MODELO DEL LOGOGEN: MODELO DE INTEGRACION DE INFORMACION SENSORIO-COGNITIVA 94 8.7. PROCESAMIENTO DE INFORMACION: METODOS DE REGISTRO DE DATOS 96

Capítulo IX: Psicología cognitiva y ciencia cognitiva 99 9.1. INTRODUCCION 99 9.2. DE LA CIBERNETICA A LA INTELIGENCIA ARTIFICIAL 102 9.3. TEORIA DE LA VISION DE D. MARR 105 9.4. SISTEMAS DE PROCESAMIENTO PARALELO MASIVO DISTRIBUIDO (PDP) 109 9.5. VISION ELECTRONICA VERSUS VISION HUMANA 110

Capítulo X: Neurociencia cognitiva 115 10.1. INTRODUCCION 115 10.2. ANTECEDENTES HISTORICOS 116 10.3. LA SINTESIS INTEGRADORA DE D.O. HEBB: UNA TEORIA NEUROFISIOLOGICA DE LA PERCEPCION 118 10.4. ANALIZADORES DE CARACTERISTICAS 119 10.5. DIFERENCIAS INTERHEMISFERICAS 120 10.6. LA ANALOGIA DEL HOLOGRAMA DE PRIBRAM 122 10.7. METODOS DE REGISTRO ELECTROFISIOLOGICO 122

Capítulo XI: La perspectiva ecológica en percepción 128 11.1. INTRODUCCION 128 11.2. OPTICA ECOLOGICA: TEORIA DE LA PERCEPCION DIRECTA 128 11.3. LA TEORIA CONSTRUCTIVISTA DE U. NEISSER 132

Capítulo XII: Taxonomía de las teorías de la percepción 137 12.1. INTRODUCCION 137 12.2. ASPECTOS QUE CARACTERIZAN LA PERCEPCION HUMANA 138

12.2.1. PREFERENCIA ANTE LA AMBIGÜEDAD 139 12.2.2. CONSTANCIA Y VERACIDAD PERCEPTUAL 140 12.2.3. EFECTOS DEL CONTEXTO EN LA PERCEPCION 140

Page 5: Aznar Alternativas Teoricas en Percepcion Raic

5

12.2.4. ORGANIZACION O ESTRUCTURA PERCEPTIVA 140 12.2.5. INTERACCION SENSORIO-COGNITIVA 141 12.2.6. PERCEPCION DEMORADA 141 12.2.7. INTERDEPENDENCIAS PERCEPTUALES 141

12.3. CLASIFICACION DE LAS TEORIAS DE LA PERCEPCION 142 12.3.1. TEORIAS DEL ESTIMULO 142 12.3.2. TEORIAS CONSTRUCTIVISTAS 144

12.3.2.1. TEORIAS DE LA INTERACCION ESPONTANEA 144 12.3.2.2. TEORIAS COGNITIVAS 145

12.3.3. COMPARACION DE LAS DOS TEORIAS CONSTRUCTIVAS 146

CAPITULO XIII: La atención en el procesamiento perceptivo 149 13.1. Introducción 149 13.2. Procesos automáticos versus procesos controlados 151 13.3. LA INTERACCION SENSORIO COGNITIVA: PROCESAMIENTO GUIADO POR LOS DATOS VERSUS GUIADO CONCEPTUALMENTE 153 13.4. LA PRECEDENCIA PERCEPTIVA: GLOBAL VERSUS LOCAL 155

13.4.1. ORIGEN DEL DEBATE 155 13.4.2. ESTADO ACTUAL DE LA CUESTION 157

13.5. TEORIA DE LA INTEGRACION DE CARACTERISTICAS 160

Capítulo XIV: Las teorías de esquemas 163 14.1. INTRODUCCION 163 14.2. ORIGEN Y DEFINICIONES 164 14.3. CARACTERISTICAS Y ELEMENTOS DEL ESQUEMA 167 14.4. MULTIFUNCIONALIDAD DE LOS ESQUEMAS Y AREAS DE APLICACION 168 14.5. CONTENIDOS REPRESENTADOS POR LOS ESQUEMAS 170 14.6. LA TEORIA DE ESQUEMAS 172

Capítulo XV: Marcos perceptuales (frames) 175 15.1. DEFINICION DE TERMINOS 175 15.2. EXPLORACION DE ESCENAS 176 15.3. IDENTIFICACION DE ESCENAS VERSUS RECONOCIMIENTO 178 15.4. VARIABLES QUE INFLUYEN EN EL RECONOCIMIENTO 179 15.5. MARCOS PERCEPTUALES 180

Bibliografía 183

Page 6: Aznar Alternativas Teoricas en Percepcion Raic

6

Capítulo I: Reflexiones epistemológicas sobre la percepción

"Gran número de cuestiones filosóficas, en realidad son sólo cuestiones científicas que la ciencia no sabe todavía como resolver". (Bertrand Russell, 1.960)

1.1. INTRODUCCION GENERAL En la especie humana existe la necesidad de conocer el mayor número de cosas con el máximo

grado de certeza posible, para lograr una adaptación exitosa al medio, natural, social y cultural. El

conocimiento ha sido y es la preocupación básica de toda filosofía, desde las antiguas concepciones

griegas hasta nuestros días; sin embargo, hasta E. Kant no se constituyó la Teoría del conocimiento

como una parcela definida dentro de la filosofía, que debía investigar el alcance y los límites de la

facultad de conocer. La cognición, en cuanto acto de conocer, ha sido definida en nuestra época

como referida a "todos los procesos mediante los cuales el ingreso sensorial es transformado,

reducido, elaborado, almacenado, recordado o utilizado" (Neisser, 1967) y es tal la importancia que

se le reconoce que el término 'cognitivo' ha pasado a denominar al paradigma hegemónico de la

Psicología de nuestros días.

Desde el punto de vista filosófico, se plantea una triple problemática en torno al conocimiento,

vinculada a los siguientes aspectos:

1) La naturaleza del conocimiento: ¿qué es el conocimiento?, ¿cómo lo obtenemos?

2) La validez del conocimiento: ¿son fiables los conocimientos que nos proporcionan nuestros

sentidos?, ¿es posible alcanzar la certeza absoluta?

3) Los criterios de verdad-falsedad del conocimiento adquirido: ¿sigue las leyes de la lógica?

Diversas ramas de la filosofía (la metafísica, la lógica, la epistemología, etc.) trataron y tratan de

abordar los numerosos problemas planteados acerca del conocimiento y, a lo largo de su historia,

cristalizaron diferentes posturas ante tales cuestiones, entre las cuales destacaremos:

El escepticismo, que niega la posibilidad de conocer algo con certeza.

El dogmatismo, que admite la posibilidad de conocer la verdad con una confianza absoluta.

El agnosticismo, que defiende la relatividad del conocimien to para el pensamiento humano.

El panteismo, el cual afirma que cuanto existe es parte de una sustancia, de un sólo ser, que es Dios.

El realismo, que admite la existencia del mundo exterior independientemente de nuestra

Page 7: Aznar Alternativas Teoricas en Percepcion Raic

7

conciencia. Contrapone lo objetivo (realidad) a lo subjetivo (el yo). Hay diversos grados que fluctúan

desde el realismo ingenuo hasta el realismo crítico.

El logicismo, el cual supone que la mente sigue las leyes y principios de la lógica.

El psicologismo, que considera como principios válidos de la inferencia aquellos con los que la

mente opera.

El fisicalismo, que sostiene que las leyes de la física explican tanto la materia como la mente.

El conductismo filosófico, según el cual toda afirmación sobre la experiencia humana puede

expresarse inequívocamente mediante afirmaciones acerca de sus disposiciones conductuales.

El fenomenalismo, sugiere que las afirmaciones con respecto a objetos del mundo exterior se

pueden traducir, sin pérdida de significado, en afirmaciones acerca de la posibilidad de la propia

experiencia.

Desde el punto de vista epistemológico o teoría del conocimiento, son numerosos los problemas

que han sido planteados en torno a los fenómenos perceptivos, que se hallan en la base de la

adquisición del conocimiento; sin embargo, en el núcleo de la cuestión se encuentran sin respuesta

aquellos que se preguntan por la certidumbre o incertidumbre de nuestro conocimiento: ¿se

corresponde la realidad con la representación cognitiva que el hombre tiene?, ¿el mundo cognitivo es

sólo un producto inventado por la mente humana, o se halla en correspondencia con el exterior?,

¿existe el mundo físico de modo independiente a nuestra mente, como admiten los físicos?, ¿son

fiables y válidos los datos informativos que los órganos sensoriales captan y transmiten, o nos

engañan los datos sensoriales?

Otro insoslayable problema en la temática perceptiva, que ha ocupado una parte importante de la

historia de la filosofía, es el relativo a la relación entre el sujeto percipiente y el objeto percibido:

¿cómo encuentra el sujeto al objeto y lo llega a conocer? La respuesta ha variado según el énfasis

recaiga sobre el sujeto o sobre el objeto, sobre el ser o sobre el pensamiento, sobre la materia o

sobre el espíritu (la conciencia), dando lugar a una interminable pugna entre las dos grandes

corrientes de la filosofía: el materialismo y el idealismo.

Respecto a las relaciones cognoscitivas, el materialismo concede prioridad al ser respecto a la

conciencia, se caracteriza por considerar que toda teoría debe partir de unos axiomas considerados

como absolutamente verdaderos, sostiene un radical determinismo y es una concepción

inmanentista del universo. Como contrapunto, el idealismo otorga primacía a la conciencia sobre la

Page 8: Aznar Alternativas Teoricas en Percepcion Raic

8

materia, considera que toda teoría debe buscar una causa original, deja una puerta abierta a un no

determinismo y es una concepción transcendentalista del mundo.

La ciencia física, que obviamente lleva muchos años de ventaja a la psicología, no cuestiona si la

realidad exterior es un producto creativo de nuestra mente y, como consecuencia, nuestras

percepciones deberían determinar dicho mundo externo, sino que parte de la asumción de que la

realidad existe de manera independiente a nuestra mente, centrando su objeto de estudio en ella.

Sin embargo, la psicología, y particularmente en el estudio de la percepción, no se halla interesada en

el conocimiento de la energía estimular del medio, sino en cómo interacciona el organismo y el

medio para alcanzar un conocimiento que permita un comportamiento adaptativo, es decir, ¿cómo el

sistema nervioso es capaz de reconstruir internamente el mundo externo? Esta cuestión es conocida

como el problema de la "correspondencia psicofísica", el cual pretende esclarecer las relaciones

existentes entre la información contenida en la energía del estímulo y su correspondiente experiencia

psicológica (por ejemplo, los vínculos existentes entre cada longitud de onda y el color visible que

percibimos).

También ha dado lugar a variadas controversias la distinción entre conocimiento directo e indirecto,

planteándose el interrogante acerca de si nuestro conocimiento del mundo es mediato o inmediato,

en otros términos, ¿podemos acceder al conocimiento actuando nuestros sitemas sensoriales

directamente sobre la realidad o, por el contrario, hemos de apelar a hechos observados

(fundamentados empíricamente) para interpretar o explicar los hechos no-observables?, lo que se

halla en íntima relación con el problema de la representación mental del conocimiento.

Entre otras numerosas cuestiones en torno al conocimiento y la percepción, que han saltado a la

palestra a lo largo de los siglos, haremos una selección de aquellas que consideramos de mayor

interés en relación con el propósito de la obra y que, de algún modo, se pondrán de relieve en los

diferentes temas abordados. Destaquemos entre ellas el problema de la organización perceptiva o

estructura perceptual. Al observar la realidad, contemplamos diversas formas, tamaños, colores,

movimientos, etc, pero … ¿percibimos estas cualidades como partes inseparables de los objetos o,

por el contrario, primero percibimos las partes y posteriormente las integramos contruyendo

internamente copias o correlatos de los objetos? Al parecer, todas las funciones psicológicas

(aprendizaje, memoria, pensamiento, razonamiento, motivación, etc) se fundamentan en nuestra

capacidad de percibir, esto es, en la habilidad para construir una concepción del mundo que se

Page 9: Aznar Alternativas Teoricas en Percepcion Raic

9

adecúe a la realidad de modo razonable. Consiguientemente, la percepción sería una función básica

en la que descansan los procesos superiores y sin la cual no podrían ocurrir ninguno de ellos. Diversas

perspectivas teóricas arrancan de una toma de partido en torno a cuales son las unidades de análisis

de los fenómenos perceptivos, ¿el todo?, ¿las partes? El enfrentamiento se plasma entre

concepciones atomistas-elementalistas y holistas-globalistas, las cuales debaten los determinantes

prioritarios de los fenómenos perceptivos, la búsqueda de las apropiadas unidades de análisis

(sensaciones, elementos del estímulo, configuración global, etc.) y la segregación de figuras sobre un

fondo más o menos difuso.

Vinculado a lo anterior se halla el dilema sobre si el proceso perceptivo procede de lo particular y

avanza hacia lo general, o viceversa, el cual se ha puesto de manifiesto al tratar de simular el

reconocimiento visual mediante ordenadores.

En el estudio de la percepción pueden distinguirse tres concepciones principales que difieren según

el acento del fenómeno recaiga sobre el individuo (organicismo), el medio (ambientalismo) o la

interacción individuo-medio (interaccionismo). Ello da lugar a considerar como determinantes

prioritarios de los fenómenos perceptivos las condiciones estimulares del medio, las variables

organísmicas o una combinación de ambas. Se preguntan que información se requiere para lograr

cierta precisión en la percepción, ¿la qué existe en el medio ambiente?, o ¿tal vez, ésta resulta

incompleta y nos vemos obligados a aportar expectativas e inferencias basadas en conocimientos

pasados? Cuando se considera la percepción desde la óptica del individuo, se plantea la polémica

sobre si los conocimientos adquiridos son extraídos por estructuras pertenecientes a los sistemas

sensoriales y biológicamente predeterminadas (innatismo) o, más bien se alcanzan en sucesivos

reencuentros con la realidad que dan lugar mediante aprendizaje a un bagaje de experiencias

pasadas (conexionismo).

Otro grupo de problemas son más concretos o se hallan implícitos en los presupuestos teóricos

aceptados en determinados planteamientos del tema perceptivo. En cualquier caso, una teoría de la

percepción, que se precie de serlo, debería responder a los interrogantes que han ido surgiendo al

practicar reflexiones epistemológicas acerca de los fenómenos perceptivos.

Uno de ellos es el que hace referencia a las constancias perceptivas: ¿por qué en un mundo donde

reina la variación tendemos a percibir las cosas de manera invariable?, si la imagen retiniana de una

mesa redonda cambia en función del punto de vista del observador, formándose a veces una forma

Page 10: Aznar Alternativas Teoricas en Percepcion Raic

10

de mesa elíptica, ¿por qué seguimos percibiendo una mesa redonda, en lugar de otra mesa eliptica?

(constancia de la forma). Y ¿por qué nos mostramos contumaces en el error perceptual que acaece

en las ilusiones ópticas, incluso cuando sabemos que las cosas no son como parecen ser?

No muy distante de lo anterior, se encuentran enigmas como el relativo al modo en que registramos

la tercera dimensión en la retina, para luego reconstruir la imagen del objeto en la mente, aspecto al

que aludiremos bajo la denominación de 'interpretación de las claves o pistas ambientales'.

Otra duda teórica que todavía permanece abierta y pendiente de esclarecimiento emergió cuando

los psicólogos se plantearon cual es la sede del conocimiento: ¿se encuentra localizado, de modo que

pueden establecerse mapas cerebrales o una especie de cartografía cerebral o, quizá, se halla

distribuído en amplias zonas del sistema nervioso o, tal vez, cualquier área es capaz de asumir

cualquier proceso o función? Esta vieja polémica entre defensores del localizacionismo versus

holismo o, para expresarlo en otros términos, la dicotomía conceptual 'especificidad-plasticidad' del

cerebro, también cuenta con una importante tradición en la psicología de la percepción y no faltan

abundantes pruebas que apoyan a una o a otra tesis, hasta el punto de tenerse la impresión,

actualmente, de que ambas tienen parte de razón y no sólo no son antagónicas, sino que pueden ser

compatibles, aunque diferenciadas en el 'modus operandi' de cada uno de los hemisferios cerebrales.

En el ámbito de la compatibilidad de los niveles explicativos en la ciencia, en general, y en la

percepción, en particular, saltan nuevas preguntas: ¿puede una explicación de nivel neurofisiológico

explicar el nivel comportamental?, lo que nos conduce al problema del reduccionismo. O, también,

¿resulta realmente imprescindible postular un nivel representacional para explicar los fenómenos

perceptivos? Dentro del plano representacional abundan los interrogantes que se hallan en el

epicentro de investigaciones actuales, tales como: ¿cual es el formato representacional del

pensamiento, las imágenes mentales, las proposiciones, listas de rasgos, un código abstracto

polivalente,…?, ¿las imágenes mentales son sólamente vehículos del pensamiento, o son

pensamientos en si mismas (productos)?, ¿reflejan la manipulación de entidades simbólicas, o son

simplemente epifenómenos, reminiscencias que no contribuyen sustancialmente al conocimiento?,

¿qué diferencias existen entre la percepción del mundo real y cualquier forma de representaciones

externas (fotografías, dibujos, etc.) o internas (imágenes mentales)?

Finalmente, señalaremos algunos de los problemas planteados en el plano de lo vivencial o

fenomenológico: ¿la percepción requiere siempre a la conciencia?, ¿qué papel desempeña la

Page 11: Aznar Alternativas Teoricas en Percepcion Raic

11

conciencia en la percepción?, ¿es la conciencia un proceso más en el flujo del procesamiento, o es un

estado que puede, o no, emerger en una determinada fase del procesamiento perceptivo?

A lo largo de esta obra intentaremos mostrar que soluciones se han ido proponiendo a estas

cuestiones, así como las presumciones teóricas adoptadas por determinados modelos o teorías en su

intento de describir o explicar el comportamiento humano.

1.2. ORGANIZACION DEL CONTENIDO

La estructura del presente libro se articula en cuatro bloques, de los cuales, las tres primeras partes

[I) Antecedentes históricos de la psicología de la percepción; II) Primeras teorías psicológicas de la

percepción, y III) Alternativas teóricas actuales en percepción.] pretenden evidenciar como fue

posible incardinar, históricamente, las antiguas concepciones filosóficas (especulativas y

precientíficas), relativas a la problemática sobre el conocimiento y abordadas metafísicamente,

dentro de las más recientes teorías científicas de la psicología experimental perceptiva.

El lector atento, observará de que modo, para lograr el reconocimiento de los fenómenos

perceptuales como objeto de estudio accesible mediante el método científico, fue preciso avanzar en

el terreno de la medición de ciertos aspectos propios de la temática perceptiva. Medición no exenta

de dificultades derivadas de la inaccesibilidad directa, rapidez con que ocurre y ausencia de

transparencia para el sujeto que experimenta la percepción. En este sentido, hay que conceder a la

psicofísica clásica el mérito de haber demostrado la viabilidad de la incorporación de la psicología al

terreno de lo mensurable (umbrales, escalas, etc.) entrando así en la esfera de las ciencias

experimentales, si bien es cierto que la medida de la sensación que utilizó la psicofísica entrañaba

apreciaciones subjetivas de las personas, que posteriormente serían evaluadas tanto por la psicofísica

contemporanea como por la teoría de la detección de señales. Así como, el valor innegable de las

demostraciones, que pusieron de manifiesto, partiendo de una fenomenología experimental (no

filosófica), los psicólogos de la Gestalt. Y sin olvidar las contribuciones de la cronometría al

esclarecimiento de los procesos subyacentes a la percepción.

Tampoco debe pasar inadvertido, ni interpretarse como una casual coincidencia, el hecho de que el

surgimiento y nacimiento de la psicología experimental tuviese lugar en el terreno de la percepción,

simplemente se trataba de buscar una explicación fundamentada en la metodología

científico-natural, que evidenciase empíricamente los ancestrales problemas sobre el conocimiento

Page 12: Aznar Alternativas Teoricas en Percepcion Raic

12

humano, planteados por los filósofos griegos, en vez de proseguir con las inverificables

argumentaciones metafísicas.

También nos ha de hacer reflexionar acerca de la manera en que todo el legado histórico del

estudio de la percepción humana, en el pasado remoto y próximo, nos ha conducido hasta el

momento actual, en el que la metodología es variada y los instrumentos de medida más sofisticados

y precisos; donde ninguna ciencia (ni siquiera la psicología) puede atribuirse un papel monopolizador

e imperialista, sino que, al contrario, las aportaciones interdisciplinarias (de la biología,

neurofisiología, linguística, lógica, matemática, informática, etc.) se hacen necesarias para abordar la

complejidad manifiesta de los fenómenos perceptivos, concretamente, entre las estructuras procesos

y representaciones que intervienen en la interacción perceptiva del sujeto con el medio.

Por último, cabe señalar que, este sintético recorrido histórico en torno a las teorías actuales de la

percepción, sugiere una concepción unitaria del sistema cognitivo humano en el que se hallan

interrelacionadas las funciones superiores (aprendizaje, memoria, atención, razonamiento, resolución

de problemas, etc.) y hacen posible que la realidad exterior resulte interiorizada y conforme una

representación del mundo.

En el bloque final o parte cuarta, nos adentramos en uno de los enfoques psicológicos actuales, que

cuenta con numerosos prosélitos y que integra los hallazgos de gran parte de la psicología de la

percepción: el análisis de escenas. En esta parte, hemos complementado sus líneas generales de

trabajo en la problemática que nos ocupa con los presupuestos teóricos más característicos, que

admiten y definen su peculiar modo de sumergirse, para explorar el oceáno de la percepción.

Esperamos que estas breves referencias a las teorías de la percepción de ayer y hoy, las cuales nos

permiten hacer la prospección del mañana y que hemos clasificado en el capítulo 12, a fin de poner

orden en el caos que pudiera originar la prolífica productividad mental de la fértil mente humana,

puedan servir de guía a quienes desean introducirse en las, todavía no claras, aguas del mar

perceptivo, en el que han vertido sustancias algunas corrientes cristalinas, junto con otras 'aguas

residuales', que convendrá purificar al objeto de poder vislumbrar con nitidez el fondo marino.

Page 13: Aznar Alternativas Teoricas en Percepcion Raic

13

Primera parte ANTECEDENTES HISTORICOS DE LA PSICOLOGIA DE LA PERCEPCION

Page 14: Aznar Alternativas Teoricas en Percepcion Raic

14

Capítulo II: Raices filosoficas: teorías del conocimiento

"Si rechazas todas las sensaciones, no tendrás ningún criterio para distinguir aquellas que se dice que son falsas". (Epicuro s.IV)

2.1. INTRODUCCION

Aunque la evidencia empírica y la posibilidad de comprobación no acompañan al saber

filosófico y, por consiguiente, se halle alejado del saber científico, en cuanto que no

obtiene sus conocimientos por el método ortodoxo, estimamos conveniente el hecho de

conocer las concepciones filosóficas de mayores repercusiones que, en el devenir

histórico, se han formulado sobre los problemas epistemológicos, que giran en torno a la

pregunta de "cómo alcanzamos el conocimiento". Ciertamente, cada modelo, paradigma

o teoría explicativa de la percepción, descansa en unos presupuestos filosóficos y ésto es

una razón insoslayable que justifica su incorporación en esta obra; si bien, se tratará de

manera sucinta y concisa.

Para mayor claridad expositiva, agruparemos las etapas del pensamiento filosófico,

relacionadas en algún sentido con los fenómenos perceptivos, en seis subapartados, a

saber: 1) el pensamiento griego, 2) el pensamiento medieval, 3) el racionalismo

cartesiano, 4) el empirísmo y asociacionismo, 5) el idealismo transcendental y la filosofía

alemana del s. XIX y 6) la fenomenología.

2.2. EL PENSAMIENTO GRIEGO

La antítesis entre la experiencia mental y la experiencia sensorial, ¡cómo no!, se planteó

en la Grecia del siglo V a. de JC. con el escepticismo de Heráclito de Efeso, quien negó la

razón en favor del mundo de los sentidos. Para este filósofo, todo cuanto existe está en

permanente cambio, en continuo fluir, nada de cuanto existe es al momento siguiente

igual a sí mismo. Dice, "la existencia es la corriente de un río, en el cual no podemos

bañarnos dos veces en las mismas aguas". Según él, podemos ver el correr tumultuoso de

las aguas de un río, pero, para captar esa corriente, sólo podríamos helar las aguas y

Page 15: Aznar Alternativas Teoricas en Percepcion Raic

15

tomar los bloques sólidos, mas en ese momento, la corriente habría desaparecido.

Aprehender la realidad en conceptos fijos, inmóviles, es como helar la corriente del río,

desvirtuar la realidad en lo que tiene de más puramente real. La razón únicamente es

capaz de crear conceptos estáticos, lo más ajeno a la realidad.

Parménides de Elea vivió poco después de Heráclito y, al contrario que éste, proclama la

relevancia de la razón, negando la experiencia sensible, viéndose abocado a un quietismo

contemplativo que le lleva a caer en el panteismo. El principio de la naturaleza es, para

Parménides, el ser uno, infinito, inmóvil y perfecto. Afirma:

"para que algo fluya es preciso que haya antes ese algo, es decir, un sustrato

permanente, un ser en sí. La razón me pone en contacto con ese algo…, pero, ante

todo, con una idea que es la base de las demás: la idea de ser, por la que me hago

cargo de todo lo que es. Posteriormente, conozco otras ideas…, y después los sentidos

me informan de un mundo de individuos todos diferentes, cambiantes,

perecederos…".

Para recomponer la integridad del hombre como ser perfectible por su propia actividad,

fue necesario el advenimiento de Sócrates, quien condujo la filosofía al humanismo al

sostener:

"¿De qué me sirve conocer el mundo si no me conozco a mi mismo? ¿Qué soy yo mismo

y qué mi razón, este instrumento del que me sirvo para conocer?"

Sin embargo, fue su discípulo Platón quien expuso con mayor claridad su concepción

metafísica del conocimiento de modo alegórico en "el mito del carro alado", que se

encuentra en su obra 'Fedro o del Amor' y en "el mito de la caverna", contenido en otra

gran obra, 'la República'. Distingue Platón, el mundo de las ideas, integrado por las ideas

de todas las cosas y que son más reales que las cosas, ya que éstas cambian, se mueven y

son temporales, en tanto que las ideas son eternas, inmutables e inmóviles. El mundo

sensible o mundo de las sombras, en que vivimos, es un mundo de realidad aparente que

está en triple relación con el mundo de las ideas: por participación, por imitación y por

finalidad. Cuando el hombre 'cae' de su vida anterior, desciende del mundo de las ideas

Page 16: Aznar Alternativas Teoricas en Percepcion Raic

16

al de las sombras, olvidando las ideas y teniendo que redescubrirlas a través de los

sentidos, percibiendo sólo cosas concretas, singulares. De este idealismo deriva cierto

innatismo de las ideas, ya que contemplamos dichas ideas en una vida anterior y en esta

vida podemos rememorarlas; así como, un eviente dualismo, al diferenciar el mundo de

las ideas, de la razón, al que da preeminencia, del mundo de las cosas, de lo material.

Aristóteles, discípulo de Platón, expresa en su "Metafísica" su concepción respecto al

tema que nos ocupa. En la realidad sólo existe, para él, las cosas individuales, concretas,

lo que denomina 'sustancias'. Estas sustancias contienen un universal o modo de ser

general, la 'esencia', aquello que la cosa es y cuyo ser comparte con los demás individuos

de su especie. Esta individualidad y esta universalidad, que se dan unidas en las cosas

materiales concretas, las explica mediante dos principios que llama 'materia' y 'forma'

(teoría del hylemorfismo). La forma, heredera de la 'idea platónica' es un principio

universal y origen de la inteligibilidad, por la que comprendemos las cosas. Lo que las

cosas tienen de puramente individual es incomprensible intelectualmente; lo individual

sólo es accesible a la experiencia sensible, impenetrable a la razón e inexpresable; por

tanto, la comprensión del entendimiento se realiza siempre por medio de lo universal.

Materia y forma son las dos primeras "causas del ser" para Aristóteles.

La concepción aristotélica del todo (forma), como infinitamente reductible, a través de

un análisis sucesivo de la forma, y la materia, no aborda el problema de cómo interactúa

la materia (elementos) para alcanzar el siguiente nivel de forma, dando base a un

elementarismo asociacionista ulterior. Frente a la opinión platónica, los aristotélicos

sostenían que las ideas se obtienen por abstracción, a partir del conocimiento sensible de

las cosas singulares.

2.3. EL PENSAMIENTO MEDIEVAL

La filosofía medieval escolástica no se ocupó apenas del tema perceptivo, centrándose

particularmente en la distinción entre razón y fe (saber racional y saber revelado).

Page 17: Aznar Alternativas Teoricas en Percepcion Raic

17

Merece un papel destacado el problema de los universales planteado por Porfirio, el cual

trata de establecer si las ideas o conceptos universales existen en la realidad o sólo en

nuestra mente. Este problema recibió tres alternativas explicativas:

a) Realismo radical: afirma que las ideas existen en la realidad

b) Nominalismo: sostiene que las ideas son meros nombres.

c) Realismo moderado: defiende que las ideas existen en la mente, pero con

fundamento en la realidad.

Nos extenderemos algo más en el nominalismo, propuesto por Guillermo de Occam,

que consiste en afirmar que los conceptos universales (géneros y especies) no son cosas

reales, ni se fundamentan en la realidad, sino que son meros nombres o términos. Occam

concluye que en la realidad sólo existen individuos, en los que sólo pueden distinguirse la

materia y la forma, pero no la esencia de la existencia ni la sustancia de los accidentes

absolutos, como afirmaba el abstraccionismo de Tomás de Aquino. Por consiguiente, el

único conocimiento verdadero y cierto será el conocimiento intuitivo sensible, el

conocimiento directo de las cosas por medio de los sentidos. Con sus ideas el occamismo,

anticipó la doctrina cartesiana, que identifica la sustancia material y la extensión,

abriendo el cauce al empirismo de la filosofía moderna y a la moderna ciencia

experimental.

2.4. EL RACIONALISMO CARTESIANO

La tendencia racionalista, que se inicia con René Descartes (1596-1650), ha ejercido en

la historia de la psicología una influencia profunda, que se extiende hasta la actualidad.

Como es sabido, se denomina racionalismo a la filosofía que concede el valor máximo a

la razón, distinguiéndose frecuentemente entre un racionalismo gnoseológico y un

racionalismo metafísico. El primero defiende que la razón es la única fuente válida de

conocimiento, que sólo son verdaderos y ciertos los conocimientos adquiridos mediante

la razón. El racionalismo metafísico, sostiene que la totalidad del ser puede conocerse

mediante un sistema racional de conceptos, negando la existencia del azar y la

Page 18: Aznar Alternativas Teoricas en Percepcion Raic

18

contingencia, hasta el extremo de sostener que todo suceso tiene una explicación

racional y lógica.

Descartes concibió la mente humana formada por dos sustancias, una libre, racional y

autoconsciente, y otra autómata, gobernada por leyes mecánicas, constituyéndose así en

el padre de dos modelos psicológicos históricamente alternativos: el

introspeccionista-mentalista y el reflexológico-materialista (Caparros, 1980). El dualismo

mente-cuerpo de Descartes es interaccionista; sin embargo, no da una explicación

aceptable de esta relación (glándula pineal).

El cartesianismo, en opinión de Firth (1974), sostiene tres tesis en torno a la percepción:

a) Identificación de la experiencia sensorial mediante un juicio psicofísico (por ejem.,

ahora percibo una casa).

b) Validación del juicio mediante inferencias a partir de la experiencia sensorial

(relaciones inferenciales).

c) Justificación de las proposiciones acerca de la experiencia sensorial por sí mismas

(autojustificación).

Según Caparrós (1980), el legado cartesiano a la psicología puede sintetizarse en el

dualismo mente-cuerpo, un enfoque mecanicista, el introspeccionismo, innatismo y

cierta propensión a relacionar la mente con el cerebro.

Baruch de Spinoza (1632-1677) diverge de Descartes en el dualismo y considera el alma

(mente) y cuerpo como dos aspectos de una unidad fundamental.

Wilhelm Leibnitz (1646-1716), dentro de su teoría de las "mónadas" (atomismo activo y

consciente), concibe el conocimiento, no como resultante de una impresión sensorial

pasiva, sino mediante una relación "armónica preestablecida" (por Dios). De este modo

continúa la concepción unitaria de la mente y el cuerpo, si bien relacionados a través de

un "paralelismo psicofísico", que servirá a muchos autores para eludir el compromiso

teórico con este problema metafísico, ya que permite reconocer los dos niveles (físico y

psíquico) sin adentrarse en el terreno de la especulación, ajeno al método científico.

Otra anticipación importante de este autor es la distinción entre percepción y

apercepción. Parte de suponer que en los seres humanos hay distintos grados de

conciencia (concibe la conciencia como un continuum), algunas de nuestras percepciones

Page 19: Aznar Alternativas Teoricas en Percepcion Raic

19

no llegan a ser conscientes ("petites perceptions"), otras si lo son, las denominadas

"apercepciones" (conciencia o conocimiento reflexivo del estado interior). Este

planteamiento de los grados de conciencia, conceptualizado por Leibnitz, se hallara

omnipresente en diferentes concepciones psicológicas. Fechner lo llamará "sensaciones

negativas", Herbart y Wundt retomarán el concepto de "apercepción", en Freud será el

inconsciente y, más próximo a nuestros días será reconceptualizado bajo el término de

"subcepción" o "percepción subliminar".

2.5. EL EMPIRISMO-ASOCIACIONISMO

El empirismo, fundamentado en el nominalismo, con su valoración de la experiencia

como fuente del conocimiento, impulsó notablemente en Europa el estudio de las

ciencias experimentales. Se conoce con el nombre de empirismo toda doctrina filosófica

que considera la experiencia sensible como única fuente válida de conocimiento. Como

un reflejo del sentido utilitarista inglés, tuvo allí su origen y culminación, siendo sus

figuras más destacadas Hobbes, Locke, Berkeley y Hume.

Los empiristas, sin salir de la mentalidad racionalista común a la filosofía moderna, no

se centraron en el análisis de las ideas ya elaboradas que posee la razón, sino en cómo

elabora la razón sus contenidos y de que primeros elementos parte.

La teoría del conocimiento de John Locke (1630-1704) se inspira en un viejo adagio

escolástico: "nada hay en el entendimiento que no haya pasado antes por los sentidos".

El conocimiento se inicia en la experiencia sensible y a los datos de ésta se reduce

Las meras representaciones de los datos sensibles se llaman "ideas simples" o

"sensaciones" y el entendimiento forma, mediante asociación, las "ideas complejas"; por

consiguiente, todo conocimiento es una idea simple o un complejo de ideas simples. Para

Locke y sus seguidores la clave para entender como la experiencia se organiza en

estructuras con significado es el principio de asociación. Sin embargo, este análisis nunca

puede explicar por qué experimentamos, de manera preferente, objetos como unidades

aisladas antes que sus partes constitutivas.

Page 20: Aznar Alternativas Teoricas en Percepcion Raic

20

Este filósofo distingue entre cualidades primarias (ideas simples que se obtienen por

varios sentidos, por ejemplo, el tamaño de una manzana) y cualidades secundarias (ideas

que se adquieren mediante un sólo sentido, por ejemplo, el sabor de una manzana).

Según él, las cualidades primarias corresponden realmente a los objetos, mientras que las

cualidades secundarias son subjetivas y no se dan en el objeto.

Locke afirmaba que la mente del recien nacido es como una placa en blanco ('tabula

rasa'), todo el conocimiento se adquiere por la experiencia y asociaciones de

experiencias, partiendo de aquí la corriente psicológica del asociacionismo, que pretende

estudiar la mente al modo físico-matemático, como una ciencia experimental más. De

este modo, Locke, al rebelarse contra las ideas innatas del cartesianismo y basar el

conocimiento en la experiencia, introdujo en la filosofía británica un sesgo psicológico

elementarista, analítico y asociacionista, haciendo posible una gradual aproximación

hacia la psicofisiología sensorial alemana del siglo XIX, complementándola con su

enfoque.

El obispo anglicano George Berkeley (1685-1757) llevó todavía más lejos el pensamiento

de Locke al negar realidad exterior tanto a las ideas primarias como a las secundarias,

afirmando que nuestro espíritu trata sólo con ideas (sensaciones y sus compuestos).

Sostuvo que nosotros suponemos que ese mundo ideal, mental, es representación de

otro mundo, el cual es exterior a nosotros mismos, pero ese mundo objetivo no lo ha

visto nadie, ya que nadie ha salido de su propia mente. La consecuencia es, para

Berkeley, el idealismo absoluto, que consiste en negar la existencia de una realidad

exterior a la mente, o como el mismo dijo, en que el ser de las cosas consiste en ser

percibidas (esse est percipi), esto es, las cosas existen en tanto que son percibidas por mi;

cuando dejo de percibirlas, dejan de existir, porque su ser no era otro que mi percepción

de ellas.

Este idealismo también ha sido denominado idealismo psicológico, que se diferencia del

idealismo lógico en que, este último, supone también que la realidad es una creación del

espíritu, pero del espíritu humano o razón colectiva, de la que participan todos los

hombres.

Con David Hume (1711-1776) se consuma el proceso demoledor de los empiristas

Page 21: Aznar Alternativas Teoricas en Percepcion Raic

21

británicos hasta llegar al escepticismo metafísico. Su alternativa al problema del

conocimiento le permitió destruir los conceptos fundamentales de la metafísica, el de

sustancia y el de causalidad, incidiendo por tanto en un fenomenismo, según el cual sólo

conocemos "fenómenos", apariencias y no cosas "en sí".

Hume reduce los conocimientos a percepciones y todas las percepciones se pueden

agrupar en dos géneros distintos, denominados: impresiones e ideas. Entre ambos

géneros de percepciones existe una diferencia, que consiste en los grados de fuerza o

vivacidad con que se presentan al pensamiento. Las percepciones que ofrecen más

fuerza y violencia se llaman impresiones. Las ideas son imágenes debilitadas de las

impresiones. Tanto la impresiones como las ideas se dividen en complejas y simples.

Según Hume, toda idea que no posea su impresión correspondiente es una construcción

mental sin validez objetiva alguna. Esta reducción de todo ser a meras impresiones

sensibles se llama fenomenismo y con él se abría el camino a la doctrina de Kant.

Ya en pleno siglo de las luces, surgen dos teorías del conocimiento, que recogen del

racionalismo y del empirismo su preocupación por estas cuestiones. Nos referimos a

Thomas Reid (1710-1796) fundador de la "escuela escocesa", quien en contra de Locke y

Hume se propuso demostrar la objetividad y certeza de nuestros conocimientos,

mediante el análisis del alma humana. Reid propone la experiencia como punto de

partida del conocimiento, entendiendo por experiencia la percepción inmediata de los

objetos en su realidad externa. Según él, la percepción va siempre acompañada de la

creencia de que existe la realidad externa del objeto percibido; la validez gnoseológica de

esta creencia se fundamenta en un elemento natural que posee la conciencia de todos

los hombres: el sentido común.

La tendencia empirista llega con la ilustración a sus últimas consecuencias: el

conocimiento queda reducido a pura sensación. Tal fue el sensualismo formulado por

Condillac (1715-1780), el cual considera que "nuestros errores proceden de que nuestras

ideas han sido mal hechas…, y el único medio de corregirlas es rehacerlas". Para ello es

preciso descomponer nuestros conocimientos en los elementos integrantes y así se llega

a la 'sensación' como elemento único e irreductible de los mismos. Condillac llega con su

sensualismo al límite extremo del nominalismo, para él, una ciencia no es más que un

Page 22: Aznar Alternativas Teoricas en Percepcion Raic

22

lenguaje bien hecho.

El estudio del hombre en la época iluminista dio origen a dos diferentes corrientes

psicológicas: la asociacionista y la analítica. El principal representante de la psicología

asociacionista fue David Hartley (1704-1757), quién consideró que todas las

manifestaciones psíquicas se reducen a una mera "asociación" de sucesos simples y de

representaciones, cuyo desarrollo da origen a las ideas completas, conscientes, religiosas,

etc. Según Hartley, a esta asociación de representaciones corresponde una asociación

fisiológica en el cerebro.

Hartley reconvirtió el empirismo en un asociacionismo, fundamentado en la mecánica

newtoniana, siendo a partir de entoces dicho asociacionismo una fuerza impulsora de la

psicología filosófica británica.

Si la psicología asociacionista redujo la vida psíquica a la unión o conglomerado de

elementos psíquicos, contrariamente, la psicología analítica consideró la vida psíquica

como una unidad o fuerza unitaria que escapa a la experiencia, pero que se manifiesta

mediante actos de pensar, querer y sentir. Esta corriente psicológica se halla muy influída

por la doctrina de Leibnitz, y sus más destacados representantes son Sulzer (1720-1779) y

Tetens (1736-1805).

El asociacionismo británico halló su culminación en la figura de James Mill (1773-1836),

que llevó el principio asociacionista hasta alcanzar su culminación, fundamentado en el

utilitarismo de Jeremías Benthan (1748-1832) sobre una psicología asociacionista. Como

elementarista estricto, concibió a la mente constituida sólamente de sensaciones e ideas,

mantenidas juntas por asociación. Sostenía que todo conjunto mental, incluyendo

cualquier percepción, es simplemente la suma total de sus elementos combinados. Los

elementos eran, para él, las renombradas sensaciones e ideas, siendo estas últimas

réplicas de sensaciones previas.

Su hijo, John Stuart Mill (1806-1873) se inclinó por un asociacionismo opuesto, en cierto

sentido, al de su padre, al apelar al término de "química mental" para explicar la

combinación de las ideas. Señaló que las ideas complejas no son sólamente un sumatorio

de ideas elementales, sino que se funden y combinan unas con otras formando

totalidades, pudiendo tener las totalidades nuevas propiedades. Consciente de los

Page 23: Aznar Alternativas Teoricas en Percepcion Raic

23

riesgos de un asociacionismo mecánico, propuso como alternativa el "modelo químico

asociacionista", más empírico y próximo al control experimental introspeccionista, que

Wundt asumiría.

2.6. EL IDEALISMO TRANSCENDENTAL Y LA FILOSOFIA ALEMANA DEL XIX

En general, el término idealismo designa filosóficamente a todo sistema que reduce el

ser (la realidad) al pensamiento. El mismo Emmanuel Kant (1724-1804) definió el

idealismo transcendental, en su obra 'la crítica de la razón pura', como aquel que

"considera los fenómenos, en su conjunto, como simples representaciones". Este

idealismo no excluye totalmente la existencia real del objeto, ya que, para él el

conocimiento transcendental no es el que se refiere a los objetos sino, de una manera

general, a nuestros conceptos 'a priori' de los objetos, a diferencia de otras formas de

idealismo que niegan la realidad objetiva.

Kant argumentó que las percepciones no nos proporcionan nuestros conceptos, sino

que, estas percepciones nos son dadas de acuerdo con nuestros conceptos, acordes con

nuestras maneras intrínsecas e innatas de percibir el mundo. Estos 'moldes' o categorías

innatas incluyen causa y efecto, tiempo y espacio, por cuanto debido a nuestra

naturaleza fisiológica y epistemológica, percibimos el mundo en estos términos, siendo

las categorías (y no el aprendizaje) las responsables de la organización y estructura de

nuestras percepciones. Según Kant, la percepción se organiza desde el principio, y la

extracción de elementos es algo posterior y sólo posible mediante el elaborado análisis

filosófico del adulto. Esta formulación Kantiana proporcionó un nuevo enfoque al

problema de la organización o estructura perceptiva, que a principios del siglo XX, y

ligeramente modificada, fue reformulada por la Psicología de la Gestalt.

Joham F. Herbart (1776-1841), sucesor de Kant en Königbert, vinculado al idealismo de

Leibnitz y considerado el padre de la Pedagogía científica, concibe la psicología como

ciencia fundamentada en la experiencia, en la metafísica y en la matemática. Anticipa la

idea de inconsciente, basado en el concepto de inhibición, y retoma el término de

Page 24: Aznar Alternativas Teoricas en Percepcion Raic

24

apercepción de Leibnitz. Se le reprochó su postura anti-experimentalista y su

anti-fisiologismo; sin embargo, es considerado por muchos como una figura puente entre

la psicología filosófica y la psicología experimental.

Hermann Lotze (1817-1881), otra figura de transición y con ciertas contradicciones, en

cuanto enfatiza la psicología fisiológica y adopta una postura metafísica, manifiesta una

tendencia idealista y propone una teoría empirista de la percepción del espacio (teoría de

los signos locales). Se observa en su obra la influencia de J.Müller y de Weber y, a su vez,

ejerció influencia sobre discípulos tan notables como F. Brentano y Stumpf.

2.7. LA FENOMENOLOGIA

El antecedente inmediato de esta corriente, sin que ello suponga ubicarlo dentro de

ella, se remite a Franz Brentano (1838-1917) rescató del olvido una antigua teoría del

aristotelismo escolástico, la intencionalidad del psiquismo humano, es decir, consideró

que los fenómenos psicológicos se refieren a un "contenido", distinto a ellos mismos, y se

dirigen a un "objeto"; sin embargo, ni ese contenido, ni ese objeto son mentales,

únicamente el acto que se dirige a un objeto tiene entidad mental. El acto y el contenido

forman una unidad inseparable y lo fundamental de los fenómenos psíquicos es la

intencionalidad, proceden de un sujeto y tienen un fin.

Entre los seguidores de Brentano destacaron algunos precursores de la psicología de la

Gestalt, tales como Meinong y Ehrenfels, también sobresalió Edmond Husserl

(1859-1938), fundador de la fenomenología (de fainomenon= lo que aparece), que

pretende derivar de las vivencias psíquicas las esencias implicadas en ellas, de un modo

directo, sin abstracción.

El análisis fenomenológico de los hechos psíquicos trata de captar la esencia universal

del fenómeno, busca el sentido primitivo de las cosas, el conocimiento puro.

Husserl puso de manifiesto el error fundamental del psicologismo, demostrando que el

objeto de la lógica no puede reducirse a la psicología. Estableció el método

fenomenológico, el cual parte de los datos empíricos, que nos proporcionan los

Page 25: Aznar Alternativas Teoricas en Percepcion Raic

25

fenomenómenos de conciencia, e intenta investigarlos (fenomenología= estudio de los

fenomenómenos). Dicho método consta de tres fases:

a) Empirismo fenomenológico: atenerse únicamente a los femenómenos de conciencia

que son "vivencias intencionales".

b) Reducción eidética (eidos= esencia): mediante un análisis fenomenológico, que

prescinda de todas las particularidades y singularidades del fenómeno, hasta quedarse

sólo con su esencia, excluyendo incluso su existencia.

c) Descripción eidética del fenómeno estudiado.

El concepto central de la fenomenología de Husserl es la intencionalidad, característica

de la conciencia por la que tiende a dirigirse hacia algo, de referirse a un contenido. Este

interés por la intencionalidad fue inspirado por su maestro Brentano.

En resumen, la fenomenología Husserliana se centra en el estudio reflexivo de tres

factores básicos de la intencionalidad:

- Los noemas: entidades abstractas del acto e infinitas en el tiempo, que determinan su

objeto (si lo hay) y su clase. Son similares a las ideas platónicas, como el significado que

da unidad al acto.

- La noesis: entidades concretas y transitorias del acto, experiencias de tipo intencional,

que proporcionan la multiplicidad a nuestros actos.

- El hyle: experiencias o datos materiales que se producen al ser estimulados nuestros

sentidos.

Como se expondrá más adelante (véase cap. 5), si bien Husserl fue el sistematizador de

esta concepción, los posteriores desarrollos de la fenomenología (Merleau-Ponty,

Gurwitsch) influiran sobremanera en determinados psicólogos, llegando su influjo hasta

nuestros días, desde una perspectiva fenomenológica experimental.

Page 26: Aznar Alternativas Teoricas en Percepcion Raic

26

Capítulo III: Orígenes científicos de la psicología y estudio de la percepción

"Ciertos sucesos observables son comúnmente llamados 'físicos' y otros 'mentales'; a veces los sucesos 'físicos' aparecen como causas de los 'mentales' y a veces ocurre a la inversa." (Bertand Russell, s.XX)

3.1. INTRODUCCION

En opinión del historiador de la psicología Caparrós (1976), la desvinculación gradual de

la Psicología respecto de la Filosofía y la necesaria aproximación a las ciencias empíricas

puede ser considerada desde dos perspectivas relacionadas:

a) Respecto al objeto o contenido: caracterizada por una visión naturalista de la mente

humana, de acuerdo con la tendencia materialista de la ciencia.

b) Respecto al método: caracterizada por un alejamiento de la especulación metafísica y

un acercamiento a la observación empírica, aunque con insuficientes técnicas de control.

En este proceso de emancipación de la Psicología científica, contribuyeron una

pluralidad de factores entre los que el citado autor señala:

El establecimiento de la Fisiología como ciencia independiente. Sin olvidar los

problemas fronterizos que esta disciplina compartía con la Psicología, los cuales eran

relativos a la experiencia sensorial: mecanismos del arco reflejo, relaciones mente

cuerpo, umbrales sensoriales, etc. A ello debe añadirse la formación fisilógica y médica de

los fundadores de la Psicología científica (W.Wundt, W.James, J.Müller, etc.), lo que en

algún caso pudo significar una amenaza para la autonomía de la psicología, al pretender

reducir ésta a ser una rama de la Fisiología.

Las contribuciones de la Astronomía, respecto al problema de la variabilidad de las

mediciones temporales (tiempos de reacción) en su intento por perfeccionar la exactitud

en la medida.

Los avances de la Física, en sus ramas más afines (óptica, mecánica, acústica y

electricidad), de la Anatomía (en particular de la relativa a la neurología) y también de la

Histología con el gran desarrollo experimentado por la microscopía cerebral.

Los logros de la Medicina psiquiátrica, que consiguieron desmitificar al enfermo mental

Page 27: Aznar Alternativas Teoricas en Percepcion Raic

27

considerado como 'poseido' o endemoniado, y el reconocimiento de la perturbación

mental como enfermedad abordable mediante el método científico-natural.

La creciente necesidad de control científico (evaluación, clasificación y diagnóstico) de la

educación.

Es de hacer notar el lugar privilegiado que la psicología sensorial y el ámbito de los

fenómenos perceptivos desempeñaron en esta etapa, una posición de protagonismo

central, hasta el punto de solaparse la historia de la psicología con la historia de la

problemática perceptiva.

3.2. LA PSICOFISIOLOGIA DEL XIX

En este apartado recordaremos muy esquemáticamente, siguiendo a Caparros (1976),

aquellos autores y aportaciones que jugaron un papel decisivo en el proceso de

independización de la Psicología, hasta sentar las bases que le permitieron alcanzar un

estatus científico mediante la utilización de la metodología experimental. Evidentemente,

nuestro objetivo en este capítulo es, simplemente, enlazar las concepciones metafísicas y

especulativas precedentes, acerca de la percepción, con las concepciones que se

fundamentarán en bases empíricas.

->Ley de Bell-Magendie (1811): distinción anatómico-funcional de los nervios

sensoriales y motores. El descubrimiento de los nervios motores, sensoriales y mixtos,

sugirió la existencia de áreas sensoriales y motoras en el cerebro y en la médula y sirvió

de fundamento a la distinción entre funciones sensoriales y funciones motoras

(explicación del arco reflejo).

->Demostración de que los nervios transmiten impulsos bioeléctricos (Matteucci,

Bois-Reymond y J.Bernstein) y final de la interpretación espiritualista cartesiana.

->Inicio de la cronometría fisiológica: H. von Helmholtz midió la velocidad de

transmisión del impulso nervioso en la pata de una rana (tiempo de reacción), abriendo

el camino hacia la cronometría de los procesos mentales.

->Descubrimiento, por parte de M.Hall (1790-1857), de la involuntariedad e

inconsciencia de los actos reflejos (reflejo pupilar, patelar, etc.), que de forma mecánica y

Page 28: Aznar Alternativas Teoricas en Percepcion Raic

28

sin intervención del cerebro cumplían una función adaptativa y según ciertos 'propósitos'.

Ya en el siglo XX, Paulov demostraría las posibilidades de estos reflejos.

->Frenología y localización de las funciones cerebrales:

* Francis J. Gall (1758-1828): las facultades están localizadas en el cerebro y todo exceso

que se dé en una de sus facultades supone una modificación en su correspondiente zona

cerebral, la cual se refleja en el cráneo (craneoscopía). Si bien, ni el método ni las

facultades que localizaban ofrecieron interés a la psicología, contribuyeron a erradicar la

la sede metafísica del alma, en favor de una sede material.

* Flourens (1794-1867): consideró la unidad de la mente, pero admitió una frenología

zonal, en lugar de puntual como Gall. Utilizó el método de extirpación precisa de partes

bien delimitadas del cerebro y posterior observación de los efectos conductuales

derivados.

* Broca, en 1961, propuso un centro del lenguaje en el cerebro y tuvo como

consecuencia el desarrollo de una "cartografía cerebral" (mapas).

->Avances en la histología neurológica, merced a la microscopía, que llevaron constatar

la red neuronal inmensa del cerebro, dando soporte fisiológico al asociacionismo

filosófico imperante.

->Ley de la especificidad de las vías nerviosas, enunciada por Johanes Müller entre

1833-1840, la cual supone que los nervios de cada modalidad sensorial tienen una

energía específica que es responsable del tipo de sensación, quedando asentada la

diferencia cualitativa de los nervios. Müller, considerado por muchos 'padre de la

Fisiología', afirmaba que el destino de la Psicología era ser absorbida por la Fisiología.

Esta ley fue crucial en la consecución de un estatus científico para la Psicología, ya que

reconoce que las sensaciones dependen del organismo (sistema nervioso), lo que implica

que el cerebro es el órgano de la mente.

3.3. LA PSICOLOGIA SENSORIAL DEL XIX

La Psicología sensorial cobró un fuerte impulso, desde la primera mitad del siglo XIX,

Page 29: Aznar Alternativas Teoricas en Percepcion Raic

29

debido sobre todo a los avances de la Física y la Anatomía. Desglosaremos aquí las

aportaciones más relevantes de este período, en función de las diversas modalidades

sensoriales sobre las que se practicaron las investigaciones:

A) VISION

* Thomas Young publica en 1793 un trabajo sobre acomodación ocular y en 1801 una

interesante teoría sobre la visión del color, desarrollada posteriormente por Helmholtz y

conocida, en actualidad, como teoría de Young-Helmholtz.

* Aportación del "fenómeno de Purkinje": los colores cuya longitud de onda es más

corta, dejan de percibirse más tarde que los de larga longitud de onda, al disminuir la

intensidad luminosa.

* Planteamiento de las problemáticas en torno a la formación de la imagen retiniana,

según las leyes de la óptica (J. Müller), leyes combinatorias de los colores (disco de

Newton), adaptación a la luz y a la obscuridad, visión binocular y acomodación ocular a la

distancia.

B) AUDICION

En esta modalidad sensorial las investigaciones se limitan a describir los fenómenos

acústicos descubiertos por la Física y la Anatomía. Será preciso esperar a von Helmholtz

(véase cap. 4) para disponer de un enfoque apropiado para el estudio de los fenómenos

auditivos.

C) TACTO

En el estudio de la sensibilidad háptica merece una especial atención la obra del

fisiólogo Ernst Heinrich Weber (1795-1878), el cual, utilizando el 'test del compás'

determinaba el "umbral de impresión dual" (distancia mínima requerida entre las dos

puntas del compás para captar una doble sensación espacial sobre la piel) y constató la

variabilidad de las regiones cutáneas.

Posteriormente, se comprobó la variabilidad de los umbrales según la atención, el

entrenamiento, la fatiga, la raza, etc. También experimentó discriminaciones de peso,

llegando al concepto de "diferencia mínima perceptible" o "umbral diferencial",

Page 30: Aznar Alternativas Teoricas en Percepcion Raic

30

advirtiendo de que percibimos cambios relativos y no absolutos. A partir de sus

experimentos llegó a concluir que el incremento de magnitud (ΔM) necesario para

advertir una diferencia mínima perceptible, dividida por la magnitud del estímulo (M),

era constante:

K= ΔM / M

Esta constante, en cierto sentido, funciona como un índice aproximado de la finura

discriminativa de las distintas modalidades sensoriales. En base a esta constante,

ulteriormente, elaboró Fechner (véase cap. 4 y 5) la fórmula que conocemos como ley de

Weber-Fechner.

La importancia de los métodos experimentales de la psicofísica para la psicología radica

en que permitió establecer una relación cuantitativa entre fenómenos físicos y mentales,

es decir, entre variables físicas y psicológicas, lo que daba fundamento a una Psicología

experimental.

Otra aportación interesante fue el empleo de métodos introspectivos y/o

fenomenológicos; ya que, los sujetos informaban sobre las características objetivas del

estímulo (ejem., 'parece más pesado'), pero esta información versaba sobre como los

objetos aparecían ante su conciencia (método fenomenológico).

3.4. INFLUENCIA DE LA ASTRONOMIA: LA ECUACION PERSONAL

Para resolver el problema de los tránsitos estelares, mediante telescopio y cronómetro,

tras haber constatado diferencias entre los tiempos medidos por diferentes astrónomos,

se recurrió a un método basado en el cálculo de las diferencias de las medidas

temporales de varios observadores, con el fin de corregir sus estimaciones; a este

método se le dió el nombre de "ecuación personal. Paulatinamente, el problema del TR

(tiempo de reacción) fue incorporándose a la Psicología, experimentando un notable

perfeccionamiento con la aparición de los cronoscópios y cronógrafos, que permitió

afinar las técnicas de medición. Los estudios de cronometría psicológica se centrarón,

básicamente en:

a) Detectar los factores que influían en el TR (del sujeto: en trenamiento, atención,

Page 31: Aznar Alternativas Teoricas en Percepcion Raic

31

fatiga, etc.; del estímulo: intensidad, brillantez, velocidad del movimiento, etc.).

b) Determinar la duración de los procesos mentales. Aquí jugó un importante papel el

método sustractivo de Donders (1868), fundamentado en una concepción de la mente

como procesador serial, actualmente cuestionada. Sin embargo, los métodos de la

cronometría aportaron datos de interés sobre las diferencias interindividuales.

Page 32: Aznar Alternativas Teoricas en Percepcion Raic

32

Capítulo IV: Nace la psicología en el terreno de lo perceptual

"existen dos fronteras entre lo mental y lo físico, a saber, la sensación y la volición. 'Sensación' puede definirse como el primer efecto mental de una causa física, y 'volición' como la última causa mental de un efecto físico" (Bertrand Russell, s. XX)

4.1. INTRODUCCION

Previamente a la adquisición de un estatus científico de la psicología, es preciso e

ineludible remontarse a las figuras de dos antecedentes inmediatos al fundador de la

Psicología como disciplina experimental independiente de la Filosofía y la Fisilogía

(W.Wundt), nos referimos a Fechner y Helmholtz. Estos precursores de la psicología

científica desarrollaron su trabajo en el campo de los fenómenos perceptivos, si bien en

áreas diferentes y utilizando técnicas distintas. Fechner estudiando las relaciones entre

los estímulos físicos y los juicios perceptivos; Helmholtz investigando aspectos relativos a

la fisiología de los sistemas sensoriales (visión y audición).

4.2. GUSTAV THEODOR FECHNER (1801-1877)

Filósofo, fisiólogo y físico que pasaría a la historia por sus contribuciones metodológicas

experimentales a la psicología. Vinculado en su formación académica a las corrientes

científico-materialistas y filósofo idealista, intento aunarlas dentro de una postura

dualista (paralelismo psicofísico) que le conduciría a un 'panpsiquismo' (identidad entre

materia y mente). Desarrolló abundantes experimentos sensoriales (tactiles: pesos;

visuales: brillantez, estimación de distancias, etc) y publicó en 1866 los "Elementos de la

psicofísica", donde considera la psicofísica como una ciencia exacta de las relaciones

funcionales o relaciones de dependencia entre cuerpo y mente. Sostiene que la

sensación, si bien no puede medirse directamente, ésta puede medirse indirectamente,

llegando así a establecer el concepto de 'umbral absoluto' o umbral de conciencia

(magnitud física del estímulo requerida para que se perciba el estímulo) y 'umbral

relativo o diferencial' (incremento necesario para que se perciba un cambio entre dos

Page 33: Aznar Alternativas Teoricas en Percepcion Raic

33

magnitudes del estímulo).

Fechner asumió que todos los umbrales diferenciales eran subjetivamente equivalentes

y, en consecuencia, el incremento de la sensación (ΔS) podía calcularse a partir de la

"constante de Weber":

ΔS= K. (ΔM/M)

que denominó "ley de Weber" y en la que 'K' es una constante de proporcionalidad.

Estos incrementos mínimamente distinguibles pueden utilizarse como unidades de

medida, que nos permitan construir una escala psicológica de la sensación, al igual que

las hay en Física para medir la longitud, el peso, etc. Posteriormente, Fechner obtuvo la

función, que relaciona sensación y estímulo, al plantear una ecuación diferencial que

resuelve por integración y a la fórmula resultante se le conoce como "ley de Fechner":

S= K.loge M + C

cuyo significado explicábamos al hablar de Weber (véase cap. 3).

De especial interés es el hecho de que cuando 'M' (magnitud del estímulo) tiene el valor

del umbral absoluto, 'S' es nula (vale cero), lo cual lleva a presuponer la existencia de

sensaciones negativas, cuando el valor de la sensación (S) corresponde a valores de 'M'

menores que el umbral (subliminares).

Otra aportación de relevante interés se refiere a los tres métodos ideados por Fechner,

basados en técnicas estadístico-matemáticas, que enumeramos en el capítulo 5

(subapartado 5.4 Métodos psicofísicos clásicos). Estos métodos son susceptibles de

aplicarse a la determinación de los dos tipos de umbrales (absoluto y diferencial), como

un medio que permite corregir estadísticamente la enorme variabilidad observada en

dichos umbrales.

La psicofísica clásica de Weber y Fechner no está exenta de críticas a las insuficiencias

que se hicieron patentes con su aplicación (por ejem., Hering) y en la actualidad está

representada por S.S Stevens y G. Ekman (ya fallecido), en la que la ley de Weber y la de

Fechner quedan absorbidas como casos particulares de una ley más general:

S= K. Mn

según la cual, a medida que la intensidad del estímulo crece exponencialmente, la

sensación aumenta linealmente.

Page 34: Aznar Alternativas Teoricas en Percepcion Raic

34

Otros avances metodológicos más recientes contribuyeron al desarrollo de la

psicofísica, como la TDS o Teoría de la Detección de Señales (Tanner y Swets, 1954).

No debe escapársenos, tampoco, las repercusiones a que dió lugar la psicofísica, no sólo

sobre el mismo Wundt, sino también sobre otros psicólogos posteriores, por citar

algunos: las escalas de medida tipo Thurstone (1929) [ver cap. 5], el concepto de nivel de

adaptación de H. Helson [ver cap.7], e incluso, como señala Pinillos (1975), la relación

entre estímulos condicionados y respuestas condicionadas del mismo Paulov puede

encontrar un antecedente el los trabajos de Weber y Fechner sobre la relación entre lo

físico y lo psíquico.

4.3. HERMAN N VON HELMHOLTZ (1821-1894)

Físico y fisiólogo discípulo de J. Müller fue uno de los científicos que más contribuyó,

indirectamente, al logro de un lugar entre las ciencias para la psicología de base

experimental. Sus principales aportaciones a la Psicología se inscriben en el campo

sensorial; así, en su "Optica" publicada entre 1856-1866 trata los principales aspectos de

la visión (estimulación del nervio óptico y la retina, postimágenes, movimientos oculares,

percepción de la distancia, visión monocular y binocular, etc.). Respecto al color, explicó

la visión cromática, en base a los tres colores primarios (rojo, verde y azul) y sus

correspondientes fibras nerviosas, en la conocida teoría de Young-Helmholtz.

Equiparable en importancia es su obra sobre el oido y la acústica ("Sensaciones tonales",

publicada en 1863), en la que expone su tería sobre la audición, denominada "Teoría de

la resonancia".

A pesar de su origen germano, Helmholtz fue seguidor de la tradición empirista inglesa,

en lo que a la percepción se refiere, sobre la que elaboró una teoría inspirada en el hecho

de que en el estímulo no existen, de modo inmediato, muchos datos experienciales de la

percepción, sino que proceden de experiencias pasadas y actúan mediante inferencias

inconscientes. A estas últimas les atribuye tres propiedades: 1) su irresistibilidad, 2)

producidas por la experiencia y 3) son inductivas. Por consiguiente, en la percepción,

según este autor, se conjugan aspectos sensoriales derivados del estímulo y

Page 35: Aznar Alternativas Teoricas en Percepcion Raic

35

conocimientos provinientes de la experiencia pasada.

4.4. WILHELM WUNDT (1832-1920)

Unánimemente considerado como el 'fundador de la psicología científica'

(experimental), tras una formación fisiológica, trabajó en Berlín en el laboratorio de J.

Müller, después en Heidelberg como colaborador de Helmholtz (13 años),

posteriormente abdica de la docencia fisiológica para centrarse en la filosofía (psicología)

en la universidad de Zurich (1874) y un año después en Leipzig, donde llevó a cabo su

valiosa tarea de sistematizador.

Concibe a la psicología como una ciencia de la experiencia, distinta de la metafísica, que

tiene por objeto de estudio la experiencia inmediata (estado de la conciencia) y utiliza el

método introspectivo (autoobservación) apoyado en el experimento. Respecto al

problema de la relación cuerpo-mente adoptó un dualismo cercano al paralelismo

psicofísico (Leibnitz).

Para Wundt la finalidad de la psicología consistiría en analizar los procesos de

conciencia acaecidos entre la presentación de estímulos y las respuestas observables. La

tarea del psicólogo debía ser, pues, analizar la conciencia en sus últimos elementos,

después deberían buscarse las leyes que rigen la formación de totalidades. Según Wundt,

los elementos que se encuentran en la conciencia son: sensaciones, imágenes y

sentimientos. En lo que se ha denominado teoría de la actualización de la conciencia,

sostiene que la conciencia es un flujo continuo (proceso psíquico) y en su teoría de la

causalidad psíquica, afirma que los contenidos de la conciencia (sensaciones y

sentimientos) se asocian según las pasivas leyes de la asociación (similitud, contigüidad,

frecuencia, recencia, intensidad, etc.) y la activa apercepción, que organiza múltiples

datos en una totalidad. Wundt considera que lo apercibido es lo que cae bajo el foco de

la atención y aquello de lo que tenemos conciencia.

Otro concepto que, junto con el de apercepción parece alejarle del mero

asociacionismo, es el de síntesis creativa, similar al de "química mental" de J.S. Mill,

proceso mediante el cual los contenidos elementales de la conciencia son elaborados

Page 36: Aznar Alternativas Teoricas en Percepcion Raic

36

hasta producir combinaciones creativas y unificantes, diferentes de las simples sumas de

los elementos componentes.

Los temas de investigación preferidos del fundador de la psicología fueron la sensación

y la percepción:

a) visual: psicofísica de la luz y del color, visión periférica, contraste visual y fenómeno

de Purkinje, visión binocular e ilusiones ópticas.

b) auditiva.

c) tactil: umbral de distancia entre dos puntos

d) gustativa.

También investigó sobre la percepción del tiempo, la atención (fluctuaciones y

acomodación), el sentimiento y algunos trabajos sobre la memoria.

En suma, de acuerdo con A. Caparrós (1977), lo que caracterizó el inicio de la Psicología

como ciencia experimental fue el elementarismo, sensacionismo, atomismo y

asociacionismo, desencadenando ulteriormente una serie de reacciones académicas que

fraguaron en otras alternativas paradigmáticas al estructuralismo wundtiano, extendido

por sus numerosos discípulos de Leipzig (Kraepelin, Külpe, G.S. Hall, J. McK. Catell, F.

Angell, Titchener, etc).

Page 37: Aznar Alternativas Teoricas en Percepcion Raic

37

Segunda Parte PRIMERAS TEORIAS PSICOLOGICAS DE LA PERCEPCION

Page 38: Aznar Alternativas Teoricas en Percepcion Raic

38

Capítulo V: Primeros desarrollos teórico-metodológicos: el modelo psicofísico y la fenomenología

"El mundo verdadero, tal como siempre se ha concebido hasta nosotros, ha sido siempre el mundo de las apariencias, repetido". (F. Nietzsche, s. XIX)

5.1. PSICOFISICA: CONCEPTO Y OBJETIVO

Anteriormente a la utilización de la introspección analítica y formal como método de la

psicología experimental, apareció la psicofísica con el fin de estudiar las relaciones entre

lo físico y lo psíquico, introduciéndose de este modo la medición en psicología. La

paternidad indiscutible de esta metodología corresponde a E.H. Weber (1795-1878) y a

G.T. Fechner (1801-1887) y, sin duda, la obra fundacional de la psicofísica clásica es

"Elementos de la psicofísica", publicada por Fechner en 1860.

Los antecedentes próximos se hallan en la obra de ciertos matemáticos del siglo XVIII,

tales como Kramer, quien en 1728 sostuvo que las sensaciones se hallan en relación

cuadrática con sus fuentes de estimulación.

La psicofísica ha sido definida como "una parte de la psicología experimental que

investiga las correlaciones y regularidades entre la intensidad y la calidad del estímulo,

por una parte, y la percepción y los juicios acerca de ella, por otra; es decir, investiga la

vida de relación del organismo (especialmente el humano) con su medio físico concreto y

los juicios que forma el hombre acerca de estas percepciones" (Mankeliunas, 1980).

Según el mismo autor, el problema central de la psicofísica es el de establecer las

relaciones cuantitativas existentes entre la presentación del estímulo (input sensorial) y

la magnitud de la reacción (output) por parte del organismo afectado. La investigación de

estas relaciones (input-output) hizo inevitable el desarrollo de una variada y precisa

metodología, que permitiera abordar experimentalmente los aspectos implicados en el

proceso perceptivo. Posteriormente, estos procedimientos fueron aplicados a otros

contextos de la psicología, por ejemplo, a la elaboración de escalas de actitudes, de

Page 39: Aznar Alternativas Teoricas en Percepcion Raic

39

intereses, etc. En este sentido, es preciso reconocer a la psicofísica el mérito de haber

abordado científicamente algunos problemas relativos a la percepción, sustituyendo la

especulación metafísica, predominante en aquella época, por la búsqueda de relaciones

funcionales entre lo físico y lo psíquico.

Como señala Day (1969), los métodos psicofísicos representan un vehículo de

investigación, de manera precisa, que permite cuantificar cuatro tipos básicos de

comportamientos perceptivos: la detección, la discriminación, el reconocimiento y la

estimación. En la actualidad, la psicofísica tiene como objetivo estudiar los procesos que

median de lo objetivo a lo subjetivo, de lo físico a lo psíquico, en otros términos, el

estudio de los factores intervinientes en la comunicación del individuo con su medio

físico y sociocultural.

5.2. EL MODELO DE LA PSICOFISICA CLASICA

Siguiendo a Mankeliunas (1980), conviene diferenciar el modelo físico, al que recurrió

Fechner en su psicofísica, de otros modelos como el fisiológico o el cibernético.

El modelo físico expresa una relación lineal y se esquematiza del modo siguiente:

En el que A señala las relaciones funcionales directas de cuyo estudio se ocuparía la

psicofísica interna, mientras que B indica las relaciones funcionales indirectas estudiadas

por la psicofísica externa desarrollada por Fechner.

El modelo fisilógico es más completo (multidimensional), ya que en él se relacionan

todos los factores que intervienen en la percepción del estímulo. Gráficamente se

Page 40: Aznar Alternativas Teoricas en Percepcion Raic

40

representa así:

En este modelo a cada relación le correspondería las siguientes disciplinas: A) Fisiología,

B) Psicofísica pura, C) Interdisciplinar.

Los modelos cibernéticos consisten en una representación formal de los factores

intervinientes entre la emisión de la información, su codificación y las respuestas

adaptativas del organismo. Un ejemplo de estos lo constituye el modelo de

Procesamiento de información, que Neisser (1967), caricaturiza de este modo:

5.3. LA MEDIDA DE LA SENSACION: LOS UMBRALES

El problema en torno a la medición del valor de la sensación no tardó en manifestarse.

En efecto, puesto que la intensidad de la sensación sólo es accesible al sujeto que la

experimenta y no puede ser observada directamente desde el exterior, se impuso la

necesidad de encontrar una unidad de medida de la sensación, que se mantuviese

Page 41: Aznar Alternativas Teoricas en Percepcion Raic

41

estable en diferentes procesos sensoriales. En el intento de abordar experimentalmente

la cuantificación de la sensación se partió de la idea de 'umbral absoluto' (UA), entendido

como la mínima cantidad de estímulo requerida para que surja una sensación en el

sujeto. A pesar de promediarse las diferencias individuales provocadas por la fatiga,

atención, entrenamiento, etc, ésta unidad (UA) variaba considerablemente según el

rango de magnitud de la energía del estímulo, por lo que se propuso la obtención de una

medida que expresase la sensibililidad diferencial correspondiente a la variación de la

intensidad del estímulo dado. Así, Weber (véase también cap. 3), al no hallar una fórmula

de medida absoluta (directa) de la sensación, se orientó hacia un modo indirecto

(relativo), llegando al concepto de 'umbral diferencial' (UD), basado en la diferencia

mínima perceptible (DMP), definido como el incremento (o decremento) que ha sido

preciso añadir (o substraer) para que el sujeto informe de un cambio en la magnitud

sensorial.

Weber, a partir de sus investigaciones observó que la relación entre el incremento que

da lugar a una DMP y la magnitud de estímulo era constante: ΔM / M = K (DMP). Es decir,

que la percepción de la diferencia se relaciona directamente, no con la magnitud

absoluta del incremento en estímulo, sino con la razón entre dicho incremento y la

magnitud del estímulo de comparación (estandar). Sin embargo, en los rangos extremos

de magnitud del estímulo, esta constante no era proporcional.

El método utilizado por Weber consistía en variar sistemáticamente las propiedades

físicas manipulables del estímulo y registrar los informes que daba el sujeto sobre los

cambios de sensación experimentados a consecuencia de los cambios en el estímulo. Ello

le permitía obtener una medida cuantitativa que ponía en relación fenómenos físicos y

psíquicos. Hay que hacer constar, que para los elementaristas (Wundt, Titchener, etc.)

este tipo de informe constituía lo que denominaban 'error del estímulo', aspecto que

había que evitar entrenando a los sujetos en un tipo de introspección que debía de

describir meramente las cualidades subjetivas de la sensación.

Fechner (véase cap. 4, subapartado 4.2 Fechner) consideró subjetivamente equivalentes

todos los umbrales diferenciales y, en consecuencia, el cambio en la sensación podía

obtenerse a partir de la constante de Weber: ΔS= K . (ΔM / M), que mediante una

Page 42: Aznar Alternativas Teoricas en Percepcion Raic

42

transformación logarítmica se expresa así: S= K. ln M + C, en la que C es una constante de

integración y ln M es el el logaritmo neperiano de la magnitud física del estímulo. Esta ley

de Fechner indica que la intensidad de la sensación es proporcional al logaritmo de la

intensidad del estímulo. En otros términos, predice que si la intensidad del estímulo crece

en progresión geométrica, la intensidad de la sensación crece sólo en progresión

aritmética.

En un experimento anterior a la publicación de la obra de Fechner, Plateau trató de

relacionar la luminosidad de una superficie con la función de potencia de la fuente

luminosa, lo cual sirvió de base a S.S Stevens (1957) para formular teóricamente y

verificar empíricamente su ley de potencia (The power Law), siendo este autor un ilustre

representante de la psicofísica actual o psicofísica subjetiva.

5.4. METODOS PSICOFISICOS CLASICOS

Para determinar los umbrales absoluto y diferencial, y verificar sus hipótesis, el propio

Fechner elaboró unos procedimientos experimentales conocidos con la denominación de

métodos psicofísicos clásicos, que fundamentalmente son tres:

- Método de los límites o mínimos.

- Método del error promedio o ajuste.

- Método de los estímulos constantes.

No nos detendremos en su descripción por considerar que existe abundante bibliografía

sobre estas metodologías y remitiremos al lector interesado a cualquiera de los manuales

sobre percepción escritos en castellano que se hallan disponibles en el mercado, tales

como los de Day (1969), Forgus (1972), Ardila (1980), etc. No obstante, señalaremos que

todos ellos permiten obtener una aproximación estadística tanto del umbral absoluto

como del umbral diferencial, si bien el método de los estímulos constantes ha sido el más

frecuentemente utilizado. Para la elección de uno u otro de estos métodos, el

experimentador deberá tener en consideración diversos factores entre los que

destacamos: la disponibilidad de valores continuos o discretos de los estímulos de

comparación, evitación de posibles errores de juicio (habituación, anticipación, etc.), el

tiempo disponible para la recogida de datos, etc. También, resulta preferible la utilización

Page 43: Aznar Alternativas Teoricas en Percepcion Raic

43

de sujetos no entrenados cuando los resultados vayan a ser considerados representativos

de la población de estudio.

Estos métodos continúan aplicándose, principalmente para establecer la agudeza y

sensibilidad en los juicios de apreciación, de tamaño, forma, posición, intensidad,

movimiento y cualquier otra propiedad de los objetos.

5.5. LAS ESCALAS PSICOFISICAS

Los métodos de construcción de escalas psicofísicas pretenden desvelar la relación

existente entre los continuos físicos de energía del estímulo y los juicios de apreciación

del sujeto.

Fechner fue el primero en desarrollar procedimientos que permitían esclarecer la

relación existente entre la escala física y la escala de sensación. Sin embargo, no sería útil

construir una escala de valores de DMP (diferencia mínima perceptible) acumuladas, en

función de la magnitud del estímulo, y particularmente cuando las DMP se obtienen

indirectamente (como en el método de los estímulos constantes), sino que sería

conveniente disponer de una escala de medición directa, mediante la cual el sujeto

informe sobre el valor de sus sensaciones (Corso 1967, citado por Forgus, 1972).

Entre los métodos directos para la construcción de escalas psicofísicas los más

profusamente empleados son:

a) El método de juicio de categoría, en el que se proporciona al sujeto un conjunto de

categorías (Por ejem., sobre intensidad de un sonido: muy fuerte, fuerte, medio, débil,

muy débil) y debe asignar cada estímulo presentado a una de tales categorías.

b) El método de los intervalos aparentemente iguales, en el que se solicita al sujeto que

distribuya los estímulos, de modo equidistante unos de otros.

También ofrece interés las técnicas metodológicas o procedimientos experimentales

utilizados por Stevens para la construcción de escalas psicofísicas de razón, entre las que

sobresalen:

- La partición continua o equisección, que consiste en calcular el punto en el cual un

estímulo se percibe como la mitad de otro en cuanto a intensidad, frecuencia o cualquier

otro parámetro.

- La construcción de relación, consistente en modificar la magnitud de un estímulo a

Page 44: Aznar Alternativas Teoricas en Percepcion Raic

44

cierta relación, mitad, cuarta parte, doble, triple, etc.

- La estimación de magnitudes, en la cual el sujeto debe adscribir cada estímulo que se

le presenta a una magnitud, de acuerdo con una secuencia previamente fijada.

5.6. DE LA PSICOFISICA CLASICA A LA CONTEMPORANEA

El principal exponente de esta nueva reconversión de la psicofísica fechneriana es S.S.

Stevens; sin embargo, los antecedentes científicos de la nueva orientación se remontan a

los numerosos trabajos e investigaciones que cuestionaban la ley de Fechner (S= K. ln M +

C). Entre estos sobresale el nuevo planteamiento metodológico esbozado por L.L.

Thurstone en 1929, para estudiar las relaciones entre el estímulo físico y la respuesta

sensorial del sujeto, que él mismo denominó 'psicofísica subjetiva' o dependiente de la

estimación del sujeto sobre una serie de estímulos. Hacia 1930, Richardson y Ross,

investigando con audiciones, observaron una relación exponencial entre las estimaciones

sonoras y la presión sonora (E= R(;I)). En 1936 Stevens se interesó por las escalas

subjetivas de sonoridad, proponiendo una unidad de medida subjetiva de la sonoridad, el

son, definido como la sonoridad percibida ante un tono de 40 dB y 1000 Hz. Demostró la

existencia de una función exponencial entre la sonoridad (S o sensación) y la intensidad

sonora (M de magnitud del estímulo), según la cual: S= K . Mn, en la cual 'n' es la

pendiente que varía según la modalidad sensorial, o expresando dicha relación en forma

logarítmica: S= n log M + log K.

Al adoptar el modelo cibernético, concibe al organismo como un sistema receptor de

información (input) y emisor de información elaborada (output). Según Stevens, el

organismo recibe estimulaciones de continuos físicos, que pueden producir:

* Cambios cuantitativos en el nivel de excitación magnitudes protéticas).

* Cambios cualitativos que implican procesos fisiológicos diferentes o alternativos

(magnitudes metatéticas).

Este autor sólo acepta la validez de las estimaciones numéricas en los juicios de

apreciación directa (construcción de escalas de sensibilidad) y propone su ley de potencia

Page 45: Aznar Alternativas Teoricas en Percepcion Raic

45

(o ley de Stevens), la cual predice que los cambios en la magnitud del estímulo producen

cambios equivalentes en la sensación. Es decir, a diferencia de la ley de Fechner, ambos

(magnitud del estímulo y sensación) crecen en forma logarítmica.

La ley de potencia de Stevens es una de las que han alcanzado mayor estatus científico

en psicología; puesto que se cumple para otros sistemas sensoriales (visión, tacto),

además del auditivo, así como para otras propiedades del estímulo dentro de una misma

modalidad sensorial (intensidad, claridad, etc.).

La psicofísica subjetiva de Stevens sustituye a la psicofísica objetiva de Fechner, en la

que se relacionan sensaciones con la intensidad del estímulo; mientras que Stevens parte

de las apreciaciones subjetivas para llegar a construir escalas de estimación. La ley de

Stevens, como señala Mankeliunas (1980) fundamenta la posibilidad de medición en

psicología; este autor reconoce que el mérito principal de la psicofísica contemporánea

radica en haber permitido la posibilidad de aplicar el método científico a procesos

simples en forma cuantitativa, siendo posible su extensión a otros campos más complejos

del comportamiento de los organismos.

5.7. DE LA FENOMENOLOGIA FILOSOFICA A LA EXPERIMENTAL

Habíamos expresado al hablar de las raices filosóficas (véase cap. 2, subapartado 2.6 La

fenomenología), que en opinión de Husserl, sistematizador de la fenomenología, el

objeto sólo era accesible a la conciencia, por tanto, el único medio de acceder a las cosas

consistiría en examinar la conciencia humana. De ahí que, como expresa Caparros (1980),

la fenomenología se ocupe de realizar una exploración sistemática y plena de la

conciencia.

Husserl consideraba que el objetivo de la psicología debía ser el estudio de la estructura

significativa y de la función de la conciencia, oponiéndose así al empleo del enfoque

positivista y mecanicista, rechazando el asociacionismo.

Para comprender mejor las vinculaciones entre fenomenología y psicología, Caparrós

(1977) establece la distinción entre:

- Fenomenología filosófica, que trata de llegar a la esencia de las cosas y al

Page 46: Aznar Alternativas Teoricas en Percepcion Raic

46

conocimiento de la realidad última.

- Fenomenología psicológica, consistente en aplicar el método fenomenológico a los

problemas psicológicos, para describir la conciencia en una situación determinada,

mediante la exploración de la experiecia inmediata.

- Psicología fenomenológica, que es una manera de enfocar, una perspectiva o actitud

ante el estudio del comportamiento humano, que presenta las siguientes características:

* Utiliza el método fenomenológico.

* Tiene como meta la comprensión del hombre en su totalidad.

* Se interesa, fundamentalmente, en la exploración cualitativa de la experiecia

humana.

* Rechaza el empirismo, asociacionismo y reduccionismo.

* Se opone a reducir el objeto de la psicología a la conducta.

* Propone un enfoque holista de los problemas psicológicos.

Las primeras aplicaciones de la fenomenología en psicología tuvieron lugar en el campo

de la percepción. La psicología, desde el punto de vista de la fenomenología, se centra

más en la descripción y acumulación de hechos que en la verificación de hipótesis, es

decir, tiende a adoptar un enfoque científico inductivo, preferentemente al enfoque

hipotético-deductivo.

En general, las teorías psicológicas fenomenológicas, como apuntan algunos autores

(Malapeira, Honrubia y Viader, 1990) fijan la atención en el comportamiento observable

del sistema (input-output) y no postulan hipotéticos procesos internos. En este sentido,

etiquetan a las teorías fenomenológicas con el término 'cajanegristas', en contraste con

las teorías representacionales que, al proponer la existencia de procesos internos con o

sin referente empírico inmediato, consideran como de 'caja translúcida'. Además,

históricamente hablando, las descripciones fenomenológicas cajanegristas suelen

preceder a las que postulan constructos hipotéticos y utilizan variables intermediarias

(caja translúcida).

Desde el punto de vista de la psicología, se entiende por fenómeno todo lo que se

encuentra en la experiencia inmediata, percepción, pensamiento o sentimiento en

cuanto es vivenciado.

Page 47: Aznar Alternativas Teoricas en Percepcion Raic

47

Entre los psicólogos que aplicaron la perspectiva fenomenológica a los fenómenos

perceptivos podemos citar a Goethe con la publicación de su teoría de los colores en

1810, opuesta a la de Newton. También a principios del siglo XIX, el fisiólogo Purkinje que

se ocupó de la visión combinando la descripción fenomenológica y hallazgos físicos y

fisilógicos con la experimentación; aportó el fenómeno que lleva su nombre (fenómeno

de Purkinje), según el cual, los colores que tienen menor longitud de onda se perciben

durante más tiempo que los de mayor longitud de onda, cuando disminuye la

luminosidad. El mismo J. Müller y el propio Fechner realizaron abundantes descripciones

fenomenológicas.

En el último cuarto del siglo XIX, el fisiólogo Hering, autor de la "teoría de los colores

opuestos", antagónica de la expuesta por Helmholtz (teoría de los tres componentes

Young-Helmholtz), la cual se centraba más en el estímulo (mezclas de colores), que la de

Hering, centrada en la ordenación fenoménica de los colores y la experincia

fenomenológica inmediata.

El psicólogo Stumpf, quien tuvo como discípulos a los tres fundadores de la Gestalt

(Wertheimer, KÖhler y Koffka), el cual diferenciaba la psicología del contenido, como una

parte accesible mediante la fenomenología, de la psicología del acto y funciones, como

propiamente psicológica.

A finales del siglo XIX, se produce otro acercamiento a la fenomenología por parte de

Mach y Külpe, al considerar el espacio y el tiempo como datos experienciales, y no como

una serie de sensaciones puntuales, como sostenían los Wundtianos. También la escuela

de Wurzburg, y en particular Buhler, se aproximó al enfoque fenomenológico.

Especial mención, por su influencia directa sobre la Gestalt, merece la adopción de esta

perspectiva por parte de G.E. Müller y su equipo del laboratotrio de Gottingen (Jaensch,

Katz y Rubin), enfocando su atención sobre los fenómenos perceptivos. Ellos, junto con

los psicólogos de la Gestalt, iniciaron lo que se viene denominando fenomenología

experimental, la cual parte de una descripción fenomenológica de los fenómenos

perceptivos, para aplicar posteriormente las técnicas experimentales que les permitían

demostrar, mediante la experiencia inmediata de los sujetos, la existencia de tales

fenómenos (relaciones fondo-figura, leyes de la percepción, constancias perceptuales,

Page 48: Aznar Alternativas Teoricas en Percepcion Raic

48

etc.).

La metodología fenomenológica alcanzó con la psicología de la Gestalt su punto

culminante, encontrándose en la actualidad numerosos autores que defienden y

propugnan este enfoque (G. Kanizssa, 1980; etc.).

Page 49: Aznar Alternativas Teoricas en Percepcion Raic

49

Capítulo VI La dicotomía teórica de base dualista

"No hay concretamente Materia y Espíritu, sino que existe sólamente Materia convirtiéndose en Espíritu"(Theilhard de Chardin, 1962)

6.1. INTRODUCCION

Directamente entroncadas con las raices filosóficas, dos ramas antagónicas jalonan el

recorrido histórico de la psicología de la percepción, denominadas por Anderson y Bower

(1973): línea asociacionista y línea racionalista.

El estudio de los fenómenos perceptivos desde la perspectiva asociacionista pierde sus

remotos orígenes en el pensamiento aristotélico y enlaza con el empirismo británico de

Hobbes, Locke, Berkeley y Hume, vinculándose al asociacionismo de Hartley, James Mill y

John Stuart Mill, para desembocar en el estructuralismo de Wundt, Titchener y G.E.

Müller y el funcionalismo de Willian James. El conductismo la marginó de su campo de

estudio por ser, este campo del conocimiento, accesible mediante el método

fenomenológico y, consiguientemente, no satisfacer los requisitos del método científico

de objetividad y observación pública. Ulteriormente, la temática perceptiva fue rescatada

para la psicología científica por las corrientes neoconexionistas del procesamiento de

información.

Según Anderson y Bower (1973), las corrientes asociacionistas comparten cuatro

metapostulados, dado que vienen a utilizar una metodología común. Estos son:

* Conexionismo: los datos sensoriales se asocian conjuntamente en la mente

mediante la experiencia.

* Reduccionismo o elementarismo: supone que existen ciertos elementos a partir de

los cuales se estructuran los demás y, como consecuencia, las totalidades

pueden ser analizadas y estudiadas a través de las partes constitutivas.

* Sensismo: sostiene que todo conocimiento tiene base sensorial.

* Mecanicismo: las propiedades complejas de las configuraciones pueden describirse,

Page 50: Aznar Alternativas Teoricas en Percepcion Raic

50

predecirse y explicarse a partir de reglas o principios más simples y aditivos

(ejem. el de asociación).

La línea asociacionista considera que la dirección de los procesos perceptivos,

básicamente, parte de los datos registrados por los organos sensoriales y se dirige hacia

los conocimientos almacenados en la memoria a largo plazo (MLP).

Por otro lado, la línea racionalista se remonta al idealismo platónico, reformulado en el

pensamiento cartesiano, después por Leibnitz y, de nuevo, actualizado en el idealismo

transcendental kantiano y la psicología del acto de Brentano, hasta enlazar con la

psicología de la Gestalt representada por Wertheimer, Köhler y Koffka, para encontrarlo

nuevamente en el constructivismo de Piaget, Bartlett y Neisser.

Contrariamente, la perspectiva racionalista rechaza los cuatro presupuestos básicos

asociacionistas y se fundamenta en sus opuestos:

- Innatismo: que en su concepción moderada sostiene que hay ciertos principios de

la mente disponibles desde el nacimiento, los cuales nos imponen ciertas

estructuras particulares o nos fuerzan a proyectar determinadas

suposiciones sobre la enorme variedad de experiencias sensoriales. Se

opone al conexionismo.

- Holismo: supone que de la totalidad emergen propiedades que no se pueden

deducir de las partes componentes. Se opone al reduccionismo.

- Intuicionismo: defiende que las intuiciones sobre los fenómenos mentales tienen

mayor importancia que los datos sensoriales, ya que las intuiciones

proporcionan acceso inmediato a los datos principales del aspecto

considerado, en tanto que lo sensorial está sujeto a numerosos errores, de

ahí que acepten los datos introspectivos. Se opone al sensismo.

- Vitalismo: abogan por el establecimiento de nuevas leyes que permitan describir las

fuerzas vitales que subyacen a los fenómenos perceptivos. Se opone al

mecanicismo.

La línea racionalista considera que los fenómenos perceptivos arrancan de las

estructuras del conocimiento y se dirigen hacia la verificación de su correspondencia con

los datos.

Page 51: Aznar Alternativas Teoricas en Percepcion Raic

51

En los sucesivos apartados de este capítulo nos detendremos a sintetizar brevemente

algunas concepciones, hoy ya clásicas, de la percepción que se hallan enmarcadas dentro

de estas dos líneas de pensamiento psicológico.

6.2. EL ESTRUCTURALISMO

El iniciador de la psicología científica, W.Wundt, partió de la aplicación del método de

las ciencias naturales al estudio de los contenidos de la conciencia en el laboratorio de

Leipzig, como anteriormente señalabamos (véase cap. 4, subapartado 4.3). Distinguía tres

contenidos de la conciencia y de ahí el caracter analítico, elementarista y atomista de su

psicología:

* Sensaciones: fenómenos mentales resultantes de la elaboración subsecuente a la

estimulación de los órganos de los sentidos.

* Imágenes: sensaciones experimentadas sin presencia del estímulo ni estimulación

sensorial.

* Sentimientos: emociones referidas al mundo subjetivo.

Según Wundt, las sensaciones se combinan mediante las leyes de la atención y en base

a determinados principios de conexión sensorial (asociacionismo), formando agregados.

Las imágenes procedentes de experiencias previas también forman parte del agregado.

Concebía la percepción como una mera experiencia inmediata o respuesta consciente y

distinguía en la conciencia el campo y el foco, los cuales determinaban los estados de

conciencia, según los contenidos cayesen bajo el foco de la conciencia (apercepción) o

estuviesen fuera de él. Lo que es apercibido es lo que recibe atención, y la apercepción, a

diferencia de la asociación, es activa y organiza los variados datos sensoriales en

totalidades a través de una 'síntesis creativa'. Toda percepción simpre posee un

significado para el sujeto.

Según su discípulo Titchener, el significado surge del contexto formado por las

sensaciones e imágenes, algunas de las cuales forman un núcleo y otras el contexto.

Titchener considera la experiencia como un fenómeno de la conciencia, la cual es la suma

total de los procesos mentales. Para Wundt, la conciencia era un flujo permanente en

Page 52: Aznar Alternativas Teoricas en Percepcion Raic

52

continua actividad y cambio.

6.3. LA PSICOLOGIA DE LA GESTALT

La Gestalt surgió en Europa como una reacción frente al elementarismo y atomismo del

estructuralismo, en el primer cuarto del siglo XX, centrándose particularmente en el

ámbito de la percepción. Concretamente, su inicio puede fecharse en 1912 con la

publicación de Marx Wertheimer de un artículo sobre el 'fenómeno phi' (movimiento

aparente).

Los antecedentes históricos de la psicología de la Gestalt se encuentran en la

fenomenología de Husserl y en la escuela austriaca de Graz (Ehrenfels y Meinong), estos

últimos añadían un nuevo elemento a las partes, la 'gestaltqualitat. Los representantes

más destacados de esta escuela fueron el antes citado M. Wertheimer, W. Köhler y K.

Koffka.

El término "Gestalt" se traduce literalmente como 'forma'; sin embargo tiene la

connotación de 'estructura configuracional' y define el enfoque adoptado por esta

escuela, que se centró en el problema de la organización perceptual, desarrollando

ingeniosos experimentos y demostraciones originales de numerosos fenómenos

perceptuales. Especialmente, destacaron los principios de organización de modelos

bidimensionales y ofrecieron su interpretación de las constancias del tamaño, forma,

brillantez y color, así como de los movimientos aparentes, partiendo de una descripción

fenomenológica (experiencia de fenómenos), para abordarlos experimentalmente

(fenomenología experimental).

El principio básico de la organización perceptual es que el todo es más que la suma de

las partes, es decir, que las propiedades de la totalidad no resultan de los elementos

constituyentes, sino que emergen de las relaciones espacio-temporales del todo. La

percepción se halla organizada y estructurada de modo innato, concibiendo un

'isomorfismo psico-neurológico' entre la forma subyacente a los procesos

neurofisiológicos y las experiencias perceptuales. Dichos procesos son entendidos como

'campos de fuerza', que interactúan y mantienen un equilibrio del que resulta una

Page 53: Aznar Alternativas Teoricas en Percepcion Raic

53

totalidad o configuración; al ser un campo una unidad dinámica, el cambio de una parte

modifica a las demás. Este campo perceptivo queda determinado por una serie de leyes

(superiores a la centena) que han sido sistematizadas (Por ejem., Allport, 1955; Forgus,

1972) en un reducido número.

La ley más básica es la referida a la relación figura fondo, la cual conduce a que un

objeto (figura) se destaque sobre un fondo difuso. Además, otras tres leyes afectan a las

totalidades fenomenológicas:

1) Ley de primacía: afirma que el todo es más originario, primario y se manifiesta antes

que las partes.

2) Ley de autonomía: el todo queda determinado por por factores internos más que por

factores externos.

3) Ley de la buena figura (ley de Prägnanz): la percepción se organiza de modo que las

figuras aparezcan lo más simples y ordenadas que sea posible. Esta ley determina la

segregación de objetos o figuras del campo en formas separadas, e incluye a otras

características como la regularidad, simplicidad, simetría, contigüidad, etc.. De esta ley se

derivan otras que han sido clasificadas en dos grupos: intrínsecas y extrínsecas

a) Las intrínsecas actúan al margen de las experiencias pasadas y determinan las

configuraciones mediante los elementos del estímulo. Entre ellas las más conocidas son:

La ley de cierre.

La ley de proximidad.

La ley de semejanza.

La ley de continuidad.

La ley de inclusión, etc.

b) Las extrínsecas son las que pueden producir un percepto basándose en experiencias

previas y actúan cuando las características estructurales del estímulo no están definidas,

como por ejemplo en las manchas del test de Rorschach.

Las constancias perceptivas hacen posible las invariancias en un mundo en el que los

objetos se encuentran en variación, por lo que permiten alcanzar un conocimiento de

objetos estables, lo que otorga a esta propiedad perceptual una función transcendente

en la adaptación.

Page 54: Aznar Alternativas Teoricas en Percepcion Raic

54

Respecto a la constancia perceptiva, los estructuralistas habían supuesto una

correspondencia puntual perfecta, que relacionaba una sensación con un estímulo

particular (hipótesis de la constancia) y, por consiguiente, un cambio en el estímulo daba

lugar a un cambio sensorial-experiencial. Lo percibido (experiencial) resultaba inferido a

partir del núcleo de sensaciones correspondientes a la imagen retiniana, tras repetidas

experiencias en las que tales sensaciones se asocian a otras, derivándose un aprendizaje.

La interacción inconsciente entre elementos y asociaciones de sensaciones, las cuales

poseen un contexto elaborado que le otorga significado, hacen que la percepción nos

parezca constante, idéntica a pesar de las variaciones sensoriales.

En cambio, para los Gestaltistas, la constancia es primaria, se da en la experiencia

inmediata del perceptor y, por consiguiente, no debe ser algo secundario a explicar, sino

que son los elementos o partes constituyentes los que son puras abstracciones teóricas,

en cuanto no se hallan presentes en la experiencia fenomenológica. En otros términos,

para los estructuralistas los datos primarios son los elementos y lo secundario, obtenido

por aprendizaje asociativo, es la constancia del tamaño, forma, color, etc.; mientras que,

para la psicología de la Gestalt la experiencia fenomenológica de la constancia es el dato

primario organizado y estructurado, los elementos son derivaciones secundarias

segregadas por abstracción.

Finalmente, señalaremos que la Psicología de la Gestalt rechazó el caracter analítico

artificial del introspeccionismo estructuralista; sin embargo, el mismo Köhler admitió

cierto tipo de análisis basado en la experiencia fenoménica.

6.4. OTROS ASOCIACIONISMOS

Los empiristas británicos partían de la premisa de que todo conocimiento se origina en

la experiencia; la mente del recien nacido era una 'tábula rasa', los objetos de la realidad

exterior al incidir sobre nuestros sentidos producían unos elementos básicos (ideas,

impresiones, etc.). El principio organizador de estos elementos, capaz de poner orden en

el caos sensorial era el principio de asociación.

El objetivo común de los diferentes movimientos asociacionistas (elementarismo,

Page 55: Aznar Alternativas Teoricas en Percepcion Raic

55

estructuralismo, funcionalismo, conexionismo, conductismo, reflexología,

neoconductismo y conductismo mediacional) radica en el hecho de explicar de que modo

las experiencias pasadas influyen en la conducta presente.

La importancia concedida a la experiencia hacía depender la percepción del aprendizaje

(aprender a ver, a oir, a tocar, etc). La experiencia proporcionaba la estructura asociativa

que hacía posible la identificación de objetos. Ahora bien, ¿qué es lo que se debe

aprender?, según los empiristas, el significado de lo que recogen nuestros órganos

sensoriales, a lo cual se opuso la concepción naturalista, considerando que la estructura

fisilógica del ojo y del cerebro debe predeterminar de alguna manera las propiedades de

la experiencia visual. El núcleo del problema se hallaba en demostrar qué nos viene dado

al nacer (innatismo), para lo cual se desarrollaron tres procedimientos experimentales

con el fin de responder con datos empíricos: a) estudios de deprivación sensorial,

especialmente en visón (Gibson, 1969; Hubel y Wiesel, 1963), b) estudios sobre

discriminación visual temprana (Fanz, 1967; Bower, 1966, 1967, 1971), c) estudios que

utilizan técnicas de registro de la actividad de una sóla neurona (Hubel y Wiesel, 1963).

Sin embargo, mediante estos experimetos no se ha evidenciado la situación de caos

sensorial predicha por los empiristas, tampoco permiten afirmar de modo concluyente si

estas funciones son innatas o adquiridas, siendo por tanto la postura más adecuada el

interaccionismo. No obstante, alguno de los experimentos que hacían uso de

implantación de microelectrodos neuronales sugerían que la organización no es

elaborada por la experiencia, en tanto que otros (Blakemore y Cooper, 1970) apuntan,

contrariamente, hacia el papel crítico que debe jugar la experiencia, pudiendo incluso

cambiar la sensibilidad de orientación preferida (líneas en distinta orientación). Por lo

que es posible que, aunque exista cierto grado de sensibilidad a determinadas

características del medio, la especificidad de tal sensibilidad puede modificarse mediante

experiencias tempranas.

La teoría perceptiva del estructuralismo se halla implícita, de algún modo, en las teorías

del aprendizaje, representadas por el conductismo y fundamentadas en los principios de

reforzamiento, discriminación, extinción, generalización y transferencia.

Para el conductismo, la percepción o quedaba reducida al aprendizaje, entendida como

Page 56: Aznar Alternativas Teoricas en Percepcion Raic

56

aprendizaje discriminativo, y por consiguiente abordable mediante el paradigma E-R, o

en cuanto a los términos mentalistas y de conciencia se refiere, el objeto de estudio

determinaba el método y este no podía ser otro que el fenomenológico. Puesto que, esta

metodología era subjetiva y privada (propia para cada individuo), la psicología no debía

ocuparse de esta temática, por lo que quedó marginado el estudio e investigación de las

experiencias perceptivas vivenciadas por los sujetos humanos. Muy acertadamente,

señala A.Caparros (1977) la paradoja que supone fundamentar el paradigma conductista

en el esquema Estímulo-Respuesta (E-R) y no ocuparse de la naturaleza de estos

términos, ni de sus relaciones con el organismo al que se le aplican.

No omitiremos hacer una breve alusión a ciértos principios conductistas en los que

basan el aprendizaje, por cuanto ha significado en nuestra centuria la hegemonía del

paradigma E-R y las reacciones teóricas que supuso la exclusión de los fenómenos

perceptivos del ruedo psicológico, las cuales trataremos en el próximo capítulo.

* La discriminación. Si disponemos de dos estímulos condicionados que provocan una

respuesta condicionada y uno de ellos es reforzado sistemáticamente, mientras el otro

no, se logrará que la respuesta condicionada se produzca sólo ante el estímulo reforzado

y no se producirá con el estímulo no reforzado. Puede conseguirse tanto la discrimación

de estímulos como la discriminación de respuestas.

* La extinción, consiste en la disminución gradual hasta la desaparición de la respuesta

condicionada, como consecuencia de presentar sólo el estímulo condicionado, sin

acompañamiento del estímulo incondicionado. La resistencia a la extinción será el

número de intentos necesarios para lograr la extinción. La recuperación consistirá en

eliminar los efectos de la extinción.

* Generalización. El efecto de las contigencias sobre la conducta puede extenderse

tanto a través de las condiciones de estimulación sobre las que tuvo lugar el

condicionamiento (generalización del estímulo) como a través de las respuestas que

estaban incluidas en la contingencia. La generalización del estímulo consiste en transferir

una determinada respuesta a distintas situaciones de las que se instauró el

condicionamiento. El grado de generalización del estímulo se establece en función de la

similitud entre el estímulo nuevo y el que fue utilizado en el entrenamiento. La

Page 57: Aznar Alternativas Teoricas en Percepcion Raic

57

generalización de la respuesta se refiere a la producción de otras respuestas distintas a la

respuesta condicionada original, aunque más o menos parecidas a ésta. La generalización

es el proceso opuesto a la discriminación.

* Transferencia, consiste en la aplicación de procesos que se adquirieron en una

determinada situación a otra más o menos similar. La transferencia puede ser: positiva, si

facilita la segunda tarea, o negativa, si la dificulta. Cuando la transferencia se produce

sobre situaciones anteriormente aprendidas, se llama retroactiva y si se produce sobre

situaciones posteriormente aprendidas, es denominada proactiva.

En definitiva, las teorías del aprendizaje aportan una explicación, basada en algún tipo

de asociación, acerca de los procesos básicos del aprendizaje, que permiten comprender

como se incrementa el repertorio conductual tanto para los procesos perceptivos de una

modalidad específica (visual, auditiva, etc.) como para los procesos perceptivos

intermodales (viso-motriz, auditivo-visual, cinestésico-visual, etc.).

En la actualidad, pocas teorías de la percepción niegan la contribución de los

aprendizajes previos, experiencia, etc., en el fenómeno perceptivo. A excepción de la

teoría de la percepción directa de Gibson, todas las demás aceptan de algún modo una

interacción entre la información sensorial suministrada por los datos del estímulo y los

conocimientos y experiencias almacenados en la memoria. Sin embargo, discrepan unas

teorías de otras sobre qué es innato y qué es adquirido, así como en la importancia que

conceden a la actividad nerviosa periférica (órganos de los sentidos y vías sensoriales) y a

la actividad nerviosa central (cerebro y procesos superiores).

Page 58: Aznar Alternativas Teoricas en Percepcion Raic

58

Capítulo VII Reacciones teóricas frente al conductismo

"Una vez que la dirección aparece con claridad, cuanto más largo parezca el camino antes conviene empezar a andar." (M. Morón, s. XX)

7.1. INTRODUCCION

Nadie debe sorprenderse por el hecho de que el desarrollo de la historia de la psicología

halla ido inestrincablemente ligado a las vicisitudes de las concepciones de la percepción,

no en vano es la percepción el pilar básico sobre el que se construye el edificio del

conocimiento humano.

El estructuralismo asociacionista había sido derrocado por la concepción formulada por

los psicólogos de la Gestalt y, sin embargo, una nueva escuela también de corte

asociacionista nació y se desarrolló paralelamente a la psicología de la 'forma', el

conductismo americano. Señala Caparrós (1980) que el relevo hegemónico de la

psicología europea por la psicología conductista estadounidense supuso la entrada en

crisis de la temática perceptiva. Ciértamente, las teorías del aprendizaje, cimentadas en

el esquema E-R, habían desterrado el estudio de la percepción al considerar que ésta

debía abordarse mediante el método fenomenológico que, obviamente, era la antítesis

de la objetividad y la observabilidad pública. Sería preciso aguardar hasta que el

imperialismo del paradigma E-R mostrase sus flaquezas, para que la problemática

perceptual, como el ave Fénix, resurgiese de las cenizas a las que había sido relegada. Ello

ocurriría tras la II Guerra Mundial, cuando los últimos apuntalamientos al paradigma

decadente (neoconductismo y conductismo mediacional) agotaban las posibilidades

explicativas de un paradigma que estaba ya transgrediendo sus propias y estrechas

fronteras, lo cual sólo podía desembocar en un cambio paradigmático alternativo, en el

que la percepción tuviese cabida.

Sin pretender minimizar las aportaciones científicas de los conductismos a la psicología,

es menester subrayar la incoherencia y falta de autocrítica, llevada hasta la míopia

Page 59: Aznar Alternativas Teoricas en Percepcion Raic

59

mental, que como indica Caparrós (1980) supone fundamentar su programa en la

asociación de Estímulos y Respuestas, sin preocuparse por estudiar la naturaleza de tales

estímulos y las respuestas que desencadenan. Los planteamientos teóricos de numerosos

autores (Gibson, Brunswick, Ames, etc.) deben ser entendidos como una clara reacción a

tamaña despreocupación.

No obstante, la pérdida de predicamento del conductismo se manifestó ya en el mismo

planteamiento del neoconductismo y del conductismo mediacional; esta relajación de la

autoridad científica, ejercida en nombre de la elaboración de una ciencia objetiva y

reflejo de su debilidad explicativa, abonó el terreno en el que serían sembradas una

variedad de semillas teóricas que, si bien tratarían de abordar algunos aspectos parciales

de la problemática perceptual, brotarían con tal vigor que haría inadmisible el no

reconocer que la experiencia fenomenológica, en cuanto experiencia que es, debe ser

objeto de estudio de la ciencia psicológica.

En este capítulo abordaremos algunas de las perspectivas teóricas que rebrotaron de

los restos del conductismo, el cual vería así finalizado su liderazgo psicológico. No

obstante, es preciso dejar constancia aquí, de la influencia decisiva, en esta etapa

histórica, de la teoría neurofisiológica de D.O. Hebb (1949) [que será expuesta en el

capítulo 9, relativo a las neurociencias cognitivas]; ya que, la obra de Hebb contribuyó en

gran medida a la aceptación del estudio de la percepción en la ciencia psicológica, al

delimitar las escasas estructuras nerviosas innatas que permiten extraer información del

medio y la importante complementación del aprendizaje en la adquisición del

conocimiento.

7.2. TEORIA DEL CAMPO SENSORIO-TONICO

Esta teoría fue desarrollada por Werner y Wapner (1952) en un intento de integrar, en

las reacciones del organismo frente al medio, determinados aspectos sensoriales y

motóricos. En esta concepción, el término 'sensorial' alude a las propiedades de los

objetos del mundo exterior que son registradas por los sentidos exteroceptivos; mientras

que, el término 'tónico' se refiere a las sensaciones desencadenadas en el interior del

Page 60: Aznar Alternativas Teoricas en Percepcion Raic

60

organismo y captadas por los receptores interoceptivos. Pretende estudiar la interacción

entre la información proviniente de los estímulos ambientales (exteroceptiva) y la que

procede del interior del organismo percipiente (interoceptiva). Ambos factores deben ser

considerados simultáneamente y no pueden ser analizados separadamente sus

componentes ya que ambos contribuyen a un proceso dinámico total; esta postura

holista los aproxima a la Gestalt. Además, suponen que el organismo tiende a mantener

un equilibrio estable entre la información externa y la interna, de modo que si la

información exterior (del medio) provoca un desequilibrio, o no es coherente con la

información interior, se producirá una alteración en la situación percibida o cambiará la

orientación corporal, o ambas cosas. La teoría del campo sensorio-tónico demuestra su

plausibilidad en el paradigma experimental de percepción de la vertical, experimentos en

los que un sujeto en un cuarto obscuro y un asiento móvil (con posible inclinación) debe

decidir si una varilla fosforescente se halla vertical, o colocarla según su criterio de

verticalidad. Así, puede obtenerse una medida del estado de equilibrio mediante la

diferencia entre la verticalidad estimada y la verdadera vertical. Los experimentos de este

tipo gozan de alto valor ecológico en el entrenamiento de pilotos de aviación o de vuelo

espacial.

Los autores argumentan que la estimulación actúa asimétricamente sobre el organismo,

provocando una desigualdad en el tono muscular de cada hemicuerpo; dicha asimetría

origina una tendencia a percibir la verticalidad de modo diferente, influyendo sobre la

experiencia visual.

Es de destacar que, partiendo de esta teoría, H.A. Witkin y colaboradores (Witkin, 1950,

1962 y 1977) desarrollaron una serie de pruebas correlacionadas con la percepción de la

verticalidad, que aplicaron en amplios grupos de sujetos desde una perspectiva

diferencialista. Inicialmente, Witkin y Asch (1948), idearon una serie de pruebas de

medida: BAT (Body Ajustament Test), RRT (Rotating Room Test) y RFT (Rod and Frame

Test), para comprobar la contribución de los factores posturales (indicadores

gravitacionales) y visuales a dicha percepción. Los datos evidenciaron que cierto grupo de

sujetos (que denominaron Dependientes de campo) hacían uso preferente de los

indicadores visuales, mientras que otro grupo de personas (Independientes de campo)

Page 61: Aznar Alternativas Teoricas en Percepcion Raic

61

tendían a ejecutar la tarea utilizando referentes posturales o gravitacionales

(kinestésicos), comenzando de este modo la investigación sobre el "estilo cognitivo

Dependencia Independencia de campo", que acabaría por generalizar estas diferencias

individuales, respecto a la percepción de la verticalidad, a otros dominios, primero

perceptivos (Ejem. Embedded Figures Test, discriminación de figuras simples

enmascaradas en figuras complejas), después relacionados con la habilidad en la

resolución de problemas, e incluso con relaciones interpersonales, mecanismos de

defensa preferentemente utilizados, morbidez psicopatológica, etc.

7.3. TEORIA DEL NIVEL DE ADAPTACION

Fue formulada por H.Helson (1959, 1964) y comprende un modelo matemático que

permite determinar si una dimensión o magnitud percibida resulta superior, igual o

inferior al nivel de adaptación del perceptor. El objetivo inicial de esta teoría fue el de

proponer una explicación sobre la percepción del color en distintas condiciones de

iluminación (constancia), incluída la iluminación deficiente.

Esta altenativa teórica parte de la supuesta existencia de una concordancia entre las

propiedades del estímulo y el nivel de adaptación del organismo, que fundamenta la

percepción. Su campo de aplicación preeminente es el de la percepción de magnitudes

físicas del estímulo (tamaño, distancia, intensidad, etc.) y dimensiones cualitativas del

mismo (belleza, etc.). Por ejemplo, cuando pasamos de un lugar muy iluminado a una

sala semiobscura, percibimos esta última sala de modo diferente que si hubiésemos

pasado de un lugar completamente obscuro a ella. La intensidad luminosa de la sala

semiobscurecida es la misma, sin embargo, nuestra percepción inicial es diferente, ya que

depende del cambio de nivel de adaptación. Según esta teoría, el nivel adaptativo se ve

influído tanto por la estimulación inmediata del ambiente como por las experiencias

previas. Así el organismo, en su experiencia pasada, establece una escala que contiene

una zona neutra, la cual cumple la función de "marco de referencia" y, cuando el sujeto

realiza una estimación o evaluación de un estímulo en un contexto, tiene en

consideración, de modo consciente, no sólo los factores fisiológicos (información del

estímulo registrada por los receptores), sino también los psicológicos (marco de

Page 62: Aznar Alternativas Teoricas en Percepcion Raic

62

referencia según experiencias anteriores).

La teoría de Helson, en cuanto considera la situación molarmente, se aproxima a la

teoría de la Gestalt; sin embargo, diverge de ella en cuanto considera la contribución de

los elementos componentes y se basa en la experiencia (empirismo).

7.4. TEORIA DEL FUNCIONALISMO PROBABILISTICO

Elaborada por Brunswick (1955) e inspirada, por una parte, en el concepto de

incertidumbre estadística, por otra, en el funcionalismo, considerando también que el

organismo realiza una serie de procesos que le permiten adaptarse éxitosamente al

medio. Entiende Brunswick que la percepción consiste en una serie de inferencias

fundamentadas en las pistas que proporciona el medio. Su autor denomina a esta teoría

"funcionalismo probabilístico" porque el percepto viene a ser una aproximación al objeto

percibido, con cierta probabilidad de exactitud, pero nunca con certeza absoluta, como si

de leyes de la física se tratase.

Brunswick justifica el probabilismo de la percepción en su concepción constructivista de

estos fenómenos, basada en las claves informativas que nos llegan del exterior por las

vías sensoriales. El hecho de que se produzcan cambios de orientación y posición, tanto

en los objetos del medio como en el organismo observador, motiva que la reconstrucción

no sea perfecta, por lo que el sujeto percipiente tratrá de aproximarse lo más posible al

objeto, en base a las pistas informacionales.

Esta teoría pusó el énfasis investigador en el fenómeno de las constancias perceptivas,

del tamaño, forma, color, etc.; su autor sostenía que los experimentos de laboratorio

eliminaban el aspecto probabilístico de la información que ocurre en la vida real (validez

ecológica).

Brunswick establece una distinción conceptual entre diversos aspectos relacionados con

el estímulo, de manera que entiende por 'estímulo periférico' el patrón de excitación

fisiológico, denomina 'estímulo proximal' a su correspondiente energía física (luminosa,

acústica, etc.) y 'estímulo distal' al evento a identificar a partir de estas señales. Considera

también una "región central", referida al conocimiento o actividad del perceptor

mediante la cual puede predecir un estímulo distal, basándose en sus representantes

proximales o periféricos y destacó la existencia de diversas fuentes de información

Page 63: Aznar Alternativas Teoricas en Percepcion Raic

63

válidas, disponibles para inferir los estímulos distales. Este autor concibe un medio

susceptible de influir de diversas maneras sobre el perceptor, según los propósitos de

éste. Contrariamente, el transaccionalismo sugiere que es el perceptor quien externaliza

o proyecta un mundo al que consideramos realidad.

En resumen, Brunswick considera que el mundo exterior nos envía diversas señales

ambiguas, las cuales podemos combinar para anticipar un estímulo distal. Su trabajo se

centraba, primero en hallar el grado de validez objetiva entre estímulos proximales y

distales, eligiendo muestras representativas del medio ambiente natural y, después,

determinaba el grado de eficiencia con que el perceptor utilizaba las señales ambiguas

disponibles.

Las ideas ecologistas del funcionalismo probabilístico fueron asumidas por ciertos

enfoques de la percepción vigentes en nuestros días (Ejem. Gibson, Neisser, etc.).

7.5. TEORIA TRANSACCIONALISTA

Esta teoría está representada por A.Ames, Ittelson y Kilpatrick, concede un valor capital

a la intencionalidad y propositividad del sujeto percipiente y otorga a la percepción una

función directriz de las acciones, de modo que éstas son consecuencia de los propósitos

del perceptor.

El transaccionalismo se inspira en la filosofía de John Dewey y Arthur Bentley, quienes

acuñaron el término "transacción", el cual pretende subrayar que el perceptor y el

mundo son parte de un único proceso circular, en el que los dos interactúan como en una

transacción. Según esta teoría, el organismo identifica los objetos del ambiente mediante

inferencias inconscientes (similar a Helmholtz) en base a los patrones de excitación que

se registran en los órganos sensoriales. En el contenido del transaccionalismo quedan

reflejadas las influencias de la óptica fisiológica, en cuanto se admite que diversos objetos

físicos pueden dar lugar a la misma imagen retiniana, también puede apreciarse el influjo

del funcionalismo de Dewey.

El punto de partida del transaccionalismo, al igual que del funcionalismo probabilístico

de Brunswick, es el hecho de que la información registrada por los órganos sensoriales no

Page 64: Aznar Alternativas Teoricas en Percepcion Raic

64

se corresponde exacta e inequívocamente con los objetos del mundo, sino que establece

un vínculo ambiguo con diversas configuraciones externas posibles de los objetos. Estos

dos enfoques (transaccionalismo y funcionalismo probabilístico) muestran muchos

puntos en común, a pesar de sus diferencias; así, los dos se centraron especialmente en

las constancias espaciales, señalaron la importancia de los procesos de inferencia,

concedieron un papel relevante a la percepción interpersonal y ambos coinciden en

subrayar los problemas conceptuales contenidos en los términos de estímulo y

respuesta, así como en conceder importancia a las relaciones organismo-medio desde

una postura ecologista.

Según Dewey y Bentley, la percepción y el conocimiento son procesos y, por

consiguiente, tienen duración. Percibir es una forma de acción, en la que los datos

sensoriales son consecuencia de una transacción, son parte del conocimiento humano

del mundo. Para ellos, la transacción es una forma de considerar las cosas dentro de un

contexto.

A. Ames (1955) se ocupó, principalmente, de ofrecer pruebas demostrativas de que la

percepción es un proceso de transacción, es decir, dejar patente que los contenidos del

ínput sensorial, por sí mismos no son informativos, sino que la percepción se basa en la

utilización de tales señales junto con las suposiciones y estimaciones (inferencias) del

perceptor; por consiguiente y de modo contrario a Brunswick, que consideraba la

percepción orientada objetivamente, acentuaba los aspectos subjetivos de la misma,

sosteniendo que creamos nuestro propio mundo. Dichas demostraciones consistían en

establecer una situación, en la que era posible determinar como reacciona y se adapta el

perceptor cuando no se verifican su presuposiciones, lo cual implica mantener constantes

algunas variables situacionales y modificar otras. Así llega a la conclusión de que en las

constancias perceptivas, en efecto algún aspecto permanece invariable, pero otro u otros

siempre varían. Por ejemplo, la percepción del color blanco es constante en diferentes

condiciones de iluminación, sin embargo, varía la luminosidad. La percepción es

entendida como un compromiso, una transacción entre el perceptor y su medio, de ahí

que lo percibido ni se basa exclusivamente en la imagen retiniana ni es totalmente

constante. Y las ilusiones perceptivas vienen a ser el coste a pagar por las constancias.

Page 65: Aznar Alternativas Teoricas en Percepcion Raic

65

7.6. TEORIA DEL ESTADO DIRECTIVO Y LAS EXPECTATIVAS

Durante la década de los años 50, los psicólogos de la denominada "New look",

representados por J. Bruner y L. Postman, hicieron recaer el énfasis en el estudio de los

fenómenos perceptivos, no sobre los aspectos relativos al estímulo (como lo habían

hecho los antecesores: psicofísica, estructuralismo, Gestalt, etc.), sino sobre ciertas

variables que determinan la personalidad del organismo, a saber: experiencias previas,

necesidades, intereses, motivaciones, sistema de valores, prejuicios, tendencias,

actitudes, etc. Fue F.H. Allport (1955) quién bautizó este enfoque como teoría del estado

directivo, en cuanto que las variables de personalidad expresadas dirigían las

experiencias perceptivas. Al considerar que la interacción del organismo con su medio

social era la responsable de tales experiencias perceptivas, reaccionaban frente a la

concepción pasiva de la percepción implícita en el asociacionismo y gestaltismo,

atribuyendo un papel más activo al sujeto perceptor.

Según Bruner y Postman (1949), la percepción se fundamenta en dos factores

diferenciados que interactúan:

i) Los estructurales o autóctonos, que vienen establecidos por los estímulos, siendo

consecuencia de la impresión de dichos estímulos sobre los receptores y órganos

sensoriales. Estos factores son innatos en el individuo, resultan inmodificables y son los

que con mayor profusión habían investigado las anteriores concepciones de la

percepción.

ii) Los conductuales, que tienen su origen en los procesos superiores y determinan otros

aspectos no cognitivos englobados bajo el término de personalidad, como los motivos,

actitudes, necesidades, etc. Estos factores son los que dirigen la percepción selectiva, de

modo que el resultado no es atribuible, exclusivamente, a las propiedades del estímulo,

sino que el individuo considerado como una totalidad está implicado en cada acto

perceptivo.

Bruner y colaboradores (1956) llegaron a considerar la percepción como un proceso de

categorización, de asignación de objetos a clases, si bien la disposición del individuo

Page 66: Aznar Alternativas Teoricas en Percepcion Raic

66

genera unas expectativas o hipótesis y, posteriormente, las contrasta con la realidad, de

manera que alguna de ellas resulta confirmada y otras son rechazadas. Su teoría afirma

que cuanto más fuerza cobra una hipótesis, mayor será la probabilidad de que sea

activada en una situación determinada y menor será la cantidad de información acerca

del estímulo que se requiere para activarla.

Esta teoría tiene el mérito de haber puesto de relieve la importancia de los factores

sociales y motivacionales en los fenómenos perceptivos y viene a cubrir una de las

lagunas existentes en las teorías de la percepción, concretamente, la consideración

conjunta de factores estimulares, cognitivos y de personalidad, objetivo final que debería

cubrir una teoría de la percepción completa.

Page 67: Aznar Alternativas Teoricas en Percepcion Raic

67

Tercera parte ALTERNATIVAS TEORICAS ACTUALES EN LA PERCEPCION

Page 68: Aznar Alternativas Teoricas en Percepcion Raic

68

Capítulo VIII Procesamiento de información

"No pensemos que estamos reduciendo al hombre a la categoría de máquina. Admitamos más bien que estamos elevando a las máquinas al nivel del hombre". (Michael A. Arbid, 1964)

8.1. INTRODUCCION

Por ser la percepción una función que transcurre en el tiempo, es decir, que tiene

duración, puede considerársela un proceso. Es por ello que ciertos autores (Forgus, 1972)

han definido la percepción como "un proceso mediante el cual un organismo recibe o

extrae cierta información acerca del medio" (pag.11, trad. cast.)

Neisser (1976), tras desechar la concepción del "homúnculo" que interpreta la imagen

retiniana, describe en términos generales los modelos propuestos desde la perspectiva

del procesamiento de información (que no comparte) indicando que los procesos, que

conducen al procesamiento de la imagen, se inician en determinadas estructuras del

sistema visual denominados frecuentemente "detectores", los cuales desencadenan

mensajes neurales (bioeléctricos) como respuesta a las características específicas de la

imagen, transmitiéndose así hasta los centros superiores, en los que la información,

sometida a nuevos procesos, será comparada y combinada con otra información

anteriormente almacenada, dando lugar a la experiencia perceptiva. Estos modelos de

procesamiento de información, que en su opinión presentan insuficiencias,

especialmente derivadas de la concepción lineal que subyace) los esquematiza del

siguiente modo:

Page 69: Aznar Alternativas Teoricas en Percepcion Raic

69

Por otra parte R.G.Crowder (1982) postula una serie de estadios de procesamiento de

información, que deben intervenir necesariamente para hacer posible el reconocimiento

de patrones. Estos, representados esquemáticamente son:

Keating y Bobbitt (1978) intentaron mostrar la validez de constructo de las operaciones

componentes (procesos), que supuestamente subyacían en las diversas tareas de

procesamiento de la información. Para ello, propusieron una secuencia de procesos

componentes básicos de cuatro etapas: a) codificación, b) operación, c) decisión binaria,

y d) ejecución de la respuesta. Asignaron distintos parámetros de las tareas de

procesamiento de la información a una o más de las cuatro etapas secuenciales y luego

correlacionaron, a través de distintas tareas, los valores de esos parámentros obtenidos

por cada uno de los sujetos. Su hipótesis consistía en que las variables que

presumiblemente implicaban etapas comunes de procesamiento mostrarían

correlaciones más elevadas que otras que no tuvieran ninguna etapa en común. Los

resultados confirmaron sus predicciones obteniendo unas correlaciones intervariables de

.66 y .30 respectivamente. Concluyen que estos hallazgos revelan la existencia de

operaciones básicas de procesamiento de información que son cubiertas por diferentes

Page 70: Aznar Alternativas Teoricas en Percepcion Raic

70

tareas, pero que además existe un factor general de velocidad que se reflejaba en las

correlaciones significativas, entre variables sin etapas comunes.

8.2. MODELOS DE PROCESAMIENTO SERIAL

S. Sternberg (1966, 67, 69 y 75) elaboró un modelo lineal concibiendo la mente como

un procesador serial y discreto. Según este modelo serial, el acceso a los ítems de

memoria supone una búsqueda entre varias localizaciones de almacenamiento, hasta

que se obtenga un emparejamiento entre el ítem almacenado y el ítem de prueba. Estos

procesos de recuperación los considera secuenciales, produciéndose resultados según la

ley de todo o nada, a partir de los cuales el proceso de decisión podrá emitir una

respuesta binaria (si/no). Por consiguiente, según este modelo la variabilidad de las

latencias, en función de las condiciones experimentales, se determina en los procesos de

recuperación-comparación, ya que cuanto más al final de la serie de memoria se halle el

ítem crítico, mayor número de operaciones de búsqueda y comparación se requieren.

El método utilizado por S.Sternberg (1969) ha servido para evaluar la facilidad con la

cual los sujetos pueden realizar una búsqueda en la MCP, utilizando un paradigma

experimental de "búsqueda en MCP". En éste, los sujetos memorizan una serie formada

por un número x de ítems, y luego se les presenta un ítem simple de prueba, debiendo

indicar el sujeto si éste último formaba parte o no de la serie anteriormente memorizada.

La variable dependiente principal es el TR. Sternberg encontró que el TR era una función

lineal creciente del tamaño de la serie de aprendizaje (38 msg. aumentaba el TR por cada

ítem añadido). Como consecuencia, concluyó que la "búsqueda y recuperación en MCP

era serial.

Los dos parámetros asociados a la ecuación de la recta que relaciona el número de

ítems memorizados (x) con el TR, ésto es, la pendiente de la recta y su punto de

intersección con la ordenada, sirven de valor estimado de varios procesos componentes.

a) La pendiente es considerada como medida de la velocidad con la cual pueden

buscarse y recuperarse contenidos en la memoria.

b) La ordenada en el origén refleja la duración combinada de otros procesos

Page 71: Aznar Alternativas Teoricas en Percepcion Raic

71

componentes (identificación, decisión, respuesta, etc.).

Sternberg concluyó que la recuperación de información en MCP era secuencial y

exhaustiva, es decir, que el sujeto compara todos los ítems de MCP de uno en uno. Si

bien el modelo de S. Sternberg (1969) tuvo una gran vigencia en la década anterior, no se

tardó mucho en demostrar las insuficiencias que presentaba esta concepción de la mente

como un sistema de procesamiento discreto y lineal, por lo que fue altamente

cuestionado. Así, a) se le reprocha haber empleado las medias de los TRs, cuando se ha

demostrado la variabilidad de éstos incluso en idénticas situaciones estimulares; b) no se

verifican las predicciones temporales para los procesos de búsqueda y comparación, en

situaciones de sobrecarga de la MCP; c) no permite interpretar el efecto de la similitud

entre el ítem de prueba y los ítems de memoria; d) no advierte la existencia de una

relación inversa entre precisión y velocidad de la respuesta; e) se contradice con las

investigaciones que demuestran la relación entre confianza (seguridad en la respuesta) y

TR; f) no considera la influencia de la posición serial de los ítems de prueba.

El primer análisis cronométrico de los niveles de procesamiento fue realizado por

Posner (1969). La tarea orientadora consistía en presentar al sujeto, visualmente, dos

Page 72: Aznar Alternativas Teoricas en Percepcion Raic

72

letras; y éste debía responder si eran iguales o diferentes, registrándose el tiempo de

respuesta. Los juicios de similitud podían presentar tres modalidades:

Igualdad física (Ej.: AA ó aa)

Idéntico nombre (Ej.: Aa ó Bb)

Igualdad semántica (Ej.: dos letras consonantes)

Los resultados obtenidos evidenciaron unas diferencias del orden de 70-100 msg., entre

dos modalidades consecutivas, a medida que nos alejamos de la igualdad física. Y fueron

interpretados desde el punto de vista de los niveles de procesamiento, distinguiendo tres

niveles, que de menor a mayor cantidad de tiempo de procesaminto requerido son:

codificación de rasgos físicos, codificación fonética y codificación semántica.

Este segundo paradigma experimental permitió obtener una evaluación bastante

directa de la cantidad de tiempo requerido para recuperar el nombre de un ítem familiar

de la MLP. Se considera que la diferencia entre el TR de emparejamientos con "identidad

nominal" (IN) y el TR de emparejamientos con "identidad física" (IF), indica el tiempo

requerido para recuperar el nombre (o nombres) de las letras de MLP.

En la línea de los molelos seriales, es preciso hacer mención del modelo final de

Sperling, dejando constancia de que, si bien ha sufrido últeriores modificaciones 'ad hoc',

en lo fundamental sigue siendo un válido exponente de los modelos de procesamiento

visual verbal que denominaremos 'letra a letra'.

Dentro del campo de la memoria y situándonos en el clásico paradigna experimental 'de

informe parcial', empleado por Sperling (1960, 1963), resumiremos el funcionamiento del

modelo que esquemáticamente exponemos aquí.

Page 73: Aznar Alternativas Teoricas en Percepcion Raic

73

La información expuesta al sujeto en el taquistoscopio es registrada en el almacén

icónico, el cual posee gran capacidad de recuerdo, pero una duración muy breve (250

mls. aprox.). Sobre el icón tiene lugar un rapidísimo proceso de exploración que culmina

al relacionar esta huella con las categorías anteriormente almacedas en el 'Reten de

reconocimiento'. La información se 'refresca' (reactiva), ordinariamente, mediante un

proceso de repetición subvocálica, codificándose esta en base a sus características

fonéticas. El bucle de exploración puede tener lugar mientras dura el icón, sin embargo,

el bucle de repetición puede prolongarse si el sujeto se lo propone. Pensemos, por

ejemplo, en el número telefónico visualizado rápidamente y repetido sin cesar, hasta que

efectuámos el marcado.

Por último, Forgus (1972) entiende que la percepción implica una serie de etapas

ordenadas crecientemente según el grado de complejidad. Este autor se muestra de

acuerdo con el modelo serieal de Sternberg (1969) que propone, para el reconocimiento

de la identidad del estímulo, la existencia de "una progresión temporal de etapas durante

las cuales se logra la transformación sucesiva de la estimulación proximal sobre el

receptor sensorial". Tampoco excluye, de modo acorde con Neisser (1967), que estas

Page 74: Aznar Alternativas Teoricas en Percepcion Raic

74

sucesivas transformaciones de la información tengan como consecuencia,

frecuentemente, una construcción activa de la información del estímulo, en lugar de una

decodificación pasiva de la información del medio.

El modelo que propone Forgus lo representa en el siguiente diagrama de flujo:

Como puede observarse, para Forgus (1972), el proceso perceptivo comienza con el

proceso de "transducción sensorial", mediante el cual ciertos mecanismos del sistema

nervioso traducen la información física del medio en mensajes informativos inteligibles

para los centros superiores cerebrales. Esta etapa impone una selectividad de la

información atribuible a la sensibilidad de los receptores sensoriales, para captar

preferentemente determinado conjunto de energía física. A continuación, tiene lugar el

registro de la información sensorial, durante un lapso en torno a los 250 msg., en el

almacen sensorial (Sperling, 1960) o memoria icónica (Neisser, 1967). Dada la corta

duración de esta memoria retiniana, parte de la información será tranformada y

transferida a la MCP (memoria a corto plazo). Dicha memoria tiene también algunas

limitaciones en cuanto a la amplitud de capacidad (7 ± 2, según Miller, 1956) y a la

duración (alrededor de 30 seg.); sin embargo, mediante repetición voluntaria puede

prolongarse la activación de dicha información. También puede producirse una

recodificación en "chunks" (trozos o unidades de almacenamiento; Miller, 1956), que

pueden abarcar unidades más amplias (por ejem, recodificar letras en sílabas, o sílabas

en palabras, etc). Posteriormente, la información es transferida al almacen a largo plazo

Page 75: Aznar Alternativas Teoricas en Percepcion Raic

75

(MLP), en la que resulta integrda según una peculiar organización que permite la rápida

recuperación de la misma. El proceso culmina cuando el sujeto emite una respuesta

motriz, por ejemplo, pronunciar el nombre del objeto reconocido.

Destaca Forgus la bidireccionalidad del flujo de información, representada en el

esquema expuesto, mediante flechas que señalan en ambas direcciones. Como vemos,

este modelo se fundamenta en la teoría multialmacen de la memoria y en una

concepción secuencial del procesamiento.

8.3. DISTINCIONES CONCEPTUALES EN MODELOS DE PROCESAMIENTO

Los numerosos modelos de procesamiento de información que, a lo largo de la joven

historia de esta perspectiva, se han ido proponiendo para explicar el sistema cognitivo

humano, se derivan de diferentes modos de concebir las propiedades y características de

éste, las cuales han planteado abundantes discusiones en torno a varias importantes

distinciones. Entre las que resaltamos por su influencia teórico-metodológica éstas tres:

I) La distinción autoterminada versus exhaustiva para el proceso de decisión.

Ordinariamente, se han considerado dos procedimientos o maneras de llevar a cabo la

decisión:

- Autoterminada. En los ensayos positivos, se detiene el procesamiento cuando se ha

alcanzado evidencia suficiente, durante el proceso de comparación de un ítem,

generándose la respuesta "si". En los ensayos negativos, se genera la respuesta "no",

cuando todos los procesos de comparación se han agotado y no se ha encontrado

evidencia suficiente en ningún ítem.

- Exhaustiva. Cuando el sujeto compara todos los ítems de la serie de memoria antes de

emitir una respuesta afirmativa o negativa.

Desde una concepción de la mente como un procesador discreto y lineal (modelo

lineal), se han utilizado dos técnicas para evidenciar empíricamente si la decisión binaria

de la respuesta se ejecuta de forma exhaustiva o autoconclusiva (S.Sternberg, 1969).

* Si se obtienen diferencias significativas entre los TRs de los ensayos positivos y

Page 76: Aznar Alternativas Teoricas en Percepcion Raic

76

negativos, para una determinada serie de reconocimiento, siendo mayor la latencia en

los negativos que en los positivos, se concluye que la decisión es autoterminada. Si no

hay diferencias significativas, se considera que es exhaustiva. La lógica del procedimiento

reside en el hecho de que en los ensayos negativos, el sujeto debe explorar

secuencialmente todos los estímulos almacenados en MCP, en tanto que en los ensayos

positivos sólo se exploran parte de ellos, hasta que se descubre el estímulo crítico,

finalizando en este momento el procesamiento.

* Si, al modificarse la posición serial del estímulo crítico, se obtienen diferencias

significativas en los TRs de diversos ensayos de una serie de reconocimiento compuesta

por un número fijo de ítems, en el sentido de que es mayor la latencia cuando el ítem

crítico está hacia el final de la serie, entonces la decisión se considerará autoterminada.

Por el contrario, la decisión será exhaustiva cuando los TRs son constantes,

independientemente del lugar que ocupen.

Desde una concepción de la mente como un procesador continuo y probabilístico

(modelo en paralelo), Ratcliff (1978) considera que la latencia de la respuesta depende

del solapamiento de atributos entre el ítem de prueba y el ítem de memoria. Según su

modelo, comienzan a la vez tantos procesos de comparación como estímulos haya en la

serie. Cada coincidencia (solapamiento) suma una unidad en un marcador y las no

coincidencias restan otra. Finaliza este proceso de difusión cuando se alcanza un umbral

A (de más "x" puntos), que corresponde al número de características coincidentes entre

el ítem de prueba y el de la serie de memoria (ensayos positivos), o bien un umbral B (de

menos "y" puntos), cuando se alcanza una determinada cifra de características no

coincidentes (ensayo negativo). Concluye éste autor que en los ensayos positivos la

decisión es autoterminada, en tanto que en los negativos es exhaustiva.

II) La distinción serial versus paralelo, respecto al tipo de procesamiento que tiene lugar

en el sistema cognitivo humano. Según los modelos seriales, los procesos que intervienen

en la ejecución de una tarea cognitiva (por ej., reconocimiento verbal visual), tiene lugar

de modo estrictamente secuencial, ejecutándose un sólo proceso en un determinado

tiempo. Desde los modelos de procesamiento en paralelo, se asume que operan

simultáneamente múltiples procesos, siendo posible (aunque no necesariamente)

Page 77: Aznar Alternativas Teoricas en Percepcion Raic

77

ejecutar procesos hacia atrás o hacia adelante, sin ningún orden de precedencia.

Esta distinción es fundamental a la hora de interpretar los TRs (Pachella, 1974); ya que,

si varios procesos tienen lugar a la vez, el significado del TR no puede indicar la duración

de un proceso determinado.

III) La distinción discreto versus continuo, se refiere a la naturaleza de la información

acumulada y transmitida mediante procesos mentales. Algunos modelos suponen que el

procesamiento progresa a través de un número finito de estados discretos internos, los

cuales representan crecientes grados de especificidad. Cuando se alcanza el último de

tales estados, los procesos pueden producir un output, consistente en un simple paquete

de información (a modo de 'quantos'), o incluso varios paquetes intermedios en el curso

del procesamiento, cuya transmisión se realiza separadamente unos de otros. Este modo

de transmisión de información sigue un modelo discreto. Por el contrario, otros modelos

suponen que el procesamiento progresa a través de rangos continuos de estados

internos, los cuales corresponden a una gradual acumulación de información o de

activación en el tiempo. En este caso, el output puede consistir, bien en un continuo flujo

de información (modelo continuo), o bien en un simple output discreto tras alcanzar

cierto umbral.

Esta distinción, obviamente, también repercute directamente sobre la interpretación

del TR.

La combinación de las modalidades de procesamiento "serial" o "paralelo", junto con

los tipos de transmisión "discreto" o "continuo", permite establecer una taxonomía que

facilitará el estudio y la comprensión de una variedad de modelos de procesamiento de

información, tales como: el modelo serial-discreto de Sternberg (1969), el modelo de

procesamiento en paralelo y discreto de J.Miller (1982), el modelo paralelo-continuo o de

"procesamiento en cascada" de McClelland (1979), el modelo de "difusión estocástica"

de Ratcliff (1978, 1988). En el punto siguiente nos haremos eco, sucintamente, de

algunos de éstos modelos.

Page 78: Aznar Alternativas Teoricas en Percepcion Raic

78

8.4. MODELOS DE PROCESAMIENTO EN PARALELO

A consecuencia de las numerosas críticas surgidas, a finales de los años 70 y durante la

década de los 80, en torno al modelo serial, han ido apareciendo en escena diversos

modelos alternativos que dan por supuesto el procesamiento en paralelo. Destacarémos

aquí las aportaciones de Ratcliff (1978 y 1988), quien presentó un modelo probabilístico

que considera la mente como un procesador simultáneo, elaborando una versión

continua de procesamiento de información (Stochastic Diffusion Model), el cual permite

una explicación más plausible del balance rapidez-precisión que el modelo serial-discreto

de Sternberg. Ratcliff, desarrolló matemáticamente su modelo y ofreció una explicación

intuitiva de los procesos de comparación, basada en la metáfora del "diapasón". Para

comprender esta metáfora ha de tenerse en cuenta que un diapasón produce mayor o

menor resonancia sobre los otros diapasones según el grado de semejanza, en cuanto a

tono.

Para Ratcliff, las latencias de respuesta dependen del solapamiento de atributos entre

el estímulo de prueba y los estímulos de memoria. Según su modelo, al presentarle al

Sujeto el estímulo de prueba comienzan, a la vez, tantos procesos de comparación como

estímulos haya en la serie recien aprendida. Cada coincidencia (solapamiento) suma una

unidad en un marcador y las no-coincidencias restan otra, produciéndose un proceso de

difusión que su autor representa como una gráfica de "recorrido al azar". El proceso de

difusión finaliza, si el ensayo es positivo, cuando se alcanza un umbral superior de cierto

número de puntos (correspondientes al número de coincidencias entre el ítem de prueba

y el de la serie de memoria). O bien, si el ensayo es negativo, cuando se alcanza un

umbral inferior, que expresa una determinada cifra de no-coincidencias. En resumen,

aquí el proceso de búsqueda-comparación se realiza en paralelo, es decir, de manera

simultánea en todos los ítems de la serie. Ello implica, que los TR's de las distintas

posiciones seriales ocupadas por el ítem crítico deberían ajustarse a una función

constante (horizontal al eje de abscisas) específica para los diferentes tamaños de la serie

de memoria. El modelo estocástico de difusión explica la compensación rapidez-precisión

como un ajuste al nivel base inicial de fuerza de la respuesta y a la separación entre los

umbrales de respuesta (emparejamiento, no-emparejamiento).

Page 79: Aznar Alternativas Teoricas en Percepcion Raic

79

En el siguiente gráfico puede observarse la relación entre la velocidad y el número de

coincidencias (solapamiento) en la difusión del procesamiento.

Al comparar Sternberg las latencias entre ensayos positivos y negativos, observó que

eran similares, por cuanto interpretó que, en ambos casos, se exploraban todos los

estímulos de la serie antes de emitir la respuesta (decisión exhaustiva). Es decir, que el

sujeto compara todos los estímulos de MCP de uno en uno.

Sin embargo, para Ratcliff (1978) si en uno de los procesos de comparación, que tienen

lugar a la vez, se alcanza el umbral superior (suficiente número de coincidencias),

finalizan las comparaciones de los restantes estímulos y se genera la respuesta

afirmativa. Mientras que, en los ensayos negativos, la respuesta "no" es generada cuando

no se ha obtenido suficiente evidencia (se alcanza el umbral de no-coincidencias) tras la

comparación de todos los estímulos. Concluye, por consiguiente, que en los ensayos

positivos la decisión es autoterminada, en tanto que en los negativos es exhaustiva. Y

basa la explicación de la no existencia de diferencias significativas entre las latencias de

ensayos positivos y negativos en términos de posición del criterio en el proceso de

decisión, ésto es, en el hecho de que se requiere reunir más evidencias (coincidencias)

para alcanzar el el límite superior que para el límite inferior (no-coincidencias) (Ratcliff,

1985).

En resumen, Ratcliff (1978) elaboró un modelo de recuperación de información en MCP,

que supera las deficiencias del modelo de Sternberg, fundamentándose en una

Page 80: Aznar Alternativas Teoricas en Percepcion Raic

80

concepción totalmente opuesta a la anterior, puesto que considera que la búsqueda en

MCP es un proceso realizado en paralelo y es autoterminada. Donde el proceso de

comparación se realiza en paralelo, es decir, de manera simultánea en todos los

estímulos de la serie de memoria.

Rumelhart y Siple, en 1974, aportaron un modelo de reconocimiento de patrones, que

el propio Rumelhart (1977) describe así:

"Cuando una señal compleja queda registrada en el icono un banco de analizadores

de rasgos comienza a procesar la imagen. Los rasgos extraídos de la imagen son la

entrada al sintetizador de modelos. El cual también recibe como entradas las

expectativas del sistema, al mismo tiempo que la entrada de los rasgos. Luego produce

como salida alguna representación reconstruída de la meta de entrada que luego se

pasa a la memoria. El sistema de memoria, a su vez, utiliza tanto la entrada inmediata

como el conocimiento permanente almacenado para determinar un nuevo conjunto de

expectativas" (pag. 89, trad. cast.).

Estos autores suponen que el sintetizador de modelos (mecanismo) opera combinando

la información de rasgos con las expectativas previas.

Según el modelo de "procesamiento en cascada" de McClelland (1979), varios procesos

pueden iniciarse simultáneamente, transmitiéndose un flujo continuo de información, en

forma de una creciente "propagación de la activación". Cuando se presenta al sujeto un

estímulo, el nivel de activación se va incrementando, a través del sistema global, hasta

alcanzar un umbral, que genera una respuesta disponible para ser emitida por el sujeto.

Este modelo lo representa McClelland como sigue:

Page 81: Aznar Alternativas Teoricas en Percepcion Raic

81

Este modelo supone la invalidación del método sustractivo de Donders, según el cual la

diferencia entre los TRs de dos tareas, que sólo difieren en el requerimiento de un

proceso adicional, constituye una medida de la duración del proceso crítico. En efecto,

según el modelo de cascada, el TR no equivale a la suma de las duraciones de todos los

procesos, porque dichos procesos no son estrictamente sucesivos. Sin embargo, los

efectos aditivos de varios factores sobre el TR pueden ser interpretados todavía; puesto

que, la aditividad surgiría cuando dos o más factores influyan selectivamente sobre la

razón entre parámentros de diferentes procesos, a pesar de su solapamiento temporal.

8.5. MODELOS DE PROCESAMIENTO EN LECTURA

Si bien se acepta, generalmente, que en la lectura intervienen múltiples niveles de

procesamiento, las diferencias se ponen de manifiesto en cuanto a las relaciones

funcionales que se establecen entre ellos.

En este campo, se distinguen dos grupos de modelos:

Page 82: Aznar Alternativas Teoricas en Percepcion Raic

82

A) Modelos de procesamiento en serie. Los cuales proponen una jerarquía de niveles

que suele comenzar con el análisis de los rasgos perceptivos (ángulos, inclinaciones,

intersecciones, perpendicualares, horizontales, etc.) y en base a ellos tiene lugar el

reconocimiento de letras. Estas, a su vez, constituyen los datos de entrada para el

reconocimiento de sílabas, las cuales sirven de fundamento al reconocimiento de

palabras. De nuevo, las palabras intervienen para el reconocimiento de las frases y la

integración de todas ellas da lugar al procesamiento semántico del texto. Por

consiguiente, estos modelos siguen una jerarquía secuencial de niveles en dirección

abajo-arriba o 'guíadas por los datos' exclusivamente.

B) Modelos de procesamiento con interacción de niveles. Estos tienen en cuenta, tanto

los procesos abajo-arriba (data driven processing) como los procesos arriba-abajo

(conceptually driven processing), en una relación bidireccional.

Consideran que, además de existir los grupos de analizadores específicos (de rasgos,

letras, palabras, etc.) las letras se reconocen antes si están insertadas en palabras

significativas que si lo están en una serie de caracteres alfabéticos sin significado

conocido. Y las palabras se reconocen más fácilmente si están incluidas en frases

comprensibles.

Nosotros destacaremos el modelo interactivo de lectura propuesto por Rumelhart y

McClelland (1981). La colaboración de ambos condujo a la elaboración de un modelo

restringido a sólo tres niveles de procesamiento: reconocimiento de rasgos,

reconocimiento de letras y reconocimiento de palabras.

Page 83: Aznar Alternativas Teoricas en Percepcion Raic

83

En dicho modelo, estos niveles integran la información, bidireccionalmente, mediante el

mecanismo de `propagación de la activación', pudiendo propagarse, bien mensajes

excitatorios o bien mensajes inhibitorios.

Veamos el funcionamiento del modelo mediante un ejemplo para el reconocimiento de

la palabra SON, presentándosela al sujeto con la letra 'O' parcialmente borrada.

El modelo reduce la incertidumbre al avanzar el procesamiento y decide como

respuesta la palabra con mayor probabilidad: SON.

Las flechas indican el sentido de la activación (arriba-abajo o abajo-arriba), resaltándose

las letras que reciben mayor activación con doble recuadro.

8.6. EL MODELO DEL LOGOGEN: MODELO DE INTEGRACION DE INFORMACION

SENSORIO-COGNITIVA

De sobras es conocido que, al igual que las letras, también las palabras se reconocen

Page 84: Aznar Alternativas Teoricas en Percepcion Raic

84

más facilmente en un contexto significativo, como por ejemplo la frase, que en el 'vacío

semántico'. Ello, probablemente es debido a que tiene lugar una integración de la

información procedente del estímulo, o procesos de abajo-arriba, con la información

disponible en la memoria o procesos de arriba-abajo, llamados así porque proviene de los

procesos cognitivos superiores. Para expresarlo de un modo sencillo, los primeros

supondrían identificar el estímulo, en tanto que los segundos tendrían como objetivo

anticipar qué es.

Durante la década de los 70, J. Morton elaboró, aportó pruebas experimentales y

depuró sucesivamente el "modelo del LOGOGEN" (logos= palabra; gen= origen). Este

modelo trata de explicar la disponibilidad de las palabras en el procesamiento de

información.

A cada palabra o letra le correspondería un logogen específico, que básicamente

constaría de una lista de rasgos provenientes de tres canales diferenciados: visual,

auditivo y contextual.

Adolece, este modelo, de concebir al sistema logogen' de modo pasivo, ya que cada

unidad logogen acumula la frecuencia de activación de cualquier canal, o combinación de

canales, hasta que se alcanza un determinado umbral, que la hace entrar en acción. Sin

embargo, considera la interacción de procesos guiados por los datos' y guiados

conceptualmente'.

Lo representaremos, de modo sencillo, de la siguiente manera:

Page 85: Aznar Alternativas Teoricas en Percepcion Raic

85

En cuanto al funcionamiento del modelo, Morton admitió algunos supuestos `a priori'

que resultan de alto interés:

Concedió una mayor prioridad e importancia a los rasgos semánticos en la organización

de las 'unidades logogen'.

Otorgó un papel decisorio al contexto. Puede ocurrir que distintos logogenes contengan

listas de rasgos idénticas o muy similares, en relación con el canal de ingreso (visual o

auditivo). Por ejemplo, palabras de igual pronunciación y distinto significado (WRITE,

RIGTH), o de igual escritura y desigual significado [TOMAS (nombre) y TOMAS (verbo)], las

cuales diferenciamos por el contexto.

El valor del umbral no es constante, sino que una vez activado, recupera lentamente su

valor inicial.

En las palabras frecuentes (familiares) el umbral es más bajo que en las poco usuales.

8.7. PROCESAMIENTO DE INFORMACION: METODOS DE REGISTRO DE DATOS

Page 86: Aznar Alternativas Teoricas en Percepcion Raic

86

Dentro de los enfoques cognitivistas, señala Haber (1974) comenzó a emerger en los

años 50 la perspectiva del procesamiento de información, cuyas raíces se pierden en el

asociacionismo-funcionalismo, como una promisoria alternativa para el estudio de los

procesos cognitivos (percepción, memoria, razonamiento, etc), que las corrientes

inspiradas en el paradigma E-R, incluyendo el conductismo mediacional, habían

marginado del campo de estudio de la psicología. Como consecuencia de las

insuficiencias mostradas por el agotamiento de éste planteamiento, la psicología se vio

abocada a lo que en términos Kuhnianos se designa con el calificativo de crisis

paradigmática.

Desde el enfoque de la corriente del procesamiento de información se recurrió a la

medición de dos aspectos característicos de la conducta observable y complementarios

entre sí. Uno de ellos era la rapidez del procesamiento o "Tiempo de reacción" (TR), que

permitía inferir la complejidad de los procesos, ya desde una concepción lineal

(procesamiento serial; por ej. Stenberg, 1969), ya desde una concepción simultánea, en la

que varios procesos se ejecutan a la vez (procesamiento en paralelo continuo o discreto;

por ej., Ratcliff, 1978; McClelland, 1979). Sin embargo, las críticas derivadas del abuso de

la concepción serial, que al parecer no se adecúan al procesador humano y la variabilidad

de los TR, los cuales fluctuaban aún manteniendo la misma situación experimental y los

mismos sujetos (motivo por el que Amón [1978] propuso acertadamente la utilización de

las medianas de dichos TRs, en lugar de las medias), se imponía una creciente necesidad

de buscar nuevos indicadores que informasen de los procesos subyacentes al

funcionamiento del sistema nervioso. El otro aspecto medible del comportamiento

observable, hace referencia a la precisión o exactitud de las respuestas, determinada

generalmente mediante el número de aciertos o errores, y que permitía inferir la

sofisticación de los procesos subyacentes y su dificultad, pudiendo proponerse modelos

que se ajustasen a los datos empíricos. No obstante, tampoco esta VD (variable

dependiente) permitía obtener un grado de certeza aceptable, para esclarecer el

funcionamiento cerebral dentro de la analogía computacional.

En efecto, numerosos autores (Pachella, 1974; Wickelgren, 1977, etc.) evidenciaron una

relación inversa o ajuste entre la velocidad y la precisión de las respuestas, ya que es

Page 87: Aznar Alternativas Teoricas en Percepcion Raic

87

posible ejecutar muy rápidamente una tarea cometiendo muchos errores o lograr un

elevado número de aciertos empleando un tiempo inusualmente largo. Mediante

sofisticados diseños cobraban significado teórico tanto las latencias como la precisión.

En la actualidad han sido diseñados nuevos procedimientos experimentales que

posibilitan obviar el problema del ajuste rapidez-precisión, bien forzando la respuesta en

un intervalo crítico (Wickelgren, 1977), bien extrayendo los TRs que se adecúan a un

determinado criterio de exactitud de la respuesta, sobre la base de emitir los sujetos un

valor subjetivo de certeza o grado de seguridad con el que creen haber respondido

(Ratcliff y Murdock, 1976); Lecocq y Tiberghien, 1981), e incluso obteniendo un índice

que exprese la relación entre ambos aspectos característicos de la respuesta, que

denomino "eficacia" (Aznar, 1989) y defino operacionalmente como la razón entre la tasa

de aciertos y el promedio de las medianas de los TRs.

Otra alternativa metodológica (Miller, 1982; Meyer, Irwin, Osman y Kounios, 1988),

denominada "procedimiento de anticipación de la respuesta" (Response-Priming

Procedure), consiste en medir el TR tras adelantar al sujeto información parcial sobre la

respuesta requerida, antes de que emita su respuesta. Al observar como la información

parcial mejora la ejecución, en comparación con otra condición de no-información

parcial, pueden extraerse conclusiones acerca de las características de los dinámicos

procesos a que sometemos la información.

Page 88: Aznar Alternativas Teoricas en Percepcion Raic

88

Capítulo IX Psicología cognitiva y ciencia cognitiva

"Ninguna frontera natural parece resistir a los esfuerzos del hombre;y a los ojos de éste, lo que todavía no se ha hecho es, simplemente, lo que no se ha intentado."(Alexis de Tocqueville s.XIX)

9.1. INTRODUCCION

La denominación de "Ciencia Cognitiva" comienza a instaurarse en la psicología a

comienzos de los años 70, desde entonces numerosos autores (Miller, 1979; Collins,

1977; Norman, 1980; Mandler, 1981; Rumelhart, 1982; Bruner, 1983; etc.) intentaron

definir la naturaleza y alcance de la nueva ciencia, inspirada en la metáfora

computacional, aunque tales definiciones no coincidían de manera unívoca. Por esta

razón, De Vega (1984) señala la conveniencia de establecer una distinción entre dos

concepciones derivadas de la analogía funcional mente-ordenador, que sirvió de

fundamento a la nueva manera de entender el estudio de los comportamientos

inteligentes. Para de Vega, la versión débil de la analogía se corresponde con la

denominada Psicología Cognitiva y se centra en el estudio directo del comportamiento

inteligente de los seres humanos, si bien establece una semejanza funcional entre mente

y ordenador, que permite el uso instrumental de la terminología del procesamiento de

información. La versión fuerte, es la que ha evolucionado hacia lo que propiamente se

denomina Ciencia Cognitiva, cuyo interés no se circunscribe al comportamiento humano,

exclusivamente, sino que lo hacen extensible hasta el comportamiento de máquinas

computacionales o programas de ordenador capaces de realizar comportamientos

inteligentes. Esta concepción lleva la analogía hasta el extremo de pretender elaborar

una teoría unificada del procesamiento que incluya todos los sistemas de tratamiento de

la información existentes. El interés actual de sus partidarios se ha circunscrito más hacia

la elaboración de programas I.A. (de Inteligencia Artificial) y de simulación computacional

de procesos, modelos y teorías, que hacia el estudio del comportamiento humano,

plasmando sus resultados en detallados diagramas de flujo, algoritmos, etc.

Page 89: Aznar Alternativas Teoricas en Percepcion Raic

89

Para Norman (1981), el objetivo final de la ciencia cognitiva es el de conocer "cómo" se

adquiere el conocimiento, independientemente de "quién" es el sujeto del conocimiento

(hombre o máquina). No obstante, algunos psicólogos actuales (Gardner, 1985),

caracterizan a la Ciencia Cognitiva fundamentándose en otros criterios, así la define

"como un empeño contemporáneo de base empírica por responder a interrogantes

epistemológicos de antigua data, en particular los vinculados a la naturaleza del

conocimiento, sus elementos componentes, sus fuentes, evolución, y difusión" (trad.

cast. pag. 21). Destaca cinco rasgos cuya presencia nos permitiría clasificar una

determinada obra dentro de la Ciencia Cognitiva; los dos primeros constituyen

asunciones teóricas básicas, en tanto que las otras se refieren a rasgos metodológicos o

estratégicos. Estas son:

a) Aceptación del postulado representacional, como un nivel de análisis independiente

de otros niveles (biológico, neurológico, sociológico, cultural, etc.). El nivel

representacional puede referirse a símbolos, imágenes, reglas, acciones y, en definitiva,

comportamientos humanos; en otras palabras, la ciencia cognitiva se apoya en la premisa

de que la actividad cognitiva humana debe describirse en determinadas formas de

representación mental. Las discrepancias entre diferentes científicos cognitivos se hallan

en el desacuerdo existente en torno a la estructura, procesos y modalidades de

representación (imágenes, proposiciones, listas de rasgos, etc.) que tienen lugar en el

nivel de la representación mental.

b) Aceptación de la creencia de que el modelo computacional (hardware y software) es

el modelo más viable del funcionamiento de la mente humana. La aceptación de los

ordenadores, como modelo del pensamiento humano, sirve incluso para indicar el grado

de proximidad entre una disciplina y la ciencia cognitiva. Sin embargo, entre los

científicos cognitivos la actitud hacia la computadora fluctúa desde el entusiasmo

frenético hasta el escepticismo exacerbado.

c) Simplificación del modelo o atenuación de la importancia atribuida a los afectos,

contexto, la cultura y la historia, considerando que, aunque estos factores puedan ser

relevantes para el funcionamiento cognitivo, complicarían innecesariamente las

investigaciones. También en éste punto, los científicos cognitivos difieren en cuanto a la

Page 90: Aznar Alternativas Teoricas en Percepcion Raic

90

posibilidad de incorporarlos a los programas, de manera aceptable científicamente.

d) Necesidad de estudios interdisciplinarios, con el ánimo de que, en un futuro, surja

una ciencia cognitiva unificada. Consideran que el trabajo conjunto, desde disciplinas

afines, puede ser complementario y enriquecedor de la comprensión de los problemas,

propugnando una estrecha cooperación, sin que esto suponga una fusión total. En la

práctica, existen unas disciplinas a las que Gardner (1985) denomina Ciencias Cognitivas,

que contribuyen con sus aportaciones a la solución de los problemas planteados.

Fundamentalmente, son estas seis disciplinas: filosofía de la ciencia, psicología, I.A.,

lingüística, antropología y neurociencia; albergándose la esperanza de que las fronteras

entre ellas se difuminen algún día en pro de una ciencia cognitiva unificada.

e) Asumción de los problemas epistemológicos propios de la tradición filosófica

occidental, los cuales pueden servir como punto de partida para ser reformulados de

manera más acorde con los conocimientos y tecnología disponible en la actualidad.

Las investigaciones en Ciencia Cognitiva se han ocupado de diferentes problemas

relativos a áreas tan distantes como la representación del conocimiento mediante

imágenes (Kosslyn, 1978) o en formato proposicional (por ejem., Johnsosn-Laird, 1982), la

comprensión de lenguajes naturales (Winogrand, 1972) el razonamiento humano

(Tversky, 1983) la categorización del mundo (Rosch, 1973) y, el que ahora nos atañe aquí

de un modo más directo, el problema de explicar como las personas perciben los objetos,

en el cual debe destacarse la labor pionera de D.Mar (1982) y colaboradores (Nishihara,

Ullman, etc.). Los sistemas de procesamiento masivo distribuido en paralelo (Rumelhart y

McClelland, 1986); sin olvidar las aportaciones del enfoque teórico-experimental de

M.Minsky (1975) sobre marcos y análisis de escenas que abordaremos en la parte cuarta

de este texto.

9.2. DE LA CIBERNETICA A LA INTELIGENCIA ARTIFICIAL

La historia se inicia hacia 1948, cuando Norbert Wiener concibió una ciencia que bautizó

con el nombre de "Cibernética". Esta nueva disciplina la definió como "la ciencia de la

comunicación y control en el animal y la máquina", en la que el concepto de

Page 91: Aznar Alternativas Teoricas en Percepcion Raic

91

"retroalimentación" (feedback) sería el eje central. Esta propiedad de la

retroalimentación debería poseerla todo sistema capaz de producir un comportamiento

intencional y adaptable, que pueda ajustar su conducta a la realización de determinadas

actividades dentro de su radio de acción (autorregulación y control).

El entusiasmo inicial despertado por la cibernética duró poco tiempo, ya que en 1955 al

analizar Kleen, desde el punto de vista lógico las capacidades intelectuales del 'cerebro'

humano propuestas por la cibernética, concluyó que las cosas no eran tan simples y que

desde el lenguaje de esta ciencia no podrían explicarse los comportamientos inteligentes.

Esta crítica demoledora, junto al desencanto tras la euforia inicial, derribaron las

expectativas depositadas en la cibernética y comenzó la búsqueda de nuevas soluciones,

abriéndose una etapa conocida hoy bajo el pretencioso nombre de "Inteligencia

Artificial" (IA).

La iniciativa surgió del encuentro en Dartmounth (New Hampshire) de un grupo de

matemáticos estadounidenses en 1956, entre los que se hallaban John McCarthy (quien

otorgó el nombre de IA), Marvin Minsky y Herb Simon. El objetivo del grupo era elaborar

programas o dispositivos capaces de ejecutar tareas consideradas inteligentes, tales

como jugar al ajedrez, comprender preguntas acerca de figuras geométricas (bloques),

demostrar razonadamente teoremas matemáticos, reconocer dibujos, etc; también

acordaron reunirse periódicamente cada dos o tres años para evaluar los programas,

algoritmos, lenguajes y métodos de programación. En los 34 años que abarca la etapa de

la IA, fueron descubiertas numerosas técnicas y sus desarrollos han versado sobre cuatro

aspectos principales. Estos son:

- Percepción, y en particular visión computacional.

- Comunicación: comprensión del lenguaje natural, etc.

- Razonamiento simbólico: resolución de problemas.

- Ingeniería y representación del conocimiento: sistemas expertos

Para nuestros objetivos, nos centraremos en los modelos de reconocimiento de pautas

y no estableceremos separación entre los programas de simulación y los de IA. Sin

embargo, debe quedar claro que los primeros pretenden realizar modelos en software

que sean equivalentes funcionalmente a lo postulado por alguna teoría psicológica;

Page 92: Aznar Alternativas Teoricas en Percepcion Raic

92

mientras que, los programas IA, como expresa Donald Michie (1974) tratan acerca del

"desarrollo de una teoría sistemática de los procesos intelectuales, donde quiera que se

los encuentre" (máquinas, humanos, animales, etc.).

Entre estos programas citaremos por su relevancia el modelo de pandemonio de

Selfridge (1959). En realidad se trata de un modelo de simulación en I.A. que fue aplicado

al reconocimiento del Morse y también de letras manuscritas, mostrando ciertas

analogías con los procesos humanos en este terreno del reconocimiento. El modelo está

organizado jerárquicamente en una serie de analizadores independientes (demonios)

que van desde la retina, pasando por los analizadores de imagen, "demonios

computacionales" y "demonios cognoscitivos", hasta llegar al nivel superior que

denomina "demonio de decisión". Este es el encargado de recoger las evidencias

proporcionadas por los niveles inferiores (demonios especializados). Los demonios son

los encargados de extraer los rasgos relevantes de la configuración del estímulo. Selfidge

propone un tipo de procesamiento en paralelo que potencia la eficiencia de los demonios

específicos y donde el centro encargado de coordinar todas las informaciones es el

"demonio de decisión".

El modelo del percepción propuesto por F. Rosenblatt en 1958, puede ubicarse dentro

del grupo de teorías de la red nerviosa, inspiradas en la teoría neurofisiológica propuesta

por D.O. Hebb en 1949 con su obra "La organización de la conducta".

El perceptrón es una maquina electrónica capaz de identificar modelos visuales simples.

La estructura de su organización consta de tres capas denominadas unidades lógicas

umbrales, semejantes a las redes neurales. Estas, suman los 'pesos' de las señales de

entrada y se excitan sólo si la suma de los pesos excede los valores umbrales prescritos.

Los logros de los perceptrones, vistos con la perspectiva del tiempo actual, no han

pasado de realizar categorizaciones triviales.

Otro modelo de análisis alternativo, pero en este caso secuencial, viene representado

por el programa de ordenador EPAM (Perceptor y Memorizador Elemental), elaborado

por Feigenbaum en 1963. Este programa, efectúa el reconocimiento desarrollando un

"árbol de decisión" que su autor denomina "red de discriminaciones". No nos

detendremos en él por considerar inadecuado para estos procesos de reconocimiento el

Page 93: Aznar Alternativas Teoricas en Percepcion Raic

93

tipo de procesamiento secuencial que, exclusivamente, utiliza.

L.G. Roberts en 1965 (citado por Bodem, 1977, pag. 239) elaboró un programa

(Machine Perceptron of Three Dimensinal Solids) que incorporaba conocimientos acerca

de geometría proyectiva, de modo que podía interpretar imágenes 2D como si fueran 3D,

dando además las dimensiones exactas y siendo capaz de mostrar diferentes

perspectivas del objeto tridimensional.

El programa de D.L. Waltz (Understanding Line Drawing of Scenes with Shadows) era

capaz de realizar una descripción en 3D de objetos dibujados en escenas sombreadas, e

incluso percibía las semejanzas entre dos escenas a pesar de las diferencias en

sombreado.

No obstante, la complejidad para tratar con imágenes del mundo real se hacía patente,

por lo que, ante la dificultad de abordarlo, se desarrollaron programas que operaban

sobre 'micromundos artificiales', como por ejemplo el desarrollado por Terry Winogrand

(1972), denominado SHRDLU, el cual comprende preguntas y maneja una serie de

bloques geométricos dibujados linealmente, teniendo en cuenta conocimientos

almacenados por el programador sobre estas formas, pero sin considerar todo el bagaje

de conocimientos que utilizamos en la vida real. Esta línea de trabajos derivó en lo que se

conoce con el sobrenombre de "Análisis de Escenas", procedimientos que

desarrollaremos más adelante (véase cap. 15).

Más recientemente y en la línea analítica, otro modelo general del reconocimiento de

Patrones fue propuesto por D. Rumelhart (1977), quien resume sus propios puntos de

vista en los siguientes términos:

"el estímulo físico choca contra los receptores y modifica sus patrones de descarga.

Luego, este modelo se registra en una memoria sensorial transitoria (memoria icónica

o ecóica) en donde pueden almacenarse brevemente para un ulterior procesamiento.

En este punto del análisis se lleva a cabo la extracción de los rasgos críticos. Las salidas

de los analizadores de rasgos se alinean hacia un sintetizador de patrones. Este

mecanismo hace uso de las restricciones que imponen los rasgos extraídos, la

información contextual (semántica, sintáctica y de otro tipo), así como la información

de la memoria para reconstruir una imagen abstraída de la entrada sensorial. Luego,

Page 94: Aznar Alternativas Teoricas en Percepcion Raic

94

esta representación abstracta se almacena en la memoria con un rótulo que indique

que acaba de ocurrir. Todo este procesos requiere recursos (atencionales)…" (pag.

108, trad. cast.).

Por último, una teoría del reconocimiento de caracteres descrita anteriormente (véase

cap. 8, subapartado 8.4) se debe a McClelland (1979), quien propuso una serie de

estadios de procesamiento que funcionan "en cascada". Es decir, cada estadio suministra

gradualmente información al siguiente estadio, el cual lleva a cabo unas clasificaciones

previas, que se apoyan en la información anterior.

A mediados de los 80 la IA encontró dos obstáculos difíciles de superar a través de sus

propios métodos y que han puesto de relieve sus límites; por una lado, la complejidad

creciente de los programas y, por otro, no dan la impresión de ser realmente inteligentes,

a lo sumo reflejan la astucia del programador para dar con métodos que le dan la

apariencia inteligente. Por esta razón, hay quienes creen necesario un cambio de

planteamiento o giro copernicano que permita superar las dificultades, como el

planteamiento del neoconexionismo de las redes neurales o sistemas de procesamiento

paralelo masivo distribuido, que después tratemos, no sin antes sumergirnos en la figura

del que fue máximo exponente (junto con D.A. Norman) de la ciencia cognitiva de

nuestros días.

9.3. TEORIA DE LA VISION DE D. MARR

La obra y programa de investigación desarrollada entre 1973-80 por el neurofisiólogo D.

Marr puede considerarse prototípica de la investigación en Ciencia Cognitiva por varias

razones, entre las que destacamos:

a) Asume la metáfora computacional (mente-ordenador) hasta el extremo de diseñar

un modelo informático de visión artificial que opere según los procedimientos utilizados

por el sistema visual humano.

b) Acepta el nivel explicativo representacional, en cuanto recurre a descripciones

simbólicas de los objetos que componen las escenas.

c) Concibe un abordaje de los problemas relativos a la percepción desde una

Page 95: Aznar Alternativas Teoricas en Percepcion Raic

95

perspectiva interdisciplinaria, que considera tanto las aportaciones de la neurofisiología y

psicología como los algoritmos computacionales, integrando sus hallazgos en un modelo

de la percepción visual.

La corta existencia, aunque productiva, de David Marr cambió el enfoque y orientación

de los trabajos sobre percepción visual, planteando las cuestiones que debían ser

investigadas antes de plasmarlas en un programa de ordenador y, al mismo tiempo,

descubriendo las restricciones que impone un sistema computacional de tratamiento del

conocimiento.

Marr se formó como neurofisiólogo en Cambridge (Inglaterra), terreno en el que

publicó un trabajo sobre el funcionamiento del cerebelo en 1969. No tardó mucho

tiempo en reconocer que con el enfoque parcial de la neurofisiología no podían

explicarse los procesos básicos del comportamiento humano, por lo que en 1973 inició

sus investigaciones en el laboratorio de IA del M.I.T. ininterrumpidamente durante los

siete años que precedieron a su temprano fallecimiento por leucemia en 1980.

La necesidad de un enfoque multidisciplinar, así como el enfoque adoptado y las metas

que pretende nos la explica Marr (1975) en los siguientes términos:

"La situación de la neurofisiología moderna es que la gente está intentando entender

cómo un mecanismo particular ejecuta una computación que ni siquiera son capaces

de formular, mucho menos de suministrar, un conciso resumen de las maneras de

hacerla. Para rectificar la situación, necesitamos invertir un esfuerzo considerable en el

estudio del fondo computacional para las cuestiones que pueden ser abordadas en los

experimentos neurofisiológicos. Por consiguiente, aunque [mi obra] se origina en un

profundo compromiso con los fines de la neurofisiología, la obra no versa directamente

sobre la neurofisiología, ni sobre la simulación de mecanismos neurofisiológicos: versa

sobre el estudio de la visión. Equivale a una serie de experimentos computacionales,

inspirados en algunos hallazgos de la neurofisiología visual. La necesidad de ellos surge

de que, hasta que no intentamos procesar una imagen o hacer que un brazo artificial

enhebre una aguja, tenemos poca idea de los problemas que realmente se originan al

intentar estas cosas. Los experimentos computacionales nos permiten estudiar con

detalle qué combinación de factores causa que un método, o un grupo de métodos,

Page 96: Aznar Alternativas Teoricas en Percepcion Raic

96

tenga éxito o fracase en una variedad de circunstancias particulares que originan los

datos del mundo real. La fuerza de este enfoque es que el conocimiento obtenido se

refiere a hechos que son inherentes a la tarea, no a los detalles estructurales del

mecanismo que la realiza".

En la concepción de la visión se muestra partidario de un análisis de las imágenes que,

en las primeras fases del procesamiento avanza de lo particular a lo general, existiendo

una gran cantidad de procesamiento y numerosas representaciones simbólicas; sin

embargo, en las etapas finales el análisis va de lo general (conocimientos almacenados) a

lo particular (datos informacionales).

Los fundamentos de la teoría de la visión de Marr (1982) parten de la necesidad de

abordar la comprensión sobre los requerimientos de la descripción de escenas. Consideró

ineludibles tres planos de análisis:

1) Computacional. Una teoría computacional de la visión que pretenda extraer las

propiedades de los objetos a partir de las imágenes debe de clarificar "qué hace", qué es

lo que computa (imagen, descripción, etc.), y "por qué" razón lo hace. Es decir, dada una

información contenida en una imagen bidimensional, que propiedades permiten

interpretarla como si fuera una imagen tridimensional.

2) Algorítmico. Debe establecer "cómo" realizará las operaciones, esto es, que formato

representacional utilizará cada una de las entidades significativas.

3) Instrumental. Especificar en qué dispositivo tendrá lugar el proceso: máquina

mecánica, ordenador, o cerebro.

Marr se hallaba interesado en la realización de programas de ordenador que fueran

capaces de analizar escenas de modo eficaz, haciendo uso de los procedimientos que se

supone utiliza el sistema visual humano. La teoría de la visión que postula tiene como

meta explicar mediante un modelo computacional de análisis de escenas qué etapas

tienen lugar para lograr reconocer una imagen o interpretar una escena. Supuso que

sucedían tres fases, en las que sólo en la última intervienen los sistemas del

conocimiento:

I) Formación de un bosquejo primario (sketches) o descripción en base a un amplio

número de características (líneas, bordes, manchas) tal como harían los analizadores

Page 97: Aznar Alternativas Teoricas en Percepcion Raic

97

descubiertos por Hubel y Wiesel (1959).

II) Bosquejo 2D, obtenido mediante análisis del bosquejo primario, capaces de agrupar

los elementos de este (líneas, puntos, bordes, manchas) a fin de descubrir las

propiedades de las superficies que forman la imagen o escena.

III) Representación 3D, que transforma el bosquejo 2D en una representación

identificable del objeto y sus partes constitutivas.

Veamos, a continuación, como sintetiza Marr el proceso de análisis de escenas en sus

propias palabras:

"En un principio, el sujeto selecciona elementos más o menos similares [de la

imagen] y los agrupa y reúne formando líneas, curvas, manchas mayores, grupos y

pequeños fragmentos, en la medida en que lo permite la estructura inherente de la

imagen. Repitiendo esto una y otra vez, se van creando indicadores o elementos

primitivos en cada una de las escalas, que captan la estructura espacial de esa escala.

Así, si la imagen es la de un gato en primer plano, el bosquejo primario en bruto dará

fundamentalmente descripciones en la escala de los pelos del gato. En el nivel

siguiente podrán aparecer las marcas de su pelaje -que también pueden ser detectadas

en forma directa por los cambios de intensidad-, y en un nivel todavía superior,

aparecerá la estructura en forma de franjas paralelas de dichas marcas (…) En cada

etapa, los elementos primitivos utilizados son símbolos cualitativamente similares

-bordes, trazos, manchas, terminaciones o discontinuidades-, pero todos ellos se

refieren a propiedades cada vez más abstractas de la imagen" (1982, pag.91).

Mediante su enfoque del estudio de los fenómenos perceptivos estableció los

fundamentos de una metodología de trabajo, cimentada en el pluralismo teórico

integrado, sentando las bases para orientar futuras investigaciones, o incluso, desplegar

el esfuerzo investigador para someter a prueba sus presupuestos teóricos, especialmente

el que sostiene que en las etapas tempranas del procesamiento no intervienen los

conocimientos de alto nivel. En otros términos, el modelo teórico propuesto por Marr,

para el análisis de escenas parece partir de un procesamiento guiado por los datos

(bottom-up) en sus fases iniciales, para finalmente admitir el procesamiento guiado

conceptualmente (top-down), premisa que 'a priori' no parece universal a numerosos

Page 98: Aznar Alternativas Teoricas en Percepcion Raic

98

autores.

9.4. SISTEMAS DE PROCESAMIENTO PARALELO MASIVO DISTRIBUIDO (PDP)

La joven historia de la IA parece hallarse en una situación de crisis desde 1986, tras el

período de crecimiento (1956-76) y auge (1976-86) especialmente de los Sistemas

Expertos (Ingeniería del conocimiento y representación del conocimiento), lo que ha

conducido a la búsqueda de alternativas renovadoras, que permitan salir de las

limitaciones con que se tropieza.

Un reducido número de investigadores de la IA (Hinton y Anderson, 1981; Rumelhart y

McClelland, 1982, 1986; Waldrop, 1984), insatisfechos con la actual situación, decidieron

experimentar otros planteamientos, cuyo enfoque ha sido denominado con diferentes

términos: neoconexionismo, redes neurales, neuroinformática, o IA subsimbólica. Parten

de admitir las insuficiencias de la IA y aportan una nueva forma de trabajar; así, si el

cerebro humano tarda alrededor de 100 msg. en el reconocimiento de un rostro humano

y al emular esta tarea, aparentemente sencilla, las modernas computadoras tardan

mucho más y cometen abundantes errores, implica que los métodos empleados no

tienen plausibilidad psicológica, es decir, no deben ser los mismos que emplea nuestro

sistema visual y, por consiguiente hay que emplear otras estrategias.

De manera análoga al cerebro, se establecen unas unidades (procesadores

independientes) llamadas "neuronas" y se interconectan de modo masivo formando algo

así como "redes neuronales" artificiales. Los diferentes estados de las redes neurales

determinan el conocimiento del sistema. En lugar de que un programa actúe serialmente

(máquinas Von Newman) sobre símbolos, como sucede en la IA clásica, las redes actúan

sobre estados globales de energía; en otros términos, además de que diferentes módulos

ejecuten separadamente ciertos análisis, se añade ahora el intercambio de información

entre unidades, de modo similar a las columnas de neuronas de descarga simultánea.

Estos sistemas procesan la información mediante interacciones excitatorias o inhibitorias

entre redes de unidades simples, que cooperan o rivalizan entre ellas, activándose unas y

Page 99: Aznar Alternativas Teoricas en Percepcion Raic

99

desactivándose otras, estableciendo el estado de dicho sistema. Otra característica

importante de estos modelos es el procesamiento distribuido, que tiene lugar en los

fenómenos perceptivos y mnemónicos; ello consiste en que no existe un único centro de

control de transmisión de información entre módulos, sino que ciertas unidades operan a

la vez (en paralelo) y alcanzan sus efectos estadísticamente. Tales multiconexiones hacen

posible la utilización de una gran proporción del conocimiento total del sistema para el

reconocimiento o la resolución de problemas.

Otra ventaja que se deriva de la representación distribuida del saber consiste en que,

como la información no reside en un lugar específico, aunque se deterioren algunas

unidades (o 'neuronas') perdurará el concepto o imagen global, e incluso el sistema

puede tomar decisiones a partir de información incompleta, aproximada o con

interferencias, lo cual parece muy aceptable psicológicamente.

También es peculiar de este enfoque la posibilidad de prescindir completamente del

procesamiento simbólico, quedando sustituido por las conexiones entre neuronas que

realizan funciones específicas, por cuanto no existe un 'locus' para el conocimiento, para

la inteligencia, sino que éstos son intrínsecos a la adecuación y fuerza de las conexiones

entre procesos simples, de modo consistente con los datos conocidos sobre la neurología

de los primates.

Las simulaciones computacionales de percepción visual mediante estos sistemas han

alcanzado éxitos que hacen recobrar ilusiones en torno a la génesis de una teoría

psicológica de la percepción coherente con la neurología. No obstante, quedan por

explicar numerosos problemas sobre la naturaleza de la percepción desde este enfoque y

a ello hay que añadir que, en estos sistemas, todavía existen puntos cruciales por

resolver, relativos a la coordinación de procesos independientes.

9.5. VISION ELECTRONICA VERSUS VISION HUMANA

La capacidad visual implementada en los programas de visión computacional, por el

momento, está muy lejos de alcanzar el nivel de rendimiento humano, e incluso de

numerosas especies animales. Sin embargo, no se pueden negar las contribuciones que

Page 100: Aznar Alternativas Teoricas en Percepcion Raic

100

las investigaciones sobre la visión artificial han aportado en la comprensión del fenómeno

visual humano.

Así, numerosos autores, (R.L. Gregory, 1966 y G.Kanizssa, 1974) han puesto de

manifiesto que resultan insuficientes los criterios geométricos utilizados de modo

exclusivo, imponiéndose la necesidad de combinarse éstos con conocimientos

semánticos, contextuales, funcionales, socioculturales, etc.

La psicología cognitiva ha realizado numerosas contribuciones al campo de la visión

artificial, destacando la importancia del razonamiento, la memoria, la atención y el

aprendizaje en la percepción visual, ya sea de enfoque constructivista o desde la

corriente del procesamiento de información (serial o paralelo). Ejemplos de ello serían las

"inferencias inconscientes" de Helmholtz, las leyes de la organización holística de la

psicología de la Gestalt, los esquemas de Bartlett, la "New Look" de la percepción de J.

Bruner con la influencia de la expectativas y la verificación de hipótesis de R.L. Gregory.

Los programas computacinales de visión artificial, si bien se han centrado en

reconocimiento de objetos dentro de un reducido micromundo, apoyan y complementan

este marco teórico general, poniendo de manifiesto de qué modo "el todo" depende de

sus "partes" constitutivas y como dichas partes dependen de la totalidad; es decir, han

evidenciado como el conocimiento puede influir en la construcción fenomenológica. Los

programas de reconocimiento visual, por tanto, pueden considerarse un modo de

verificación y validación de estos postulados al ser implementados en el programa que

emula o simula el comportamiento visual humano.

Además, la visión computacional ha proporcionado una base conceptual y una

terminología que permite plantear los problemas relevantes de modo concreto y preciso,

dejando al descubierto la escasez o insuficiencia de los conocimientos que actualmente

poseemos sobre la visión 3D (tridimensional), qué 'pistas' contenidas en la estimulación

sensorial nos permiten interpretar determinados aspectos o relaciones entre los objetos,

etc.

En este sentido, han aparecido enfoques que se han centrado en el estudio de la

variedad de 'claves' que interpretamos en nuestra percepción. En uno de ellos (que

revisaremos en el cap. 11), J.J. Gibson (1966) pone el énfasis en el "gradiente de textura"

Page 101: Aznar Alternativas Teoricas en Percepcion Raic

101

como elemento determinante de la visión de la profundidad y en la detección de bordes

y contornos de los objetos. En la actualidad, existen programas de visión computacional

(Bajcsy, R., citado por Bodem, 1977), que han logrado analizar una escena natural

(paisaje) segmentándola en regiones que presentan árboles, agua, hierba, etc.,

basándose en 'pistas' de textura.

Como se ha expuesto anteriormente, durante los años 70 y principios de los 80, D. Marr

(1975, 1982) expuso una exhaustiva teoría computacional de la visión capaz de

discriminar una gran variedad de texturas visuales, a fin de conseguir una segregación

entre fondo y figura. Marr puso a prueba la discriminación visual en una amplia

diversidad de escenas reales, mediante discriminaciones de textura, obteniendo

resultados que apoyan su teoría.

Los programas de visión computacional también deben tener en consideración otro tipo

de pistas, tales como la distancia y los contornos, obtenidas mediante la esteroscopía, el

movimiento del objeto y el paralaje, así como determinados conocimientos almacenados

en memoria (procesos Top-down) que permiten inferir diversos aspectos de la escena, a

saber, caras ocultas de una figura, vértices eclipsados por la opacidad del objeto y otros

elementos ocultos, por ejemplo en los perfiles (ojo, oreja, brazo, pierna, etc.). Sin

embargo, otros muchos aspectos considerados en la percepción humana quedan por

incorporar en estos programas visuales. Uno de ellos es el relativo a las pistas

proporcionadas por las sombras de los objetos, aspecto que en el reconocimiento de las

imágenes digitalizadas parece ser más un obstáculo que una facilitación. Otro, es la

detección del movimiento y la capacidad de discernir si se mueve el objeto o el ojo

electrónico, para lo cual debería poseer un conocimiento básico, cual es que cuando se

mueve el observador se produce un cambio uniforme en toda la imagen (retínica o

fotográfica), en tanto que cuando se mueve el objeto, los cambios sólo atañen a

determinadas localizaciones de la imagen. También los movimientos corporales,

movimientos de la cabeza o movimientos oculares intervienen en un fenómeno bien

conocido, como es las constancias perceptuales, por lo que el programa computacional

de reconocimiento visual debería incorporar esta información permitiendo una movilidad

y giro de la cámara (ojo electrónico). Finalmente, debería incluir la percepción del color y,

Page 102: Aznar Alternativas Teoricas en Percepcion Raic

102

por consiguiente, conocimientos acerca de las contribuciones de las pistas de

luminosidad a la visión. Por supuesto que, integrando las informaciones proporcionadas

por las pistas enumeradas, se pondrán de manifiesto nuevas insuficiencias que

orientarán la búsqueda de otras pistas.

En resumen, la IA paulatinamente ha ido avanzando desde el procesamiento de listas

de propiedades (LISP) hasta la construcción de esquemas estructurales (marcos, guiones,

scripts, etc.) y desde sistemas organizados jerárquicamente, inspirados en las teorías

neurofisiológicas, hasta los de funcionamiento heterárquico, que resultan más

apropiados para tratar con la ambigüedad. Y si bien es cierto que los logros de la visión

artificial, en comparación con la visión humana, son pura anécdota, esta visión

computacional ha servido y sirve para plantear los verdaderos problemas experimentales

en términos precisos y ha iluminado los largos senderos que los futuros programas de

investigación deberán atravesar para alcanzar una 'visión panorámica' que nos lleve a

comprender el fenómeno de la visión.

Quizá ya es hora de plantearnos las cuestiones de fondo y dejar reposar discusiones

estériles y, a veces, triviales; seguramente la pregunta más relevante no sea la de si ¿los

ordenadores piensan? o ¿ven?, basta con que se muestren eficaces en estos tipos de

tareas. Al igual que, irónicamente, responde a dichas preguntas el informático holandés

Dijkstra (mi relación con esta fuente es periodística) con otra pregunta: ¿y los submarinos

nadan? Debemos preguntarnos qué hacen las máquinas electrónicas, cómo lo hacen y

para qué o para quienes lo hacen, sin que importen demasiado similitudes o diferencias

intranscendentes, puesto que en el fondo, tampoco los aviones tienen plumas y, sin

embargo,… ¿vuelan?

Page 103: Aznar Alternativas Teoricas en Percepcion Raic

103

Capítulo X Neurociencia cognitiva

"Si no somos capaces de comprender el cerebro humano, ¿cómo vamos a implantarlo en un conjunto de cables y circuitos?(M. Ballestero, s. 1990)

10.1. INTRODUCCION

La neurociencia es una disciplina relativamente joven, que ha experimentado en la

pasada década (años 80) un notable desarrollo y caracterizada por su adhesión al modelo

biológico o neurofisiológico, por consiguiente reduccionista. En efecto, su meta es

explicar el comportamiento en base a lo que ocurre en el plano neuronal, si bien, por el

momento ha de conformarse con hacerlo a nivel neural molar, por ejemplo, describiendo

lo que observa en una columna celular, o en un lóbulo cerebral, o en un área cerebral, o

incluso en un hemisferio cerebral. Sin embargo, desde el punto de vista de la ciencia

cognitiva, resulta dudoso que sea posible explicar un determinado fenómeno sin la

colaboración interdisciplinar, sea de una teoría psicológica, de la lingüística, etc.

Resultan de sumo interés las contribuciones metodológicas para el estudio de los

procesos neurológicos centrales o periféricos, entre los que destacan las técnicas de

registro electrofisiológico y, más concretamente, los componentes endógenos de los

potenciales evocados relacionados con eventos, que han permitido establecer una

cartografía de la actividad eléctrica cerebral. También merece mención aparte la técnica

de registro de los movimientos oculares, además de otra gran variedad de técnicas, ya

sean metabólicas incruentas, como el registro del flujo sanguíneo cerebral local tras la

inyección o inhalación, en una arteria cerebral, de un radioisótopo; ya sean bioquímicas,

como los registros de consumo de oxígeno o de glucosa.

10.2. ANTECEDENTES HISTORICOS

A pesar de la juventud de la neurociencia, puede considerársela, en cierto sentido

heredera de una antigua polémica entre dos concepciones diferentes (aunque, como se

Page 104: Aznar Alternativas Teoricas en Percepcion Raic

104

verá no irreconciliables) de la dinámica cerebral, nos referiremos a ella con la dicotomía

especificidad-equipotencialidad, si bien, ha aparecido frecuentemente el término

especificidad con la denominación de localizacionismo de las funciones cerebrales y el de

equipotencialidad de la mente como plasticidad cerebral, lo cual también puede ser

expresado (Gardner 1975, 1985) como la ya clásica rivalidad elementarismo (atomista)

versus holismo (molar).

Los orígenes de esta problemática se remontan a Descartes, quien sostenía que

diferentes partes del cerebro controlan determinadas funciones del cuerpo, situando en

la glándula pineal el lugar de conexión entre el cuerpo y la mente. Juan Huarte, coetáneo

de Descates, sugirió en cambio que el cerebro actuaba de modo unitario, iniciándose las

primeras discrepancias en torno a la representación neural, entre una descripción

holística frente a otra localizacionista.

En los siglos XVIII y XIX, una serie de descubrimientos inclinaron la balanza a favor de un

mayor apoyo de las tesis localizacionistas. Entre ellos, cabe señalar la demostración de

Luigi Galvani de que al actuar una carga eléctrica sobre un músculo, provocaba su

contracción. De modo independiente, Charles Bell y Franíois Magendie evidenciaron la

separación anatómica de las funciones sensoriales y motoras en la médula espinal.

Posteriormente, Johanes Müller establecía la ley de las energías específicas. En este

ambiente de ideas, Francis J. Gall proponía su teoría localizacionista, en la que establecía

una frenología (cartografía cerebral) puntual, que llegó a creer que era posible

determinar el perfil intelectual de una persona mediante el examen de la forma peculiar

de su cráneo. El principal crítico de Gall fue Jean Marie Flourens, quien admitía cierta

frenología zonal, pero resaltaba el funcionamiento unitario del cerebro.

En la segunda mitad del siglo XIX, surgían nuevos argumentos a favor del

localizacionismo, resaltando los estudios de Paul Broca con pacientes afásicos y las

conclusiones de Karl Wernicke, quien atribuía las dificultades en la comprensión del

lenguaje a una lesión en el lóbulo temporal izquierdo.

Ya en el siglo XX, como contrapeso, las críticas de Jean Marie y sus seguidores (holistas:

Goldstein, Head, etc.) al localizacionismo avalaban una concepción del cerebro como

órgano integrado y unitario, capaz de un alto grado de plasticidad, en cuanto sostenían

Page 105: Aznar Alternativas Teoricas en Percepcion Raic

105

que las áreas cerebrales no lesionadas y que la pérdida de pensamiento abstracto u otras

funciones era una consecuencia del tamaño de la lesión (masa cerebral afectada) y no del

lugar de la lesión. H. Jackson, en 1932, afirmó que el hecho de localizar los síntomas no

implicaba la localización de la función.

Las repercusiones del contrapunto holístico al atomismo localizacionista reavivaron

nuevamente la polémica teórica entre partidarios de especificidad-plasticidad. Durante la

primera mitad del siglo XX, el prestigioso neuropsicólogo norteamericano Karl Lashley,

utilizando la técnica neurocirujana de ablación (destrucción de zonas específicas de la

corteza cerebral) investigó en animales, largo tiempo, las bases neurales específicas de

determinadas conductas y sus conclusiones le condujeron a poner en tela de juicio la

creencia de que determinadas conductas poseen una ubicación cerebral. A partir de

entonces, dedicó sus esfuerzos en la elaboración de una alternativa teórica a la teoría

localizacionista, acorde con los hallazgos neurofisiológicos. Aceptó los principios de la

psicología de la Gestalt, respecto a la organización perceptual en totalidades y desarrolló

determinados conceptos como el de "equipotencialidad" (capacidad de cualquier parte

de una zona funcional para realizar una determinada conducta), fundamentada en la "ley

de acción masiva" (la eficiencia de una función es inversamente proporcional a la

magnitud de la lesión); también postuló la propiedad de la "plasticidad" (potencial de las

restantes zonas del sistema nervioso para asumir las funciones de las zonas lesionadas).

Tras mucho tiempo de adhesión incondicional, desechó el modelo imperante del "arco

reflejo" (relación de desencadenamiento entre un estímulo específico y su respuesta) o

paradigma E-R. En definitiva, Lashley contribuyó en gran parte a la crisis del paradigma

conductista y, junto a D.O. Hebb que a continuación veremos, preparó el terreno para el

advenimiento del paradigma cognitivista, en el que se enclavan tanto la Psicología

cognitiva y Ciencia cognitiva como la Neurociencia cognitiva.

10.3. LA SINTESIS INTEGRADORA DE D.O. HEBB: UNA TEORIA NEUROFISIOLOGICA DE

LA PERCEPCION

Page 106: Aznar Alternativas Teoricas en Percepcion Raic

106

En su libro monográfico "The Organization of Behavior", Donald O. Hebb (1949)

combinó con bastante acierto la concepción atomista-localizacionista y la holista; quizá,

desfavoreciendo más a la perspectiva Gestáltica.

A pesar de haber elaborado una teoría neurofisiológica de la percepción, Hebb acentuó

el aspecto psicológico e intentó distinguir lo que es innato (racionalismo) de lo aprendido

(asociacionismo). Partió de considerar las cualidades perceptuales disponibles en una

persona adulta a quien se le dotara de visión por vez primera. Hebb concebía esta

primera experiencia visual como un caos sensorial, que denomina "unidad primitiva",

solamente capaz de discriminar las figuras sobre un fondo, ésta sería la única capacidad

perceptiva innata. A través de repetidas experiencias visuales, paulatinamente, iría

adquiriendo el sujeto dos nuevas cualidades perceptuales: la "unidad no sensorial"

(aspecto no aprendidos de la percepción y no propios del estímulo) y la "identidad

objetual" (capacidad de reconocer que un objeto ha sido experimentado anteriormente).

La explicación de Hebb acerca de la estructura y funcionamiento neurofisiológico

subyacente a los fenómenos perceptivos se fundamenta en una descripción plausible del

desarrollo y de los cambios sinápticos interneuronales. La unidad primitiva se basa, según

Hebb, en una descarga sináptica determinada exclusivamente por la naturaleza del

estímulo y la estructura innata del sistema nervioso. Mediante experiencias sucesivas los

cambios tendrían lugar en los umbrales sinápticos, perdiéndose algunas unidades

originales y adquiriéndose otras nuevas hasta formar una nueva organización neuronal

denominada "asamblea celular". Si los objetos, situaciones o acontecimientos se

presentan consistentemente en la misma sucesión en repetidas ocasiones, la activación

secuencial de las correspondientes asambleas de células se conectarían en una

organización de orden superior a la que llama "secuencia de fase". Esta es la que

permitiría el reconocimiento y la identificación de objetos, hallándose menos localizadas

que las asambleas neuronales y siendo posible, en estas secuencias de fase, cierto grado

de equipotencialidad (vías alternativas).

En sus incursiones en el terreno del desarrollo perceptual, Hebb consideró que en los

primeros años de vida el aprendizaje es más flexible y está dotado de mayor plasticidad

que en el estado adulto..

Page 107: Aznar Alternativas Teoricas en Percepcion Raic

107

Esta teoría de la percepción de base neurofisiológica, si bien implica cierto

reduccionismo, ha estimulado numerosos programas de investigación en neurofisiología

y en Ciencia cognitiva (simulación). De acuerdo con lo postulado con Hebb, estos

modelos avanzarían desde un holismo inicial hacia una localización definida.

10.4. ANALIZADORES DE CARACTERISTICAS

El pionero en la utilización del término `analizador de características' fue N.S.

Sutherland en 1957, partió del supuesto de que si un animal es capaz de discriminar

entre dos estímulos, es porque debe poseer algún mecanismo que reaccione

diferencialmente a ambos; en consecuencia, propone una teoría de análisis de

características. Según esta, el aprendizaje discriminativo consiste en asociar respuestas

adecuadas a los productos de los analizadores correctos. Realizó sus investigaciones

trabajando con pulpos sobre la discriminación de la horizontalidad y la verticalidad,

comprobó que los octópodos no discernían los trazos inclinados, infiriendo que carecen

de los analizadores apropiados.

Desde finales de los años 50 y durante las dos décadas siguientes, dos jóvenes

neurofisiólogos estadounidenses, David Hubel y Torsten Wiesel, utilizando la técnica de

implantación de microelectrodos en determinadas neuronas aisladas del cortex cerebral

del gato y otros animales, registraron los impulsos nerviosos generados.

Las contribuciones teórico-prácticas de la obra investigadora de estos autores, primera

en su género, les valió la consecución del Premio Nobel de Medicina en 1981, compartido

con Sperry (autor que estudiaremos en el subapartado siguiente).

Este grupo de investigación (Hubel y Wiesel, 1959,1962 y 1979) aportó claridad sobre la

organización de la corteza cerebral visual. Esta se halla constituida por células simples

(que responden a propiedades tales como presencia-ausencia de iluminación,

orientación, etc.), células complejas (que responden a la orientación óptima de líneas o

de bandas luminosas, otras son neuronas binoculares) y células hipercomplejas (que

detectan ángulos, esquinas, etc.). También pusieron de manifiesto la transcendencia de

las experiencias tempranas en el desarrollo del sistema nervioso. En resumen,

demostraron que existen algunas preconexiones que permiten cierta capacidad

perceptual (innatismo), pero otras muchas resultan modificadas por el aprendizaje y la

Page 108: Aznar Alternativas Teoricas en Percepcion Raic

108

experiencia, sugiriendo la existencia de una organización columnar.

En un artículo de título tan provocador como "What de Frog's Eye Tells the Frog's

Brain?" (¿Que le cuenta el ojo de la rana al cerebro de la rana?) Lettvin, Maturana,

McCulloch y Pitts (1959) y, poco después, Maturana (1960),evidenciaron también que los

receptores del ojo de la rana muestran una elevada especificidad. Unos responden al

movimiento de pequeños estímulos redondeados (detectores de insectos), otras

neuronas son detectores de límites o bordes, algunas detectan una disminución en la

iluminación y, finalmente, hay también detectores que actúan en condiciones de

obscuridad.

Todas estas líneas de investigación constituyeron un irrefutable apoyo para las tesis

localizacionistas y de la especificidad del sistema nervioso.

10.5. DIFERENCIAS INTERHEMISFERICAS

Desde una perspectiva algo más molar, la antigua polémica localizacionismo-holismo

fue de nuevo integrada de modo reconciliable, demostrándose una vez más que ambas

posturas contienen parte de razón y no son excluyentes.

A principios de los años 60, un grupo de investigadores del Instituto de Tecnología de

California encabezados por Roger Sperry (Sperry, 1974, Gazzaniga, 1981, 1983)

practicaron una comisurotomía (sección del Cuerpo Calloso) a pacientes afectos de

epilepsia grave, esta operación irreversible dejaba los dos hemisferios cerebrales

desconectados. Sperry y sus colaboradores diseñaron numerosas pruebas con

presentación separada para cada hemisferio y observaron el comportamiento de los

sujetos con el objetivo de determinar las diferencias interhemisféricas. El resultado de las

cuales indicaba que el hemisferio izquierdo se halla especializado en aspectos

relacionados con el lenguaje y la capacidad conceptual-clasificatoria, operando de modo

analítico ; mientras que, el hemisferio derecho se halla especializado en aspectos

espaciales, posee mayor habilidad visual y musical, operando de manera más holística o

globalista. En relación con el desarrollo, también observaron que, a menor edad,

correspondía un grado mayor de equipotencialidad de las funciones de sendos

Page 109: Aznar Alternativas Teoricas en Percepcion Raic

109

hemisferios (más plasticidad) y, a mayor edad, correspondía un mayor nivel de

lateralización funcional. Resultaban de especial interés para la Neurociencia cognitiva,

tanto las pruebas de especialización interhemisférica como la metodología de trabajo y,

en particular, las técnicas de registro y análisis de datos.

También en la URSS se ha mantenido una tradición neurofisiológica importantísima,

cuyas aportaciones contribuyen a dilucidar lo que parece más evidente, cuanto más se

investiga, esto es, que en el cerebro existe cierto grado de especialización

topográficamente determinada; no obstante, disponemos de abundantes argumentos

que avalan la plasticidad del sistema nervioso y, de manera particular, en las fases

tempranas del desarrollo.

La labor investigadora de Alexander Luria (1966) y colaboradores puso de manifiesto

que en un determinado comportamiento intervienen varias áreas anatomofisilógicas,

haciendo cada una de éstas una peculiar aportación insustituible. Sin embargo, resulta

una simplificación excesiva de la realidad el sostener, en la actualidad, que cada

hemisferio se ha especializado en determinadas funciones, cediendo el paso a una

concepción más elaborada, la cual entiende que cada hemisferio o área hemisférica

aporta un modo de procesamiento característico para la ejecución de una determinada

tarea, de modo que, sin duda, debe existir una interacción dinámica entre áreas y

hemisferios.

10.6. LA ANALOGIA DEL HOLOGRAMA DE PRIBRAM

Aunque a partir de las técnicas precisas y eficaces que permitieron las demostraciones

de Hubel y Wiesel, mediante la implantación de microelectrodos, parecía más defendible

la concepción localizacionista que la holística, el debate continúa abierto. La atractiva

hipótesis de la codificación holográfica formulada por Pribram (1971) representa un claro

exponente de la fuerza actual de la concepción holista.

Una holografía puede considerarse como una fotografía tridimensional, que proyecta la

imagen contenida en un holograma (placa o película) en el espacio. El holograma permite

almacenar gran cantidad de información en poco espacio, ya que las ondas luminosas

Page 110: Aznar Alternativas Teoricas en Percepcion Raic

110

procedentes de todas las partes de la imagen primitiva quedan registradas en él. Por

consiguiente, cada porción del holograma permite reproducir la imagen total.

Según la concepción holográfica de la mente de Pribram, todas las áreas cerebrales

pueden intervenir en cualquier representación, si bien algunas áreas dominan mejor

determinadas funciones. Entre las propiedades que posee el holograma y por analogía,

en esta hipótesis, el cerebro, destaca la posibilidad de superponer un cúmulo de

hologramas y reproducirlas una a una, sin que se interfieran.

El objetivo de Pribram era mostrar que el sistema nervioso no es un mero conjunto de

modalidades específicas de procesamiento, sino que existe la posibilidad de que ciertas

formas valiosas de conocimiento se hallen extensamente difundidas por el cerebro.

10.7. METODOS DE REGISTRO ELECTROFISIOLOGICO

Desde finales de los 70 y durante los años 80, se fue consolidando una nueva alternativa

metodológica, cuya meta final consiste en describir, explicar y comprender los procesos

cognitivos que tienen lugar en el cerebro, autodenominándose Neurociencia Cognitiva.

La metodología más ampliamente utilizada por este enfoque, se fundamenta en registrar

y analizar la actividad electrocortical que tiene lugar durante la ejecución de

determinadas tareas cognitivas, como un medio que permite acceder internamente a los

procesos que subyacen a dicha actividad.

Ciertamente, algunos investigadores observaron la presencia de unos pequeños

potenciales eléctricos cerebrales en el cuero cabelludo, los cuales, señalan Hillyard y

Kutas, (1983), se elicitaban al intervenir sistemas sensoriales (tareas perceptivas), de

almacenamiento de información (tareas mnemónicas), de actividad muscular (tareas

motrices), etc. Estos indicadores psicofisiológicos recibieron el nombre de "potenciales

relacionados con eventos" (Event Related Potentials) y son conocidos frecuentemente

con la designación de PEs (Potenciales Evocados). A partir de estas observaciones la

investigación se dirigió a identificar ciertos componentes en las ondas cerebrales que

reflejasen las etapas del flujo del procesamiento de información, a saber, codificación,

recuperación, decisión, ejecución motriz, etc., recurriendo a los paradigmas

Page 111: Aznar Alternativas Teoricas en Percepcion Raic

111

experimentales ampliamente difundidos desde la psicología cognitivista. El creciente

interés que surgió por estas medidas electrofisiológicas de la actividad cerebral, se

concretó en el estudio de las relaciones entre los componentes endógenos de los PEs y

los procesos que subyacen a la ejecución de tareas cognitivas (Galambos, R. y Hillyard,

S.A, 1981; Donchin, E., 1982).

Los PEs han sido descritos (Hillyard y Kutas, 1983) como "patrones de actividad

neuronal asociados con determinadas transacciones de información que tienen lugar en

el cerebro". También, como una serie de componentes de polaridad positiva o negativa

que tienen lugar durante determinados momentos temporales y cuya duración puede

oscilar en un rango inferior a centenares de msg. (milisegundos).

La clasificación de los PEs se ha establecido en función de la modalidad sensorial que los

elicita, sobresaliendo tres tipos principales de PEs: visuales, auditivos y

somatosensoriales. En la práctica se hace uso del término "componente" de un particular

PE para referirse a un subsegmento de éste que se pone de manifiesto, a modo de

fluctuaciones de la actividad eléctrica cerebral. Así Donchin et al. (1978) lo definen como

un subsegmento del PE cuya actividad representa un agregado neuronal funcionalmente

distinto.

Entre las numerosas clasificaciones existentes de los componentes, la que goza de una

más amplia aceptación es la propuesta por Sutton et al. (1965), la cual subdivide en dos

tipos a los componentes, de modo práctico para la investigación:

a) Componentes exógenos: reflejan la actividad de los surcos periféricos sensoriales y

hacen su aparición en torno a los 80 msg. tras la exposición del estímulo. La principal

propiedad que manifiestan es su invariancia ante las modificaciones de las demandas de

la tarea; sin embargo, varían cuando se produce algún cambio en alguna magnitud del

estímulo (naturaleza física del estímulo). Por consiguiente, resultan elicitados por eventos

extrínsecos al sistema nervioso.

Merced a su invariancia, han sido frecuentemente utilizados como instrumento

diagnóstico, que permite detectar patologías neurológicas cuando se hallan ausentes o

distorsionados, puesto que se ha comprobado su presencia incluso cuando las personas

están dormidas.

Page 112: Aznar Alternativas Teoricas en Percepcion Raic

112

b) Componentes endógenos: contrariamente a los anteriores, su variabilidad en cuanto

a latencias, amplitud de la onda y distribución en el cuero cabelludo, apenas depende de

la naturaleza física del estímulo, pudiendo a veces presentarse incluso sin la presencia del

estímulo. Sin embargo, la variabilidad de estos componentes parece motivada por las

demandas de la tarea (eventos intrínsecos al sistema nervioso), por lo que se vinculan

con los procesos cognitivos que desencadenan.

Numerosos investigaciones han mostrado evidencias a favor de la conexión de los

componentes endógenos con factores tales como experiencia anterior, intencionalidad,

criterio de decisión, etc.

Debido a su sensibilidad a las demandas de la tarea, permiten verificar si un grupo de

tareas comparten, o no, unos mismos procesos subyacentes a su ejecución.

La nomenclatura habitual, propuesta para designar los diferentes componentes

endógenos o exógenos que se han detectado hasta la fecha, consiste en denominar el

componente mediante una letra (P ó N, según la polaridad sea positiva o negativa),

seguida de un número que expresa la latencia típica del componente en msg. Así, son

ejemplos de componentes que han alcanzado cierta importancia: N100, N200, N400,

P200, P300, etc. No obstante, algunos componentes relevantes han conservado la

denominación original dada por sus descubridores, por ejemplo: SW (Slow Wave u onda

lenta), RP (Readiness Potential) y la VCN (Variación Contingente Negativa).

Desde el punto de vista de la neurociencia cognitiva, los esfuerzos investigadores se han

diversificado en dos direcciones:

1) Identificar los componentes endógenos de los PEs asociados a un determinado

proceso cognitivo, independientemente de la modalidad sensorial que requiere la tarea.

2) Determinar las características de los componentes endógenos de los PEs, que se

relacionan con los diversos procesos cognitivos.

Si bien en la actualidad han sido identificados numerosos componentes endógenos, los

programas de investigación ofrecen un abundante número de ellos, que deberían ser

caracterizados en futuros experimentos. Debido a la gran cantidad de componentes

endógenos descubiertos hasta la fecha, a continuación, describiremos brevemente los

mas relevantes, desde el punto de vista de la percepción.

Page 113: Aznar Alternativas Teoricas en Percepcion Raic

113

* La variación contingente negativa (VCN), se caracteriza por un cambio lento del

potencial negativo que tiene lugar al asociarse (contingencia) dos estímulos sucesivos.

Aparece, aproximadamente, en torno a los 400 msg. de la presentación del estímulo de

prueba o demandante de la respuesta. La amplitud de la onda tiene un valor típico de 17

µV (microvoltios). Su distribución topográfica en el cuero cabelludo es, generalmente,

frontal si el estímulo se presenta auditivamente y más pariental y pariento-ocipital en

presentación visual (Simson et al. 1977).

Los paradigmas experimentales que elicitan la VCN son los que presentan un primer

estímulo anticipatorio, seguido de un estímulo de de prueba, con el que se solicita al

sujeto que emita, lo más rápidamente que sea capaz, una respuesta motriz (por ejem., un

juicio de comparación perceptiva), registrándose el TR (tiempo de reacción) del sujeto o

latencia de respuesta. Las V.I. (variables independientes) manipuladas por el

experimentador suelen ser las relacionadas con la complejidad de la tarea, habiéndose

observado que las tareas complejas dan lugar a VCNs inferiores que las tareas sencillas

(Curry, 1980). La relación, puesta de manifiesto en las investigaciones, entre la amplitud

de la VCN y la dificultad de la tarea ha sido interpretada por Näätänen et al. (1977) como

un reflejo de la intervención de un relevante proceso cognitivo, la atención selectiva,

cuyo nivel de activación fluctúa ante distintas tareas.

* El componente endógeno P300, detectado por Sutton y colaboradores en 1965, se

caracteriza por ser un potencial positivo con una latencia cuyo valor típico es de 300

msg., una amplitud de onda media de 7 µV y una localización preferente en las zonas

parientales.

Los paradigmas experimentales que elicitan la aparición de la P300 son aquellos que

manipulan el tipo de tarea (relevante e irrelevante) y en los que el sujeto no puede

anticipar la aparición del estímulo relevante (ausencia de expectativas o sorpresividad).

Los procesos cognitivos vinculados a la aparición del P300, propuestos por Johnson

(1986) en su "Modelo Triárquico" de la amplitud del P300, son: la probabilidad subjetiva

de aparición del estímulo, el significado del estímulo en su contexto y la eficacia lograda

en la transmisión de la información del estímulo.

* El componente N100, considerado fronterizo entre los componentes endógenos y

Page 114: Aznar Alternativas Teoricas en Percepcion Raic

114

exógenos, característica que lo hace sensible a los cambios en las propiedades físicas de

los estímulos, particularmente, en la modalidad visual o auditiva.

Los paradigmas experimentales que lo elicitan son los que utilizan tareas atencionales y

entre las variables manipuladas destaca el incremento-decremento de la intensidad

fótica, que al parecer influye en la amplitud de la N100.

* El componente endógeno N200, se desencadena, bien mediante la presentación

periódica de un estímulo, o bien cuando el estímulo es omitido periódicamente. La

localización topográfica en el cuero cabelludo varía según la modalidad sensorial sea

visual o auditiva. Algunas investigaciones han sugerido que la N200 es provocada por

procesos de discriminación perceptual que demandan recursos atencionales.

Page 115: Aznar Alternativas Teoricas en Percepcion Raic

115

Capítulo XI La perspectiva ecológica en percepción

"La observación es mil veces más difícil; el error es, quizá, condición de la observación en general".(F. Nietzsche, s. XIX)

11.1. INTRODUCCION

La psicología cognitiva cuenta con una corta aunque intensa historia, no exenta de crisis

en cuanto a algunas concepciones se refiere, las cuales no afectaron al paradigma básico

(E-O-R). Así, a partir de los años 70 hay un progresivo abandono de la concepción serial

del procesamiento, habiendo sido propuestas soluciones altenativas tales como la

concepción constructivista, en la que interactúan funcionalmente los datos

informacionales externos con los internos que posee el propio sistema, por ejemplo,

Neisser (1976). También han sido propuestos sistemas de procesamiento paralelo

masivo, en el que las funciones se ejecutan de manera distribuida, por ejemplo,

Rumelhart y McClelland (1986).

Una de estas crisis hace referencia al caótico panorama teórico, disgregado y confuso,

en el que diferentes concepciones permiten explicar los distintos fenómenos, fruto de

haber generado modelos explicativos derivados del análisis de la ejecución de tareas en

términos de procesamiento de información. Ello tuvo como consecuencia un paulatino

alejamiento de la investigación de los contextos naturales, cediendo el paso a unas tareas

bien controladas en el laboratorio, pero distantes de las situaciones de la vida diaria.

Como contrapartida, en el propio seno de la psicología cognitiva surgió un movimiento de

reacción que proponía un retorno al estudio de los ambientes cotidianos, que pretendía

esclarecer cómo se comportan las personas en ellos, en vez de las artificiosas (aunque

bien controladas) tareas realizadas por los sujetos en el laboratorio. Progresivamente, fue

adquiriendo valor el concepto de "validez ecológica", que propone el retorno al estudio

del comportamiento en situaciones naturales, a través de una metodología

Page 116: Aznar Alternativas Teoricas en Percepcion Raic

116

observacional.

Este enfoque ecologista supuso para la psicología ciertos cambios en las condiciones

experimentales; así, en el campo de la memoria se abandonaba el recuerdo de listas o

pares asociados para ocuparse de la memoria de prosa, anticipada por Bartlett (1932). En

el terreno de la percepción, se enfatizaba la información ambiental susceptible de ser

registrada por los órganos sensoriales; la utilización de estímulos más cercanos a la

realidad social o ambiental (escena, fotografías, dibujos, etc.), en vez de estímulos

geométricos; etc.

En este marco conceptual, revisaremos la obra de dos relevantes autores que, en

diferente modo y con diferente énfasis, adoptaron la alternativa naturalista que

denominaremos perspectiva ecológica de la percepción. Se trata de J.J. Gibson (1950,

1966, y 1967) y U. Neisser (1967, 1976, 1982 y 1984), los cuales han tratado de investigar

la percepción del 'mundo real' desde diferentes concepciones teóricas, pero con el

denominador común de apartarse de las artificiales condiciones del laboratorio.

11.2. OPTICA ECOLOGICA: TEORIA DE LA PERCEPCION DIRECTA

J.J. Gibson denomina a su enfoque "óptica ecológica", diferenciándolo de otras ramas

existentes para el estudio de la visión, tales como la óptica física, la óptica geométrica y la

óptica fisiológica. La óptica ecológica de Gibson considera que la luz contiene información

relevante para el ojo y que la información lumínica es independiente del ojo percipiente,

en cuanto considera la luz como "un fluyente mar de energía" (Gibson, 1959).

Posteriormente, en su obra "The senses Considered as Perceptual Systems" (1966),

sustituyó esta expresión por la de "un denso sistema de rayos interrelacionados",

recurriendo al concepto poco realista de 'rayo', término que debería aludir, en sentido

estricto, a los 'haces fotónicos'. Señala Gibson que el problema fundamental al que se

enfrenta el sistema visual es el de poder extraer información con sentido de la compleja

distribución de la luz, a la que designa con el término de 'orden óptico', cuestión a la que

responde que este orden óptico contiene ya la información ambiental necesaria para la

Page 117: Aznar Alternativas Teoricas en Percepcion Raic

117

visión en un punto de convergencia estacionario:

"Sostengo que la percepción visual no se basa en tener sensaciones, sino en la

atención a la información de la luz. La esencia de la óptica ecológica es la

demostración de que hay información en la luz ambiental" (Gibson, 1974, pag. 335).

Desde el punto de vista del desarrollo perceptivo, Gibson admite que, por parte del

organismo, existen límites en cuanto a la cantidad de información que puede registrar,

restricciones que pueden venir dadas por las características peculiares de la atención y/o

por el nivel de maduración y experiencias previas. Las capacidades perceptivas

evolucionan a través de un "aprendizaje perceptual" desde la indiferenciación objetual

hasta una elevada precisión en la diferenciación, aprendiéndose la detección de

propiedades, patrones y detalles distintivos. Considera que, en este aprendizaje,

intervienen tres mecanismos básicos que operan conjuntamente y de forma

interactuante, que se encargan de:

a) Abstraer las propiedades diferenciales del estímulo.

b) Filtrar las propiedades no pertinentes del estímulo, y

c) Atender selectivamente a las propiedades del estímulo, en función de la actividad

exploratoria de los órganos sensoriales.

Según Gibson (1967), los órganos sensoriales han sido específicamente diseñados para

captar la información ambiental, resultando innecesario postular ningún otro mecanismo

ni proceso, tal como las 'inferencias inconscientes' de Helmholtz, esquemas de

conocimiento, etc. Así, registramos la profundidad (tridimensionalidad) directamente en

la mirada, sin inferir distancias, sin correlacionar datos sensoriales oculo-manuales,

incluso sin claves binoculares, como se demuestra en los experimentos que hacen uso del

'abismo visual' (Gibson y Walk, 1960).

Esta teoría radical de la percepción directa parece, a primera vista, próxima a la

concepción filosófica del realismo ingenuo; sin embargo, Gibson demostró

experimentalmente que para la discriminación de la profundidad es suficiente con la

información óptica que nos proporcionan determinadas claves del estímulo. En este

sentido, se ocupó en determinar estas 'pistas' ambientales, evidenciando que, una de las

más importantes es el "gradiente de la densidad de textura", el cual nos revela la

Page 118: Aznar Alternativas Teoricas en Percepcion Raic

118

información relativa a la tercera dimensión. En la figura 1 puede observarse cómo las

líneas que están próximas sugieren lejanía, en tanto que, las más separadas parecen

estar más cerca del observador.

En la figura 2 puede apreciarse como el grosor (o la intensidad de las líneas) también

nos permite estimar la profundidad, ya que, los trazos más gruesos parecen hallarse más

cercanos que los trazos más finos.

También la nitidez de los contornos o el hecho de hallarse más desdibujados nos

proporciona claves para interpretar la distancia de los objetos.

Además, Gibson puso de relieve la importante contribución de los movimientos

corporales y movimientos oculares a la percepción de la profundidad, es decir, este autor

fundamenta la visión de la tridimensionalidad en los mismos recursos que se utilizan para

la visión de dibujos bidimensionales en el plano, señalando la existencia de relaciones

ordenadas entre la proyección de la imagen retiniana y la orientación del dibujo, respecto

Page 119: Aznar Alternativas Teoricas en Percepcion Raic

119

al punto de vista del observador. De manera que, si el sujeto observa el estímulo (escena,

fotografía, dibujo, etc.) situado perpendicularmente a él, se proyectan en la retina

texturas uniformes; mientras que, cuando se sitúa en un plano oblicuo respecto al

estímulo, se forman imágenes que presentan texturas de diferente grado de densidad,

siendo el gradiente de densidad de textura el correlato de la perspectiva tridimensional.

Según este concepto del gradiente de textura, percibimos constelaciones de superficies

y bordes, éstos últimos quedan determinados por cambios bruscos de los gradientes de

textura y los ángulos o esquinas por 'remolinos' en los que se extienden los gradientes.

Para Gibson, las percepciones no son copias o réplicas de los objetos del mundo exterior,

sino patrones de variación que se hallan correlacionados con el mundo externo.

Al realizar un detallado análisis del medio ambiente, introdujo un concepto nuclear en

su obra, el de "facilitadores", esto es, potencialidades para la acción, que se hallan

presentes en un objeto o escena (por ejemplo, las personas cogen objetos que facilitan

su asimiento, o ingieren objetos que facilitan el comerlos, etc.). Este concepto de

facilitación permite evaluar la eficacia de un organismo en su entorno y determina el

significado de los objetos, entendiendo el significado en términos de las facilitaciones que

ofrece al organismo.

A pesar de parecer esta teoría una concepción simplista de la percepción, señala

Gardner (1985) que hay, como mínimo, tres poderosas razones para tomarla en serio:

1) Contribuyó a esclarecer numerosos fenómenos perceptivos y puso de relieve la gran

cantidad de información que se halla disponible en el estímulo.

2) La coherente interrelación conceptual que desarrolla.

3) La simplicidad (principio de parsimonia) de la teoría, la cual permite prescindir de

mecanismos y representaciones en el cerebro, apelando a una descripción realista

directa, según la cual, simplemente, el ambiente contiene toda la información necesaria.

Como respuesta a esta concepción radical de la percepción, los psicólogos cognitivistas

de casi todas las tendencias descargaron sus críticas contra ella, especialmente, las

fundamentadas en la tesis de que la existencia de una abundante y variada información

en el medio, no excluye la influencia de los conocimientos del individuo en la percepción.

Según Marr (1982), la teoría de Gibson minimizó la dificultad de la detección de los

Page 120: Aznar Alternativas Teoricas en Percepcion Raic

120

elementos invariantes del ambiente, los cuales deben ser abordados mediante

procesamiento de información; ya que, quedaba sin explicar como tiene lugar la

captación directa de información.

Algunos autores (Fodor, 1980; Fodor y Pylyshyn, 1981), dirigieron sus críticas hacia el

blanco de los "facilitadores", en este sentido sostienen que no basta con percibir

directamente que una propiedad del objeto facilita una utilización del mismo, sino que es

preciso demostrar si es posible captar esa propiedad sin inferencias. Los seguidores de la

escuela ecológica de Gibson se defendieron argumentando que el objetivo de la óptica

ecológica es el descubrimiento de las leyes que regulan la relación organismo-medio y, de

ningún modo, la búsqueda de leyes cognitivas que determinan los procesos realizados

con las representaciones mentales.

11.3. LA TEORIA CONSTRUCTIVISTA DE U. NEISSER

Los desarrollos teóricos de Ulric Neisser (1967, 1976, 1982, 1984) son consecuencia de

una evolución conceptual-metodológica que discurre paralela a la historia de la psicología

cognitiva en general y, en particular, al campo de los fenómenos perceptivos, en los que

confluyen aspectos cognitivos y realidad.

Neisser obtuvo su doctorado en la Universidad de Harvard en 1956, en la que comenzó

su carrera docente e investigadora, al poco tiempo, se inscribió en el proyecto MAC

(Machine Aided Cognition) del M.I.T., publicando sus primeros trabajos en el campo de la

IA (Neisser, 1960, 1963) y desarrollando el paradigma experimental de 'búsqueda visual'

(visual scanning task). Allá por 1965 comienza a escribir lo que sería una obra

programática y en la que da unidad a las variadas investigaciones realizadas desde el

cognitivismo, contribuyendo a la consolidación del paradigma cognitivista. Esta obra de

síntesis sería publicada en 1967 con el título de 'Cognitive Psychology', otorgándole un

estatuto de autonomía a la joven disciplina y centrándose en los fenómenos de

percepción, atención, lenguaje y memoria. Progresivamente, Neisser fue

decepcionándose de los derroteros por los que avanzaba la psicología cognitiva desde el

procesamiento de información y fruto de tal desencanto es un ensayo que aparecerá en

Page 121: Aznar Alternativas Teoricas en Percepcion Raic

121

1976: 'Cognition and Reality: Principles and Implications of Cognitive Psychology'. En este

periodo, que conduce a Neisser a una concepción pesimista de la psicología cognitiva,

influyó sus años de colaboración con Gibson, los cuales le permitieron aproximarse a la

perspectiva ecologista, denunciando los riesgos de un abuso de artificialidad en el

laboratorio de investigaciones, si bien la postura de Neisser es más moderada en relación

con el radicalismo de Gibson.

Por consiguiente, en la trayectoria personal d U.Neisser se diferencian tres etapas

claras: 1) Entusiasta de la IA, 2) Optimismo por la psicología cognitiva, y 3) Desencanto de

los logros de la investigación cognitiva y necesidad de nuevos planteamientos

alternativos.

En su etapa de sistematización de las dispersas investigaciones en el campo de los

fenómenos perceptivos, fue el primer autor en denominar a la memoria visual

transitoria, puesta de manifiesto por Sperling (1960) y corroborada por Averbach y Coriell

(1961), con el término de "memoria icónica" y reservando el de "memoria ecóica" a su

homóloga del sistema auditivo. Sin embargo, en etapas posteriores, el propio Neisser

cuestionará la validez ecológica de los experimentos sobre memoria icónica y ecóica, por

hallarse alejados de la aplicabilidad en la vida ordinaria y, por tanto, trivial para los

participantes en el experimento y de escasa relevancia para explicar la opinión cotidiana.

Respecto al enmascaramiento icónico, evidenciado por Averbach y Sperling (1961), que

puede ser provocado, por ejemplo, por una luz muy intensa que sigue o precede a la

presentación del estímulo (enmascaramiento retroactivo o proactivo, respectivamente),

Neisser (1967) ofreció una interpretación en términos de procesamiento de información,

según la cual, al ser expuestos estímulo y centelleo luminoso en rápida sucesión, se

produce una integración, en la que el estímulo resulta enmascarado (difuminado) debido

al bajo nivel de resolución temporal del procesador humano.

En el terreno del reconocimiento de pautas (formas o patrones visuales), postula la

existencia de alguna jerarquía de analizadores de características, que implica un

procesamiento en paralelo, distinguiendo en el procesamiento perceptivo dos fases

complementarias (Neisser, 1967). En primer lugar opera una fase analítica que

corresponde a dicha codificación simultánea de los rasgos o dimensiones básicas del

Page 122: Aznar Alternativas Teoricas en Percepcion Raic

122

input sensorial y que tiene lugar automáticamente. Estos análisis preatencionales,

globales y totalistas, sirven posteriormente para guiar o dirigir la atención hacia los

productos resultantes de esta fase preliminar, al tiempo que controlan los movimientos

corporales y oculares. Después de esta fase, supone un segundo nivel de análisis que

opera sobre los objetos segregados por la primera fase (segmentación) y que tienen lugar

según un procesamiento secuencial (uno tras otro), a la que denomina fase sintética. El

fenómeno perceptivo finaliza cuando se integran los rasgos básicos produciendo una

configuración significativa asimilable a los 'objetos', lo cual requiere atención controlada.

Para explicar su concepción del enfoque atencional, recurre a la metáfora del

'paleontólogo', quien a partir de escasos restos (huesos) examinándolos minuciosamente

es capaz de reconstruir el 'dinosaurio'. Define la atención focal como la localización de los

recursos cognitivos en una parte del campo visual, aumentando así la claridad y precisión

para efectuar actos constructivos. Señala que, una vez sabemos como construir una

figura particular, podemos reconstruirla con, prácticamente, 'cualquier clase' de material,

o incluso sin ninguno, como en la imaginación.

La teoría de la percepción, de la visón y del lenguaje, propuesta en esta etapa de

Neisser (Neisser, 1967), fundamentada en el modelo de "análisis por síntesis", el cual

utiliza tanto los datos sensoriales de experiencias pasadas para generar las actuales,

como el contexto y las expectativas. Principalmente, se basa en el principio de

'verificación sucesiva de hipótesis' generadas internamente, pero guiadas por los datos y,

de acuerdo con Bruner (1957), las expectativas, la familiaridad y, tal vez, las preferencias

pueden servir para realizar la identificación mediante verificaciones confirmatorias.

Una década más tarde (Neisser, 1976) y decepcionado por la situación de confusión en

que se hallaba la psicología cognitiva, se propone tratar algunos aspectos anteriormente

abordados y que habían cobrado creciente interés. En esta etapa critica el haberse

circunscrito la investigación al laboratorio, ignorando las situaciones ordinarias de la vida

real y propone un retorno a situaciones naturales (perspectiva ecológica), además

considera necesario suponer que la percepción se halla dirigida por estructuras de

conocimientos pasados denominados esquemas. También, aporta su última y actual

concepción sobre la atención y la conciencia.

Page 123: Aznar Alternativas Teoricas en Percepcion Raic

123

Aquí, Neisser considera a la percepción la actividad cognitiva básica de la que deben

emerger todas las demás, es la zona de intersección entre cognición y realidad. Tampoco

requiere recuerdo, ya que en la percepción se actualizan el pasado inmediato y el pasado

remoto. Para él, los esquemas anticipatorios son los elementos esenciales para la visión,

los cuales hacen que algunos tipos de información encajen mejor que otros,

determinando, junto con la información exterior pertinente, lo percibido. Concibe la

percepción como un proceso de construcción de anticipaciones que sean susceptibles de

adecuarse a los datos informativos accesibles. Por consiguiente, la exploración visual es

dirigida por los esquemas anticipatorios y la información extraída del medio, como

consecuencia de tales exploraciones, se integra en dicho esquema modificándolo. A este

conjunto de relaciones lo denomina ciclo perceptivo, el cual le permite explicar la

percepción del significado, la posición espacial y la forma.

En palabras de Neisser "el esquema es precisamente una fase de una actividad continua

que relaciona al perceptor con su ambiente. El término percepción se aplica propiamente

al ciclo completo y no a cualquier parte separada de él" (Neisser, 1976, pag. 42, trad.

Page 124: Aznar Alternativas Teoricas en Percepcion Raic

124

cast.). El esquema puede contener información multimodal (visual, auditiva, háptica, etc.)

y coordina la actividad de varios sistemas sensoriales simultáneamente. Atribuye a los

esquemas una función determinante en la percepción, al sostener que "la percepción es

el resultado de la interacción del esquema y la información accesible. Más aún, es esa

interacción" (pag. 70), concretando más adelante que "la percepción es siempre una

interacción entre un objeto o evento particular y un esquema más general" (pag. 77). Y

en relación con el desarrollo perceptivo, afirma que la génesis del esquema tiene lugar de

lo general a lo particular, de la indiferenciación a la precisión.

Como apuntábamos antes, este autor está de acuerdo con la concepción de Bruner

(1951) y Gregory (1970, 1973), pero matizando que la percepción es, en sentido general,

un fenómeno de verificación de hipótesis. Sin embargo, a diferencia de Bruner, entiende

que la percepción no es simplemente la asignación de objetos a categorías, sino que

supone que el perceptor selecciona algunas de las múltiples propiedades del estímulo y

algún uso o significado potencial, según se adecúen específicamente ambas en el

esquema. Respecto a la atención, también niega la existencia de ningún mecanismo

particular, considerando que la atención es simplemente la percepción, al afirmar "

seleccionamos lo que deseamos ver anticipando la información estructurada que

proporciona" (pag. 96). Respecto a la consciencia, considera que es un aspecto de la

actividad mental y no una etapa del procesamiento que ejecuta un mecanismo

determinado.

Page 125: Aznar Alternativas Teoricas en Percepcion Raic

125

Capítulo XII: Taxonomía de las teorías de la percepción

"Admitiremos que la sensación o la percepción operan siempre en los estadios elementales de formación de los conocimientos; pero nunca operan solas y lo que se les añade resulta por lo menos tan importante como ellas en la elaboración citada"(J.Piaget, s. XX)

12.1. INTRODUCCION

Previo a cualquier intento categorizador es preciso conocer las características

inherentes al objeto a clasificar, ¿cuales de éstas son definitorias, prototípicas o más

relevantes y cuales secundarias, accesorias o marginales? Por ello, siguiendo a Irvin Rock

(1983), trataremos de resumir los aspectos generales que parecen caracterizar a la

percepción de objetos y eventos, esto es, naturaleza de los estímulos, carácter

fenomenológico del fenómeno, etc. Ulteriormente, agruparemos las teorías formuladas

sobre la temática perceptiva y que han aportado su propio punto de vista sobre estos

aspectos básicos, según hayan enfatizado en diverso grado las variables intervinientes en

los procesos perceptuales, es decir el medio estimular, el organismo y sus sistemas

perceptivos, o la interacción de ambos. De este modo resulta posible establecer una

taxonomía de tales teorías en dos grandes grupos:

-> Aquellas que consideran suficiente el especificar los atributos de los estímulos

relacionados con los diferentes aspectos de la percepción, las cuales pueden etiquetarse

como "teorías de estímulos".

-> Aquellas que consideran necesario postular procesos constructivos en el organismo

interactuante sobre los estímulos, a las que podemos designar como "teorías

constructivas". Ahora bien, dichas construcciones internas pueden ser de dos clases:

* Las que se fundamentan en las interacciones entre representaciones de estímulos, a

las que Rock (1983) denomina "teorías de la interacción espontánea".

* Las que se basan en la inferencia u otro proceso cognitivo similar, conocidas por el

epígrafe de "teorías cognitivas".

En este capítulo no se trataran otras aproximaciones teóricas de la percepción, tales

Page 126: Aznar Alternativas Teoricas en Percepcion Raic

126

como las "teorías neurofisiológicas", que postulan mecanismos detectores de rasgos, ni

las de procesamiento de información, ya que, en sentido estricto, no puede considerarse

una teoría de la percepción, sino más bien un procedimiento de investigación que

permite analizar los estadios de procesamiento de información que tienen lugar desde la

estimulación hasta que se produce la última cognición, decisión o acción. Por

consiguiente, este enfoque parece neutral desde el punto de vista teórico, sólo que

según el estadio analizado puede enfatizarse algún aspecto de las tres teorías básicas (el

estímulo, la interacción o la interpretación de las representaciones).

12.2. ASPECTOS QUE CARACTERIZAN LA PERCEPCION HUMANA

Todas las teorías perceptivas han pretendido validar su concepción apoyándose en

demostraciones de algunos aspectos propios de la percepción, desde un particular

enfoque. Como resultado de ello sucede que algunas teorías ofrecen explicaciones que

muestran mayor plausibilidad que sus rivales en la interpretación del fenómeno bajo

estudio. Sin embargo, es legítimo preguntarse qué aspectos han sido cruciales en la

elucidación de uno u otro punto de vista teórico. Nosotros, de acuerdo con Rock (1983),

seleccionaremos los siete aspectos que a continuación exponemos.

12.2.1. PREFERENCIA ANTE LA AMBIGÜEDAD

En cuanto a la ambigüedad se refiere, es preciso distinguir dos tipos diferenciados:

a) La que podríamos llamar ambigüedad dimensional, queriendo significar con ello que

el valor específico, a lo largo de una dimensión, no se puede determinar de manera

lógica, basándose únicamente en los rasgos del estímulo local, como ocurre cuando

diferentes objetos proyectan una misma imagen retiniana y tendemos a percibirlos con

un tamaño y forma definida para cada uno de estos objetos.

b) La que bien pudiera designarse como ambigüedad cualitativa, por referirse al

carácter cualitativo del precepto. En efecto, un mismo estímulo proximal puede

representar diferentes figuras, como por ejemplo ocurre en la figura ambigua de Rubin

Page 127: Aznar Alternativas Teoricas en Percepcion Raic

127

(copa o dos perfiles), el cubo de Necker, la escalera normal o invertida, el dibujo de

"viuda o soltera", calvo con gafas o rata, etc.[véase estas figuras en Ardila (1980)

pag.325]; sin embargo, de los dos o más posibles perceptos cualitativamente diferentes

que puedan surgir del estímulo, los observadores tienden a ver preferentemente uno de

ellos. El núcleo de la cuestión estriba en establecer las bases de tal preferencia, ya que,

incluso para un mismo observador, la figura fluctúa en un sentido o en otro

sucesivamente. En este caso decimos que la figura es reversible, aún cuando a veces se

trata de preferencias individuales o poblacionales.

Así pues, hay importantes factores a considerar acerca de la ambigüedad, entre los que

sobresalen:

- Que son posibles diferentes percepciones del mismo estímulo, pero, normalmente,

estas no ocurren (ambigüedad dimensional).

- Que sobre un mismo estímulo caben diferentes percepciones, pero una de ellas

tiende a ser la preferida (ambigüedad cualitativa)

Finalmente, que las percepciones de un observador pueden cambiar en el tiempo

(reversibilidad). La reversión, incluso puede ocurrir cuando la imagen es estable, como en

el caso de una postimagen, de modo que cambios sutiles de estimulación (por ejemplo,

cambio de la posición retinal), no son responsables del cambio perceptual.

12.2.2. CONSTANCIA Y VERACIDAD PERCEPTUAL

Otro aspecto bien establecido respecto a la percepción se refiere a la fuerte inclinación,

que muestran los observadores, hacia la constancia de propiedades del objeto, a pesar

de las variaciones o diferencias entre el estímulo proximal. Dicha variación de

estimulación puede atribuirse a varias causas:

- Al hecho de que, en la visión, la distancia y la orientación en la tercera dimensión

influya sobre la formación de la imagen, según los principios de la óptica.

- O bien, a que nuestro propio movimiento influya sobre la localización retiniana de

la imagen y su estabilidad.

- O, incluso, a que los cambios de iluminación modifiquen la brillantez de la superficie

Page 128: Aznar Alternativas Teoricas en Percepcion Raic

128

que incide sobre el ojo.

Si la percepción permanece constante y no refleja las variaciones del estímulo proximal

(imagen retiniana), puede suponerse que el estímulo distal correlaciona con el objeto

externo.

La constancia se relaciona estrechamente con la ambigüedad dimensional del estímulo,

ya que la ambigüedad implica que del mismo estímulo local pueden surgir varias

percepciones diferentes, mientras que la constancia se refiere al logro de la misma

percepción desde varios estímulos locales.

12.2.3. EFECTOS DEL CONTEXTO EN LA PERCEPCION

Numerosos ejemplos pueden ilustrar que la percepción es, en gran parte, una función

del contexto, del efecto de vecindad espacio-temporal del estímulo. Por ejemplo, en

exploración visual de escenas obtenidas mediante dibujos geométricos, un triángulo

equilátero puede ser interpretado como una 'montaña' en el contexto de un paisaje

terrestre, mientras que en el contexto de un paisaje marino puede significar la 'vela' de

un barco. También, las ilusiones geométricas demuestran este hecho.

12.2.4. ORGANIZACION O ESTRUCTURA PERCEPTIVA

El mundo perceptual, generalmente, se halla organizado, es decir tendemos a formar

figuras, unidades y agrupamientos. Sin embargo, el concepto 'organización' también

puede aludir a otro significado. Ciertamente, si una determinada forma o melodía es

concebida en términos de las partes que la componen, la organización de estas partes

originan una 'estructura' con propiedades emergentes. Así, la figura percibida, o la

melodía, es una cualidad que existe psicológicamente sólo en virtud de las relaciones

entre las partes, debiendo quedar claro que, en percepción, el todo es diferente de la

suma de las partes constitutivas.

Page 129: Aznar Alternativas Teoricas en Percepcion Raic

129

12.2.5. INTERACCION SENSORIO-COGNITIVA

Un punto objeto de abundantes discusiones en la psicología contemporánea hace

referencia al hecho innegable de que lo que percibimos, en ciertos aspectos, resulta

enriquecido por los contenidos mentales no presentes en el estímulo, sino que se hallan

almacenados en MLP y proceden de experiencias previas. Por ejemplo, la experiencia

fenoménica de familiaridad en el reconocimiento y la identificación (significatividad) es

una consecuencia de los anteriores encuentros con el estímulo.

Otra característica, relacionada con el enriquecimiento, pero que no se basa,

necesariamente, en la experiencia pasada es designada como "complección". En algunos

casos existe más información en el percepto que la que puede predecirse a partir del

estímulo, esto puede ser debido a que rellenamos la información ausente,

completándola. Ejemplos ilustrativos de dicha complección son las figuras de contornos

ilusorios (Kanizsa, 1974) o la percepción del movimiento aparente puesta de manifiesto

por Wertheimer en 1912.

12.2.6. PERCEPCION DEMORADA

En ocasiones transcurre un tiempo considerable antes de que emerja un percepto,

decimos que éste ha sido retardado o demorado. Por ejemplo, antes de que

concluyamos la reorganización de "figuras fragmentadas" (caras, objetos,etc.) y logremos

identificarlas, a menudo, tardamos cierto lapso temporal.

12.2.7. INTERDEPENDENCIAS PERCEPTUALES

A veces, el único modo de comprender un resultado perceptual tiene lugar mediante la

emergencia previa de otra percepción, no siendo el estímulo el factor causal inmediato.

Por ejemplo, el efecto ilusorio de movimiento de un objeto cuando, mediante un

estereoscopio, el estímulo es percibido primero como tridimensional, si previamente no

se ha experimentado esta percepción, no ocurre dicha ilusión paradójica.

Page 130: Aznar Alternativas Teoricas en Percepcion Raic

130

12.3. CLASIFICACION DE LAS TEORIAS DE LA PERCEPCION

Al establecer la distinción entre la percepción y otras formas de cognición, tales como la

imaginación, ensoñación o pensamiento, en base al hecho de que la percepción es la

representación mental de objetos externos y eventos, correspondientes de alguna

manera a la estimulación que incide sobre nuestros órganos sensoriales, considera I. Rock

(1983) que sólo un limitado número de teorías (tres) pueden explicar la percepción,

clasificando éstas en dos grupos diferentes:

a) Teorías del estímulo.

b) Teorías constructivistas:

b.1) Teorías de la interacción espontánea.

b.2) Teorías cognitivas.

12.3.1. TEORIAS DEL ESTIMULO

Estas teorías parten de la idea básica de que para cada clase distinta de propiedad

perceptual (color, tamaño, profundidad, movimiento, etc.) hay un único estímulo (o tipo

de información del estímulo ) que incide sobre uno o varios órganos sensoriales.

Desde este punto de vista, la explicación consiste en determinar la correlación entre el

estímulo y el percepto, o incluso describir los procesos sensoriales que traducen el

estímulo físico, el cual es codificado neuralmente y transmitido hasta las profundidades

del cerebro. Por esta razón, resulta apropiado subsumir las explicaciones dadas en esta

línea bajo la categoría de "teorías del estímulo".

Esta concepción supone que la percepción es una función directa de la información

sensorial proporcionada por el estímulo; así, por ejemplo, para explicar la percepción,

únicamente considera necesario el aislamiento del estímulo relevante o la representación

neural de éste en el órgano sensorial o en el cerebro. Sin embargo, es evidente que, para

dar cuenta de los aspectos característicos de la percepción anteriormente expuestos, no

es suficiente la información estimular. En otras palabras, si en las teorías del estímulo, el

término estímulo se define localmente, de acuerdo con las características que presenta la

Page 131: Aznar Alternativas Teoricas en Percepcion Raic

131

percepción humana, obviamente, estas teorías resultan inadecuadas. Recordemos que el

estímulo local no permite predecir lo que va a ser percibido, precisamente por la

ambigüedad que representa, ya que un mismo objeto exterior está sujeto a la

variabilidad, en cuanto que depende del contexto y no sólo de sus particulares

propiedades. Por tanto, estas teorías no tienen en cuenta los fenómenos de

organización, enriquecimiento y complección, retardo o demora del percepto, e

interdependencia de una percepción sobre otra.

No obstante, cabe la posibilidad de redefinir el estímulo, ya que resulta ingenuo creer

que, para percibir el objeto, basta simplemente con el aspecto local del estímulo. El

estímulo entrante debe entenderse, mejor, en un orden superior y basado en un análisis

más abstracto. En la obra de J.J.Gibson (1950, 1966 y 1979) se configura una

reformulación de la teoría del estímulo como la aquí señalada, resaltando los aspectos de

alto orden del estímulo. Sin embargo, no está exenta de críticas, por lo que

enumeraremos resumidamente algunas de las dificultades que muestra esta concepción:

a) Incapacidad para abordar el fenómeno de la organización perceptual, en cuanto

considera que la estructura, simplemente, viene dada por el estímulo.

b) No resulta fácil tratar con los aspectos de la reorganización perceptual de los

patrones estimulares, sobre las bases de representaciones almacenadas en MLP, ni con el

enriquecimiento definido en términos de experiencia pasada, como ocurre en el

reconocimiento y la identificación.

c) También muestra sus insuficiencias en lo relativo a la ambigüedad cualitativa, que

tiene lugar en aquellas situaciones en las que el estímulo representa a más de un objeto y

en los que hay una manifiesta preferencia a percibir uno determinado, o en los casos

donde un mismo estímulo provoca diferentes perceptos en diferentes tiempos (figuras

reversibles).

Obviamente, la versión simplista de las teorías del estímulo resulta a todas luces

inadecuada, en cuanto se demuestra una falta de correlación uniunívoca entre el

estímulo local y el percepto. Como se ha visto, un mismo estímulo, dependiendo de las

condiciones, puede producir diferentes perceptos (Ejemplos, la ambigüedad dimensional

y cualitativa), e inversamente, variaciones estimulares pueden producir un mismo

Page 132: Aznar Alternativas Teoricas en Percepcion Raic

132

percepto (Ejem., la constancia perceptiva). Además, otro estímulo, o incluso otro proceso

central de otra clase, puede afectar a lo percibido a partir de un determinado estímulo.

En consecuencia se impone la necesidad de realizar una modificación de las teorías del

estímulo que permitan dar respuesta a estas cuestiones.

12.3.2. TEORIAS CONSTRUCTIVISTAS

Otra explicación alternativa que pretende superar las dificultades e insuficiencias de las

teorías del estímulo consiste en describir ciertos tipos de procesamiento que tienen lugar

dentro del organismo. El denominador común de estas teorías es que parten del

supuesto de que, entre la entrada sensorial del estímulo y el percepto, median algunos

procesos constructivos internos. Dichas teorías se pueden agrupar en dos subclases

diferenciadas.

12.3.2.1. TEORIAS DE LA INTERACCION ESPONTANEA

Una manera de resolver el dilema de la correspondencia uniunívoca entre el estímulo

local y el percepto se basa en suponer que, no es el estímulo quien determina la

percepción, sino las interacciones espontáneas que ocurren entre las representaciones

de varios estímulos, o entre los estímulos y otras representaciones centrales. Estas

interacciones pueden adoptar diversas formas de manera coherente con los principios

neurofisiológicos. La esencia de esta clase de teorías radica en que el correlato de un

percepto no es simplemente la representación del estímulo en cuestión, sino más bien

las complejas interacciones de eventos que son consecuencia de la estimulación y que

pueden permitir efectos tales como los de contexto, constancias, contraste, cambios

perceptuales sin cambios en el estímulo, ilusiones e, incluso, establecer relaciones de

semejanza. Sin embargo, en sentido estricto, estas no son propiamente teorías

cognitivas, puesto que no requieren necesariamente hacer referencias a procesos tales

como: la inferencia, descripción, seguimiento de reglas, o resolución de problemas.

Page 133: Aznar Alternativas Teoricas en Percepcion Raic

133

12.3.2.2. TEORIAS COGNITIVAS

Otra manera de superar las limitaciones de la teorías del estímulo consiste en admitir

que el estímulo 'per se' no es el correlato de la percepción, sino aquellas interpretaciones

o inferencias realizadas a partir de él y relativas a lo que es el objeto dentro del mundo

que lo produce.

De igual modo que en la teoría de la interacción espontánea, aquí también puede ser

relevante cierta información sensorial, pero además intervienen en él otros contenidos

centrales (memorias, esquemas, asunciones, decisiones, reglas, hipótesis, construcciones,

etc.).

Es preciso dejar constancia de que no forman parte de estas teorías cognitivas aquellas

que Koffka (1935) denomina "teorías sensación-interpretación", como las formuladas por

Berkeley en 1709, o Titchener en 1926, según las cuales, el significado que la experiencia

sensorial (sensación) poseía, correlacionaba perfectamente con el estímulo. Para éstas, la

interpretación no era totalmente perceptual, sino un juicio mental. Sin embargo, en las

teorías cognitivas el término "interpretación" se refiere a las interpretaciones realizadas a

partir del estímulo y de manera inconsciente (no a través de juicios conscientes), como

Helmholtz proponía, las cuales guían la percepción.

Los psicólogos de la Gestalt elaboraron y desarrollaron la teoría de la interacción

espontánea. Ellos postulaban una interacción neural subyacente a la percepción, bien

entre la representación neural de uno o más estímulos, bien entre los estímulos y algunas

representaciones neurales de la memoria, de manera que si estas interacciones ocurrían

en un medio neural, tenían que verse influidas por dicho medio. Debido a los limitados

conocimientos que había alcanzado la neurofisiología, no les era posible a los gestaltistas

descifrar con precisión el tipo de interacción neural que, presumiblemente, subyacía a

varios tipos de percepciones. Simplemente asumían que ese evento neural era el

correlato de los efectos psicológicos que dependían, claramente, de las relaciones entre

estímulos o interacciones.

No obstante, al objeto de considerar esta teoría de la interacción en su forma más

Page 134: Aznar Alternativas Teoricas en Percepcion Raic

134

general, conviene no equipararla con la interacción neural, ya que ello implicaría su

pertenencia a las teorías neurofisiológicas, desvinculándose por consiguiente de las

teorías cognitivas y las del estímulo (teorías psicológicas).

En general, lo que diferencia a las teorías de la interacción de las otras dos (del estímulo

y cognitiva) no son los sustratos neurofisiológicos, sino la clase de procesos que postulan.

Por otra parte, las teorías cognitivas presentan dificultades para explicar dos

características de la percepción, la organización perceptual y los efectos contextuales. En

efecto, en esencia, las teorías cognitivas parecen incorporar una concepción de

homúnculo, si bien algunos autores que investigaron en el campo de la IA (Inteligencia

Artificial), ocasionalmente han recurrido a una función ejecutiva (Por ejem., Neisser,

1967).

12.3.3. COMPARACION DE LAS DOS TEORIAS CONSTRUCTIVAS

La diferencia fundamental entre estas dos teorías, según I.Rock (1983) se manifiesta en

lo siguiente:

Según la teoría de la interacción, dicha interacción es concebida como un proceso que

subyace a las propiedades emergentes del todo, y en la que el estímulo o su

representación interna interactúa, influyendo o modificando a otras representaciones o

estímulos. Así, por ejemplo, el agrupamiento resulta del efecto de unas unidades sobre

otras; el fenómeno del color, las constancias en general y los fenómenos contextuales

son consecuencia de los efectos de una región del estímulo sobre otra, o de su acción

recíproca y el enriquecimiento de la influencia de una huella de memoria sobre el

estímulo registrado.

Según la teoría cognitiva, el input estimular no es transformado mediante la interacción

espontánea, sino que es interpretado por un agente cognitivo superior, externo al

dominio del estímulo. Esta interpretación, que no difiere demasiado de las características

de la imagen retinal, es realizada a partir del estado proximal del estímulo. Así, el

agrupamiento, a veces, es impuesto por un agente cognitivo que actúa sobre el originario

orden proximal, la percepción de la brillantez del color resulta de una interpretación del

Page 135: Aznar Alternativas Teoricas en Percepcion Raic

135

grado de luminosidad alcanzado a nivel retinal y el enriquecimiento es consecuencia de la

imposición de una descripción del estímulo, organizada en términos de las propiedades

conocidas del objeto.

Page 136: Aznar Alternativas Teoricas en Percepcion Raic

136

Cuarta parte: ANALISIS DE ESCENAS

Page 137: Aznar Alternativas Teoricas en Percepcion Raic

137

CAPITULO XIII La atención en el procesamiento perceptivo

"Conocer es siempre referirse a algo pretérito; es fundamentalmente un 'regressus in infinitum' ".(F. Nietzsche, s. XIX)

13.1. Introducción

El significado de la función atencional no es unívoco para los psicólogos de diferentes

enfoques, sino que ha sido entendida de diferentes modos (filtro, selección, esfuerzo,

foco, recursos, alerta, activación, control, etc.), hasta el extremo de que Meldman (1970,

citado por Pinillos, 1975) ha inventariado hasta 26 definiciones de atención. La acepción

más común de la atención, posiblemente, sea la de "esfuerzo" mental o psicológico

(Johonston y Heinz, 1978; Kahneman, 1973; Posner y Boies, 1971). Esta concepción de la

atención, como esfuerzo mental o psicológico, se deriva de la suposición de que la

capacidad de procesamiento, de un hipotético mecanismo central, es limitada. Dicho

mecanismo se asocia con el procesamiento controlado y con los procesos conscientes; su

capacidad se refiere a la medida en que diferentes fuentes de información pueden

procesarse simultáneamente.

Para De Vega (1984) la atención se puede concebir como "un sistema de capacidad

limitada, que realiza operaciones de selección de información y cuya disponibilidad o

estado de alerta fluctúa considerablemente".

La existencia de un mecanismo central de capacidad limitada dista mucho de tener

aceptación unánime. Frente a esta visión, se ha postulado que el sistema de

procesamiento humano está integrado por diversos mecanismos, cada uno con su propia

capacidad, la cual también suponen que es limitada (Navon y Gopher, 1979; Wickens,

1980).

La diferencia entre ambos tipos de sistemas de procesamiento es obvia. Un sistema con

un único mecanismo central se caracteriza por poseer recursos de procesamiento

comunes que, en situaciones de actividad concurrente, deben distribuirse; la

interferencia en la realización de una y/u otra actividad vendrá determinada por la

competencia respecto al "esfuerzo" de procesamiento o por la competencia estructural

Page 138: Aznar Alternativas Teoricas en Percepcion Raic

138

de los procesos y mecanismos implicados en las tareas (Kahneman, 1973). Un sistema

integrado por distintos mecanismos o subsistemas de procesamiento se caracteriza, a su

vez, por la existencia de múltiples recursos de modo que la interferencia entre

actividades concurrentes dependerá de la medida en que los procesos implicados en la

realización de cada una de ellas utilice un subsistema de procesamiento común

(superposición de demandas) (Navon y Gopher, 1979; Norman y Bobrow, 1975; Wickens,

1980) o bien del grado en que el resultado del procesamiento, requerido para llevar a

cabo una tarea, entre en conflicto con el procesamiento requerido para la realización de

otra tarea (Navon y Miller, 1987). Naturalmente, la interferencia entre tareas generaría

un decremento en la ejecución en la tarea principal.

Esencial para ambas posturas, pero con implicaciones especialmente importantes para

la aproximación de los recursos múltiples, es la diferencia establecida por Norman y

Brobow (1975) entre "procesos limitados por los recursos" y "procesos limitados por los

datos". Según estos autores "si un incremento en la cantidad de recursos de

procesamiento (asignados para la realización de la tarea) da lugar a una mejoría en la

ejecución, la tarea está limitada por los recursos". Cuando la ejecución de la tarea es

independiente de los recursos de procesamiento asignados para su realización, más

concretamente, cuando un incremento en los recursos asignados no se traduce en una

mejoría en la ejecución, las limitaciones se deben a los datos; las limitaciones debidas a

los datos pueden atribuirse a la señal ("limites de los datos por la señal") y a la memoria

("limites de los datos por la memoria"); en el primer caso, el límite para la ejecución

depende de la razón señal-ruido (estímulo crítico-distractores); en el segundo caso, el

límite se debería a la calidad de la representación en memoria.

Se ha afirmado que "percibir es la actividad cognitiva básica" (Neisser, 1967). Esta

afirmación queda plenamente justificada al definirnos la cognición -adquisición,

estructuración y utilización de conocimientos y la percepción -extracción de información

de nuestro entorno-.

Otra cuestión básica en el estudio de la percepción visual es la referente al curso del

proceso perceptivo, es decir, al modo en que se percibe. El problema puede plantearse

de forma simple: al percibir la escena visual, ¿la percepción global de la escena es previa

Page 139: Aznar Alternativas Teoricas en Percepcion Raic

139

a la percepción de los elementos que integran dicha escena? o, por el contrario,

¿analizamos en primer lugar los elementos y, posteriormente, se percibe la escena

global? En otros términos, el procesamiento, el análisis de la información ¿se realiza de

'arriba-abajo', es decir de lo global a los elementos o de 'abajo-arriba', esto es, se

comienza a procesar los elementos simples que integran la escena y paulatinamente se

construye la escena global?

En este capítulo trataremos de incidir sobre estas relevantes problemáticas planteadas

en el contexto de investigación sobre los fenómenos perceptivos, destacando el papel

crítico que desempeña la atención en dichos fenómenos.

13.2. Procesos automáticos versus procesos controlados

Como consecuencia de disponer de unos recursos de atención limitados, éstos deben

repartirse entre las tareas que, simultáneamente, realizamos en un determinado

momento (Kahneman, 1973). Algunas tareas, al ser repetidas numerosas veces llegan a

no requerir consumo atencional, siendo posible su realización automática (por ejem.,

conducir, tocar el piano, escribir a máquina, etc.); mientras que, otras tareas no pueden

ejecutarse correctamente si no focalizamos la atención sobre ellas, de modo que

controlen su ejecución (por ejem., la lectura, resolver un problema nuevo, etc.). La

psicología cognitiva introdujo la distinción entre esta dicotomía conceptual, considerando

como un recurso para aliviar la sobrecarga del sistema, el hecho de que con la práctica

algunas tareas dejen de requerir el foco atencional y se ejecuten de modo automático,

pasando a denominarse hábitos, automatismos o rutinas sobreaprendidas.

Entre las características atribuidas a los procesos automáticos destacan: necesitar pocos

recursos atencionales, aprenderse por la práctica perseverante, tener escasa conciencia

de su actividad y realizarse involuntariamente, además, operan en paralelo y son

altamente eficaces en situaciones de estrés, dando lugar a escasa interferencia cuando

ejecutamos una doble tarea (LaBerge, 1975; Kahneman y Treisman, 1984).

Por el contrario, los procesos controlados requieren atención, muestran mayor

flexibilidad y capacidad de adaptación, son conscientes y voluntarios, disminuyen la

Page 140: Aznar Alternativas Teoricas en Percepcion Raic

140

eficacia en situaciones de estrés y sufren interferencias en condiciones de doble tarea,

operando secuencialmente (Shiffrin y Schneider, 1977; Kahneman, 1973).

Estos procesos han sido denominados de diversas maneras, así, Posner (1978) se refiere

a ellos como procesos conscientes e inconscientes y Kahneman (1973) como procesos

'con esfuerzo' o 'sin esfuerzo'.

Para decidir si una tarea requiere procesos controlados o automáticos se han utilizado

estos tres criterios (Logan, 1978):

- Sensibilidad al número de alternativas presentadas.

- Interferencias sobre aprendizajes nuevos, e

- Interferencia entre tareas concurrentes.

En los fenómenos perceptivos interactúan ambos procesos, los que se hallan bajo el

control atencional y los automáticos. No obstante, si los estímulos son familiares

requieren menos recursos atencionales; en tanto que, la no familiaridad del material

hace necesaria la focalización de la atención al objeto de extraer características

informativas.

Asimismo, el estudio de los recursos atencionales nos remite a la distinción entre

atención focalizada o exclusiva y atención dividida. No creemos necesario señalar aquí la

diferencia entre una y otra, ni su manipulación experimental.

13.3. LA INTERACCION SENSORIO COGNITIVA: PROCESAMIENTO GUIADO POR LOS

DATOS VERSUS GUIADO CONCEPTUALMENTE

En términos expresados por Lindsay y Norman (1972), el esquema de patrones de

búsqueda visual y comparación se llama guiado por los datos (Data Driven Processing) si

las operaciones se ponen en acción por la llegada de datos sensoriales, esto es, el

procesamiento se inicia por la llegada de los datos y transcurre en suave y lógica

progresión, elaborándose a través de sucesivas etapas de análisis, hasta el

reconocimiento del ítem.

Para estos autores, nuestro sistema de memoria mantiene un registro de las

experiencias pasadas, un conocimiento general sobre la organización y el formato de los

Page 141: Aznar Alternativas Teoricas en Percepcion Raic

141

acontecimientos que experimentamos, y un conocimiento del lenguaje. Siempre que el

conocimiento aporta la interpretación o conceptualización posible de algo y nos ayuda a

percibirlo, decimos que el procesamiento está guiado conceptualmente. Aquí el

procesamiento comienza con la conceptualización de lo que puede estar presente

(conocimiento general de los acontecimientos esperados y con expectativas originadas

por ese conocimiento) y luego busca indicios confirmatorios, introduciéndose un sesgo

en los mecanismos procesadores en el sentido de dar el resultado esperado. Las

expectativas son en realidad teorías o hipótesis simples sobre la naturaleza de las señales

sensoriales que se esperan tengan lugar. Estas expectativas guían las fases de análisis en

todos los niveles, desde alertar el sistema analizador del lenguaje (si se espera una

entrada lingüística) hasta disponer los detectores de características para las entradas

específicas esperadas, y dirigir la atención del sistema hacia los detalles de los hechos

particulares.

El procesamiento guiado conceptualmente (Conceptually Driven Processing) es

justamente lo contrario del procesamiento guiado por los datos. Mientras que este

último comienza con las señales sensoriales y acaba por las interpretaciones (ascendente

o "abajo-arriba"), los sistemas guiados conceptualmente van en la dirección opuesta,

esto es, parten de las interpretaciones y expectativas y acaban procesando los detalles o

señales sensoriales.

Ambas direcciones del procesamiento casi siempre tienen lugar juntas y cada una

contribuye al análisis total. Se ha de combinar la información procedente de la memoria

con la información procedente del análisis sensorial, las dos informaciones son necesarias

y ninguna de ellas es suficiente por separado.

De nuevo, Norman y Bobrow, (1979) nos explican estas direcciones del procesamiento,

pero dejemos que sean los propios autores quienes nos lo aclaren:

"Suponemos que cuando la información sensorial ingresa a través del sistema

sensorial, los procesos que operan sobre ella lo hacen automáticamente, a partir de la

extracción de características principales. Después, como resultado de estos procesos, la

memoria sensorial se activa con diferentes regiones que representan los diferentes

conjuntos de características (…) Cada nueva entrada sensorial inicia una nueva

Page 142: Aznar Alternativas Teoricas en Percepcion Raic

142

actividad, y el sistema debe intentar organizar las estructuras que han sido activadas

en un esquema significativo. Es éste un análisis abajo-arriba: un análisis impulsado por

la entrada sensorial.

Existen otras formas de analizar la información. Consideremos un esquema que ha

sido activado por sugerencia de una entrada o un contexto. ¿Qué otra cosa requiere el

esquema? Utilicemos los requerimientos para guiar una búsqueda del espacio de

características. ¿Necesita el esquema un contorno hacia la izquierda? Preguntémonos

si cualquier procedimiento puede proporcionar datos acerca de uno. ¿Postula el

sistema que está percibiendo una habitación? Busquemos después las esquinas, las

paredes, el techo. Preguntémonos si el espacio-características es consistente con la

interpretación. Estos son análisis arriba-abajo: análisis impulsados por la organización

conceptual". (pag. 133).

En el momento presente se acepta que las operaciones de búsqueda visual o selección

del ítem están dirigidas tanto por los rasgos más salientes de los estímulos sensoriales

(formas definidas, colores vivos, tamaño, etc.) como por las expectativas cognitivas y/o

esquemas anticipatorios del sujeto, aprendidos en su experiencia anterior. Como

consecuencia de esta hipótesis se propuso un modelo de procesamiento híbrido que

tiene lugar en paralelo.

De acuerdo con lo anterior, Hoffman (1980) propuso un modelo en el que se

postulaban dos canales de entrada de la información, uno para la procedente del

procesamiento "abajo-arriba" o guiada por los datos y otro para la procedente del

procesamiento "arriba-abajo" o guiada conceptualmente.

En este modelo se postulan dos canales de entrada de la información, uno para la

proviniente del procesamiento abajo-arriba y otro para la procedente del procesamiento

arriba-abajo. Dicha información es codificada, e inmediatamente identificada en

memoria mediante un procesamiento en serie (Hoffman, 1980). Esta concepción está de

acuerdo con la flexibilidad de la atención para operar centrando el foco según criterios

subjetivos del individuo.

Page 143: Aznar Alternativas Teoricas en Percepcion Raic

143

13.4. LA PRECEDENCIA PERCEPTIVA: GLOBAL VERSUS LOCAL

13.4.1. ORIGEN DEL DEBATE

En el primer cuarto del siglo XX, los psicólogos de la Gestalt propusieron que la

percepción del todo era diferente de la suma de las partes (Wertheimer, 1923, Kohler,

1929 y Koffka, 1935). Como es sabido, la Psicología de la Gestalt utilizaba el método

fenomenológico-introspeccionista, consistente en describir la experiencia subjetiva

durante la percepción. Sostenían que, si el todo se analiza en sus partes constitutivas se

pierden las propiedades de la totalidad, del mismo modo que un muro no puede ser

explicado mediante las propiedades del cemento, ladrillos, arena y agua. En efecto,

algunas formas absorben sus componentes hasta el punto de no ser reconocibles, como

sucede en la figura 13.1 (utilizada por Wertheimer, 1923), en la que tiende a verse un

rombo encerrado entre barras, en lugar de una 'W' sobre una 'M'.

Figura 13.1. ¿Rombo entre barras o 'W' sobre 'M'?

En este sentido, los psicólogos gestaltistas deben ser considerados los pioneros del

estudio de la precedencia perceptiva, aunque el hecho de demostrar que algunos

componentes se hallen enmascarados en el percepto total, no excluye la posibilidad de

que estos componentes hayan sido utilizados en la génesis del todo.

La polémica, por tanto, se debate en torno a la cuestión de si percibimos antes el todo

(unidad global) o las partes (unidades locales) y a ella se alude bajo el rótulo de

"precedencia global o local". Se considera que existe precedencia tanto si: a) Algunas

unidades (global o locales) son procesadas antes que otras (procesamiento serial), o b)

Page 144: Aznar Alternativas Teoricas en Percepcion Raic

144

Las diversas unidades (global o locales) son procesadas simultáneamente, pero en una

proporción más rápida a favor de una u otra (procesamiento en paralelo).

El procesamiento serial implica que los productos (outputs) de las primeras fases del

procesamiento son las entradas (inputs) de las fases sucesivas. Sin embargo, en el

procesamiento en paralelo, tanto las propiedades globales como las locales son

procesadas a la vez, pero el procesamiento de un conjunto de propiedades (de lo global o

de los elementos locales) finaliza antes. En consecuencia, las investigaciones sobre la

precedencia se han centrado en estos dos aspectos:

(1) Tipos de unidades (global o local).

(2) Tipo de procesamiento (serial o paralelo) que requieren.

13.4.2. ESTADO ACTUAL DE LA CUESTION

El interés actual por este tema se desencadenó desde la formulación de la hipótesis de

la precedencia global (Navon, 1977) que podemos sintetizar en la frase " una escena más

que construirse se descompone". Es decir, el procesamiento de estímulos visuales se

inicia a partir de estructuras globales que se van analizando de forma cada vez más

detallada (global-to-local), esto es, implica un procesamiento "arriba-abajo" (Top-down).

Por tanto, la percepción es al principio poco diferenciada, pero progresivamente se van

extrayendo más detalles de información al focalizarse la atención, guiada por el análisis

previo (estructura global), que señala las partes más relevantes del estímulo.

Diversos investigadores (por ejem., Palmer, 1975; Navon, 1977; Winston, 1975) han

planteado la percepción como un proceso organizado jerárquicamente en el que las

unidades de orden superior (la escena visual) se procesan como un todo, analizándose

paulatinamente unidades más y más inferiores en la jerarquía (subescenas, elementos

que las integran, etc.); cuanto más se desciende en la jerarquía, más 'minucioso' es el

procesamiento. Según este planteamiento, la escena visual se contempla como un

conjunto de subescenas interrelacionadas espacialmente; dichas subescenas están

integradas por los componentes que, a su vez, se descomponen en elementos cada vez

más simples; por cuanto, desde este punto de vista, se supone que el procesamiento

Page 145: Aznar Alternativas Teoricas en Percepcion Raic

145

tiene lugar de 'arriba-abajo'.

La investigación de la dirección del proceso perceptivo ('arriba-abajo' o de

'abajo-arriba') se ha llevado a cabo mediante la utilización de estímulos de naturaleza

jerárquica en los que pueden diferenciarse dos niveles estructurales: el local, constituido

por los elementos que integran el patrón y el global, referido a la forma determinada por

la disposición de elementos locales (véase las figuras 1 y 2). El patrón estimular incluye

ambos niveles (Kinchi y Palmer, 1985).

Este tipo de patrones, que duda cabe, son artificiales, pero su simplicidad permite

abordar de forma clara el problema de la dirección del proceso perceptivo.

El trabajo de Navon (1977) dio lugar a un amplio cuerpo de investigaciones sobre los

denominados "efectos de precedencia". Se habla de precedencia cuando ciertas

propiedades (globales o locales) del patrón estimular están disponibles -y por tanto se

identifican antes que otras propiedades (globales o locales); además, cuando hay

conflicto entre ambos (caso de la fig. 1), el nivel que más rápidamente se identifica

interfiere en la identificación del otro. Tal efecto puede producirse, bien porque un tipo

de información se procesa previamente, o porque aunque los diferentes niveles

comienzan a procesarse simultáneamente, el análisis de unas determinadas

Page 146: Aznar Alternativas Teoricas en Percepcion Raic

146

características se completa antes.

Navon planteó la hipótesis de la precedencia global, según la cual el nivel global se

procesa en primer lugar. Los resultados de sus estudios llevaron a este autor a postular la

prioridad e "inevitabilidad del procesamiento global", es decir, la imposibilidad de ignorar

el nivel global. Para este autor la identificación del nivel global es rápida y obligatoria,

mientras que el procesamiento del nivel local tiene lugar mas lentamente y es de carácter

facultativo.

En subsiguientes investigaciones se obtuvieron resultados contradictorios, que pusieron

de manifiesto la existencia de numerosas variables que afectan al efecto de precedencia

global. En este sentido, se constató que la precedencia no sólo podía ser global, sino

también local; la dominación de uno u otro nivel estructural estaba determinada por

múltiples factores. Martin (1979) mostró que el espaciamiento de los elementos locales

es un factor crítico: con muchos ítems poco espaciados se produce precedencia, pero con

pocos ítems espaciados se obtiene ventaja en el tiempo de reacción (TR) a elementos

locales e interferencia local. Kinchla y Wolfe (1979) observaron que la mayor rapidez en

el procesamiento del nivel global o local estaba determinada por el tamaño de la imagen

visual. Asimismo, se observó (Hoffman, 1980) que la 'calidad' de los niveles estructurales

(distorsión del nivel local o global) determinaba la precedencia local o global. Otros

autores (Hoffman, 1980; Kinchla, Solis-Macias y Hoffman, 1983; Ward, 1982) han

constatado que los factores atencionales juegan un papel decisivo en la dominación de

uno u otro nivel (cuando se atiende a un determinado nivel, dicho nivel interfiere la

identificación del otro). Como conclusión, puede decirse que la prioridad de uno u otro

tipo de procesamiento (globales y locales) es problemática; además, la existencia de

interferencia global y local parece indicar que ninguno de los niveles puede ignorarse

completamente.

Resumidamente, esta hipótesis fue cuestionada, principalmente por haberse utilizado

exclusivamente variaciones del paradigma de interferencia en la tarea, el cual influye

sobre los procesos atencionales y de decisión. Al realizarse nuevas investigaciones,

sustituyendo la tarea por otra de decisión, los resultados permitieron concluir que en

Page 147: Aznar Alternativas Teoricas en Percepcion Raic

147

algunas ocasiones la tarea induce la precedencia global y en otras la precedencia local.

Por consiguiente, intervienen tanto los sistemas arriba-abajo o "guiados

conceptualmente" (conceptually driven processing) como los sistemas abajo-arriba o

"guiados por los datos" (data driven processing) con los que interactúan. Es decir, las

operaciones de búsqueda visual estarían dirigidas tanto por los rasgos más salientes de

los estímulos sensoriales (formas definidas, colores vivos, tamaño, etc.) como por las

expectativas cognitivas y/o esquemas anticipatorios del sujeto, aprendidos

anteriormente.

Miller (1981), planteó una explicación distinta a la propuesta por Navon (1977). Para

Miller, el efecto de precedencia está determinado por factores atencionales y de

decisión. Según este autor, el nivel global y local se analizan a través de canales o

mecanismos distintos. Este autor presupone que el sistema de procesamiento posee un

conjunto de recursos atencionales que puede repartirse entre los dos canales, de forma

que, en cada uno de los dos canales, pueda registrarse la aparición de un objetivo.

Cuando el objetivo se reconoce en algún canal, comienza a activar la decisión apropiada;

la decisión se emite cuando la activación alcanza un determinado grado o nivel crítico. El

canal global posee mayor fuerza que el local. Debido a su mayor fuerza, el canal global

activa las decisiones más rápidamente que el nivel local; si los objetivos se presentan en

ambos canales (supongamos una 'H' formada por haches pequeñas), la decisión se activa

simultáneamente, por lo que el tiempo requerido para alcanzar el nivel de activación

crítico es menor.

13.5. TEORIA DE LA INTEGRACION DE CARACTERISTICAS

Tomando como punto de partida el señalar la controversia existente entre teorías

analíticas y sintéticas de la percepción, Treisman y Gelade (1980) propusieron un nuevo

modelo que denominaron "teoría de la integración de las características". Esta teoría

asume que la escena visual, inicialmente, se codifica automáticamente y en paralelo, bajo

una serie de dimensiones disociables (color, brillo, orientación, dirección del movimiento,

Page 148: Aznar Alternativas Teoricas en Percepcion Raic

148

etc.) y, en un estado posterior, que requiere atención, se identifican los objetos

separadamente. El principio fundamental de esta teoría sostiene que las características o

propiedades de los objetos (color, tamaño, forma, orientación, etc.) únicamente pueden

relacionarse unas con otras, para lograr la integración perceptiva, bajo el control

atencional, lo que confirmaba experimentalmente lo anticipado por Neisser, (1967). La

atención focal, por consiguiente, actúa como si se tratase de un "pegamento" que junta

las características disociadas anteriormente en la codificación, al objeto de obtener una

unidad psíquica coherente. Sin embargo, la interferencia o el desvanecimiento de la

huella de memoria puede motivar una desintegración de las características, quedando

disociadas o, tal vez, se recombinan para formar "conjunciones ilusorias" (Treisman,

1977; Treisman y Smidth, 1982).

Conscientes de la necesidad de probar sus predicciones en diferentes paradigmas

experimentales, Treisman y Gelade (1980) sometieron a prueba sus hipótesis acerca de

que las características totales son conjuntadas automáticamente, mientras que las

características disociadas requieren atención para su integración, mediante una serie de

nueve experimentos independientes pero convergentes. Los tres primeros experimentos

se referían al paradigma de "búsqueda visual", comparando conjunciones de color y

forma con disjunciones de estas características. Investigaron los efectos de la práctica y el

papel de la discriminabilidad de características en búsqueda de conjunción. El

experimento IV trataba de explicar la posibilidad de que los elementos locales de formas

compuestas (ejem. letras) servirían como características disociadas, requiriendo

búsqueda serial cuando pudieran formarse conjunciones incorrectas. Los experimentos

V, VI y VII, se referían a la segregación de textura. Y, finalmente, los experimentos VIII y IX

estudiaban la relación entre identificación y localización espacial, mediante dianas

definidas por una característica simple o por una conjunción.

Los resultados obtenidos probaron la mayoría de sus predicciones, lo que validaba la

teoría de la integración de las características. Las conclusiones afirmaban la posibilidad de

detectar e identificar características diferentes en paralelo y sugería que este proceso de

registro de características debe ser mediado por la segregación de textura y el

agrupamiento figura-fondo. Localizar una característica individual requiere una operación

Page 149: Aznar Alternativas Teoricas en Percepcion Raic

149

adicional, además, si se desvía o sobrecarga la atención pueden ocurrir conjunciones

ilusorias. Las conjunciones de características correctas requieren enfocar la atención y

están dirigidas serialmente, estas no necesitan la mediación de la segregación de textura

y sólo pueden ser identificadas al ser localizadas espacialmente. La atención visual puede

ser utilizada como una lente zoom, aplicándose sobre un área pequeña con alta

resolución,o extendiéndose sobre una amplia área con alguna pérdida de detalle. Los

resultados con las dianas de características disjuntivas sugieren que estas operaciones

son posibles sin procesamiento serial o atención focal.

Page 150: Aznar Alternativas Teoricas en Percepcion Raic

150

Capítulo XIV Las teorías de esquemas

"Donde nuestra ignorancia empieza, donde ya no llegamos con la vista, ponemos una palabra; por ejemplo, la palabra 'yo', la palabra 'acción', la palabra 'pasión', que son quizá líneas del horizonte de nuestro pensamiento, pero de ninguna manera verdades". (F. Nietzsche, 1.887)

14.1. INTRODUCCION

Si bien el concepto de Esquema deriva de una tradición filosófica, teórica y

metodológica (el constructivismo) muy distante de la Hipótesis del procesamiento de

información (descendiente de la escuela del aprendizaje verbal), ambas coinciden y son

compatibles en algunas nociones. Por ejemplo, en las Teorías del Esquema, la memoria es

un subproducto de la comprensión (codificación en la terminología de los niveles de

procesamiento de información) y/o la situación de prueba.

Las Teorías del Esquema asumen como propios muchos datos procedentes de la

perspectiva del procesamiento de información: dirección del procesamiento, procesos de

control, etc.

El grupo de autores que desarrolló el proyecto LNR (Rumelhart, Norman y Lindsay,

1971-1975) en la Universidad de California (San Diego) defendió la unidad del sistema

cognitivo humano, al establecer la unicidad de principios entre los procesos perceptivos y

los procesos del conocimiento y su representación.

Este grupo se proponía entender los mecanismos del sistema de procesamiento

humano. Declaran: "el hombre es un mecanismo de procesamiento de información,

construido sobre un sustrato biológico, como resultado de muchos años de evolución y

cambio, que suceden dentro y son influidos por un entorno social y cultural. Queremos

comprender cuales son los mecanismos básicos de procesamiento de información que

recogen la información del medio, la almacenan, recuperan, reconstruyen, infieren,

deducen y, en definitiva, como procesamos ésta información (Norman y Rumelhart,

1981).

Page 151: Aznar Alternativas Teoricas en Percepcion Raic

151

14.2. ORIGEN Y DEFINICIONES

El concepto de Esquema, tan vigente y de interés en la Psicología cognitiva, tiene

profundas raíces que se pierden en la historia del pensamiento humano.

El uso del término "esquema-cognitivo" (al que nos referiremos en lo sucesivo) fue

acuñado en Europa, hace ya más de medio siglo con el objetivo de explicar los procesos

del pensamiento infantil (Piaget, 1926) y los procesos de comprensión y memoria en el

ámbito socio-cultural (Bartlett, 1932). Si bien la concepción actual del Esquema difiere

notablemente de sus orígenes, haremos una brevísima reseña histórica que profundice

en el término para seguir sus pasos hasta nuestros días.

Señala J.L. Phillips (1969) que el desarrollo cognitivo consciente, para Piaget, es una

sucesión de cambios, esencialmente estructurales. Suele referirse a las estructuras

individuales con el nombre de esquema. Considera al esquema como una especie de

minisistema: "es aquella determinada propiedad de una acción que puede generalizarse

a otros contenidos". Y comprende también los estímulos que desencadenan los procesos

mediadores y la conducta abierta. que presupone está organizada por ellos. Cita como

ejemplo el esquema "mirar y coger". Puede haber interacciones entre esquemas, es

decir, pueden asimilarse entre si. Los define como una unidad genérica de estructura;

"todo aquello que es repetible o generalizable" (Piaget, 1950). Considera que las

estructuras primeras son relativamente sencillas, generalmente la gente se refiere a ellas

como reflejos. Los esquemas posteriores son más complejos (más mentales) y cada vez

resulta más apropiado pensar en ellos como estrategias, planes, reglas de

transformación, expectativas, etc.

"Sean cual fuere las etiquetas que se les aplique, constituyen una suerte de armazón

en el que pueden encajarse los datos sensoriales que se van aportando, puesto que de

hecho deben encajar si han de tener algún efecto; con todo, es un armazón que cambia

continuamente de forma para que encajen en él, el mayor número de datos posible"

(Phillips, 1969).

Otro de los pioneros del concepto de esquema cognitivo fue el británico Bartlett (1932),

quien en su obra "Remembering" describió una investigación que mostraba los efectos

del conocimiento previo (esquema) sobre la comprensión de la memoria. Un grupo de

Page 152: Aznar Alternativas Teoricas en Percepcion Raic

152

estudiantes ingleses recibió un relato correspondiente a una leyenda de una tribu india,

sometiéndose posteriormente a pruebas de memoria, a los pocos minutos y al cabo de

meses. En opinión de Bartlett, la lectura del citado relato, perteneciente a una cultura

ajena, resultaría de difícil comprensión y recuerdo para los sujetos occidentales, ya que

no disponían de estructuras mentales adecuadas para extraer su significado.

La Psicología norteamericana interesada en el campo de la IA, redescubriría 30 años

más tarde el concepto de esquema, poniéndola de actualidad (Schank y Abelson, 1977).

Estos autores observaron que no era suficiente para que los programas de ordenador

comprendiesen textos, fuera de un dominio temático muy reducido (micromundo), el

implementar algunas destrezas sintácticas y un conocimiento léxico. Para lograr la

eficiencia deseada en la comprensión, es preciso disponer de un conocimiento del

mundo almacenado en su memoria. Así, la comprensión resulta de un producto

construido a partir de la información del input y el conocimiento previo.

Más próximas a nuestro tiempo encontramos otras concepciones que definimos

básicamente:

En palabras de U. Neisser (1976, pag. 67, trad. cast.) "un esquema es aquella porción del

ciclo perceptivo que es interno al perceptor, modificable por la experiencia y de algún

modo específico con respecto a lo que se percibe".

Para Norman y Bobrow (1975) "un esquema consiste en un sistema de ligar la

información acerca de un concepto o hecho dado, con especificaciones acerca de los

tipos de interrelaciones y restricciones sobre la forma en que se corresponden las cosas.

Los esquemas pueden activar procedimientos capaces de operar sobre información local

y sobre el recipiente común de datos." Señala también que " el problema de los

problemas perceptivos consiste en determinar el esquema apropiado y aparear los

acontecimientos actuales con la construcción prevista para ellos. Si se plantean muchas

discrepancias, deberá seleccionarse un nuevo esquema o reorganizarse el que se tiene a

mano". De acuerdo con Palmer (1975) considera que el esquema representativo de un

objeto en la memoria debe contener información sobre las relaciones entre las partes del

objeto y apenas se observen en un input sensorial alguna de las subpartes o relaciones

entre éstas, debe activarse el esquema organizando la entrada y guiando el

Page 153: Aznar Alternativas Teoricas en Percepcion Raic

153

procesamiento. Además, entiende este autor que el procesamiento sensorial

interacciona con el procesamiento conceptual organizado en esquemas, de manera que,

cuanta más información conceptual dispongamos de una escena, menos información

sensorial se requerirá. Norman también se refiere a los esquemas bajo el rótulo de

construcciones estructurales o construcciones del conocimiento.

Rumelhart, define "un esquema es una estructura de datos para representar conceptos

genéricos almacenados en la memoria (Rumelthart, 1980). Considera que los esquemas

organizan la memoria y guían la percepción, las acciones y el pensamiento. Este autor y

sus colaboradores representan el esquema mediante una red semántica de relaciones

entre todo lo que se conecta con el concepto representado, llamado Retícula Estructural

Activa (Active Structural Network) o prototipo de esquema (Norman y Rumelhart, 1975).

En nuestros días, M. de Vega (1984) sintetiza algunos de los rasgos comunes a las

diversas Teorías de Esquemas existentes, considerando a los esquemas como entidades

conceptuales complejas, compuestas de unidades más simples (subesquemas), a modo

de paquetes de conocimientos prototípicos, cuyos componentes o variables no están

especificados; que son actualizados en determinadas condiciones, generando inferencias

temáticas mediante el mecanismo de rellenar "valores ausentes". Tienen un carácter

multifuncional y se integran encajando unos en otros.

14.3. CARACTERISTICAS Y ELEMENTOS DEL ESQUEMA

Recopilaremos aquí las características comunes que presentan las diversas Teorías de

Esquemas, hoy en día no del todo sistematizadas o integradas en un marco de referencia

unificado. Las más representativas son:

a) Los Esquemas sirven para representar conocimientos. son paquetes de

conocimientos prototípicos, cuyos componentes o variables no están especificados. Los

conocimientos no están aislados como en un diccionario, sino más bien interrelacionados

unos conceptos con otros.

b) Estructuralmente constan de variables interrelacionadas y valores. Los valores

especifican los datos de las variables, en función del contexto. Las variables se asignan a

Page 154: Aznar Alternativas Teoricas en Percepcion Raic

154

diferentes aspectos del medio; estando limitadas a intervalos de valores impuestos por el

entorno. Cuando no existe información suficiente,realizan inferencias temáticas

mediante el mecanismo de rellenar "valores ausentes". De modo ilustrativo,

expondremos el esquema "DAR", ofrecido por Rumelhart y Ortoni (1977).

En el presente esquema intervienen las variables: donante, receptor y objeto donado.

Se puede observar que las relaciones entre éstas permanecen invariables, aunque

cambien sus valores.

c) Son unidades cognitivas de alto nivel, que comprenden diversos niveles de

abstracción del conocimiento. Los esquemas son entidades conceptuales complejas

constituidas por unidades más simples. Ejemplo, el esquema "comprar" incluye:

personajes (comprador, vendedor), objetos (dinero, mercancía, establecimiento),

acciones (transferir una propiedad o un servicio, pagar) y metas (beneficiarse el

vendedor, disfrutar de la propiedad o del servicio).

d) Presentan una organización jerárquica, encajando unos esquemas en otros, hasta

llegar a los esquemas atómicos o primitivos, que ya no pueden ser englobados en otros

subesquemas. Los esquemas integran esquemas más elementales, y constituyen a su vez

subesquemas de otros. Por ejemplo, Palmer (1975) propone el esquema "rostro", que

posee como subesquemas: ojo, nariz, oreja, boca, etc. El subesquema "ojo" contiene

otros subesquemas: pupila, iris, cornea, etc., pero el subesquema "pupila" es ya un

concepto elemental, átomo o primitivo, que no incluye otros subesquemas (para los no

Page 155: Aznar Alternativas Teoricas en Percepcion Raic

155

especialistas en el tema).

e) Los esquemas poseen un carácter multifuncional. Guían los procesos de

comprensión, de percepción (marcos o frames), han significado una importante

concepción de la memoria y su organización, en la que el recuerdo es un subproducto de

la activación de esquemas durante la recuperación. Y también controlan el

comportamiento estableciendo metas y secuencias de acciones (planificación).

f) Los esquemas se adquieren mediante experiencias recurrentes. En opinión de U.

Neisser (1976) el desarrollo del esquema procede de lo general a lo particular, de lo

indiferenciado a lo preciso.

14.4. MULTIFUNCIONALIDAD DE LOS ESQUEMAS Y AREAS DE APLICACION

Vamos a penetrar en el uso que hace el sistema cognitivo humano de los esquemas

para el procesamiento de información, donde juegan un papel de gran versatilidad,

interviniendo activamente en numerosas funciones cognoscitivas. Entre las que

resaltamos las siguientes:

1) La comprensión de narraciones. En opinión de Rumelhart (1979) ésta es en realidad

un proceso constructivo, fruto de la interacción de tres factores: el texto, el contexto y

los esquemas cognitivos. Cuando un esquema ha sido activado, desempeña las siguientes

funciones:

* Integración de varias cláusulas en una unidad de significado superior y elaboración

del texto.

* Infiere y predice, permitiendo que el lector entienda mucho más de lo que está

explícito, por medio del relleno de "valores ausentes".

* Guía y controla la comprensión, determinando que información es relevante y cual

relativamente marginal para el lector.

2) La memoria es considerada en la tradición de Bartlett, como un subproducto de la

comprensión. El individuo recuerda el significado construido a partir del texto, el

contexto y su propio conocimiento del mundo.

3) La percepción. Afirma Neisser (1976) "la percepción es el resultado de la interacción

Page 156: Aznar Alternativas Teoricas en Percepcion Raic

156

del esquema y la información accesible. Más aún, es ésa interacción". "Los esquemas

perceptivos son planes para buscar detalles sobre objetos y eventos, para obtener más

información que complete el formato". Concibe los esquemas como "formatos"

(terminología de programación de ordenadores) que especifican de que tipo debe ser la

información para que sea interpretada de modo coherente. La información que no se

ajusta al formato no se llega a utilizar (selectividad perceptiva) [pag. 68-70, trad. cast.].

4) La atención. Neisser (1976) representa aquí la postura más radical cuando asegura

que una vez activado un esquema, éste opera como un dispositivo de selección

atencional, de manera que el individuo procesa, sobre todo, la información que encaja en

él, e ignora el resto. Kintsch y Van Dijk (1978) sostienen una opinión similar al considerar

que es desechada la información irrelevante desde el punto de vista del esquema,

formándose un extracto compuesto con información congruente con el esquema

directivo.

5) La organización de la conducta. Si bien todos los esquemas tienen un carácter

procedimental, hay algunos que están especialmente dirigidos a la acción. Estos

esquemas de acción o planes tienen en común las siguientes notas:

a) Requieren un agente. b) Se dirigen a metas ambientales. c) Se activan

intencionalmente. d) Se organizan jerárquicamente en metas, submetas, etc. e) Incluyen

métodos de planificación de la acción, formados por secuencias de acciones motrices

requeridas para alcanzar la meta. f) Son guiados, básicamente, por los datos, por lo que

requieren de una retroalimentación continuada.

6) El aprendizaje. En este campo, los esquemas han servido para ayudar a desentrañar

el mecanismo que regula la formación de nuevos esquemas. Hay tres formas básicas

(Rumelhart y Ortoni, 1977): i) Mediante la acumulación de conocimientos que hacen

crecer el esquema. ii) Mediante la práctica en la utilización del esquema. iii) Mediante

procesos de reestructuración.

7) El razonamiento y la solución de problemas. Funcionan como un plan del tipo

descrito por Miller, Galanter y Pribram(1960). Los esquemas han servido para conocer los

mecanismos que conducen a la solución, al aplicar unas reglas generales a un problema

concreto. Los procesos de razonamiento están mediatizados por nuestro conocimiento

Page 157: Aznar Alternativas Teoricas en Percepcion Raic

157

general del mundo, y por tanto se les puede considerar esquemáticos.

8) El lenguaje oral y escrito está también guiado por la activación de esquemas (Kintsch,

1980). Norman y Rumelhart (1981) explican la paráfrasis (expresar una frase con distintas

palabras) en base al concepto de esquema. Esta se debe a que en la memoria (y por

tanto en los esquemas) representamos proposiciones y no palabras (proposicionalistas).

9) La categorización Un esquema puede considerarse de hecho como una categoría

cognitiva (Abelson, 1981). Presentan siguientes coincidencias con las categorías

naturales:

Son difusos y existen en ambos (conceptos y esquemas) objetos más prototípicos y

otros menos representativos.Son jerárquicos, al igual que las categorías. Probablemente

los esquemas se generen por abstracción de prototipos a partir de experiencias

recurrentes, de modo análogo a la formación de prototipos conceptuales.

14.5. CONTENIDOS REPRESENTADOS POR LOS ESQUEMAS

Queremos resaltar aquí la gran variedad de dominios del conocimiento que pueden ser

representados mediante esquemas. Desde el punto de vista de las Teorías de Esquemas,

prácticamente todos los contenidos de la memoria humana están organizados total o

parcialmente en esquemas.

Los esquemas son representaciones, en principio válidas para todo tipo de áreas del

conocimiento. Entre las que han sido representadas en el devenir de ésta noción

destacamos:

A)Escenas visuales: marcos (frames). M.L. Minsky (1975) ofreció un influyente estudio

teórico de tales esquemas conceptuales, que él llama "frames". Se refiere al uso de

marcos (concebidos generalmente como modelos internos del mundo, o

representaciones epistemológicas sistemáticas) en una amplia variedad de dominios,

como los contextos visuales, de resolución de problemas y semánticos. Cada marco

representa información prototípica desde cierto punto de vista, de modo que una escena

determinada requiere un sistema de marcos que se van activando sucesivamente, a

medida que el observador se desplaza en el medio. Estos marcos funcionan de modo

Page 158: Aznar Alternativas Teoricas en Percepcion Raic

158

análogo a los esquemas: generan expectativas, permiten interpretar o comprender la

experiencia visual, hacen posible la inferencia de detalles que no hemos visto mediante el

relleno de valores ausentes, ayudan a memorizar y recordar escenas visuales, etc.

Además, este concepto de "marco" es tan explícito como para poder ser simulado en

programas de ordenador.

B)Situaciones: guiones (scripts). Un guión es una sucesión coherente de temas, donde

cada tema conduce al siguiente conforme cambia continuadamente la relación temática

entre los actores (Schank y Abelson, 1977). Abelson se pregunta en qué grado son

compartidos por la gente estos guiones o pequeñas narraciones, en cuyos términos las

personas conceptualizan, explican y predican el mundo social.

A modo de ilustración citaremos el guión "ir al médico", el cual consta de las siguientes

escenas: llegar a la consulta, decir el nombre a la enfermera, entrar en la sala de espera,

saludar, tomar asiento, esperar turno, tomar una revista, hablar con otros pacientes, etc.

C)Dominios temáticos. Kintsch y Van Dijk (1978), en su modelo de comprensión de

textos, introducen otro tipo de esquemas muy abstractos que, en su opinión, guían la

comprensión y la producción del discurso oral y escrito, especialmente cuando éste es

muy largo. Por ejemplo, cuando nos disponemos a leer un informe experimental,

esperamos una introducción al problema, una hipótesis, unas variables, una descripción

del método (con: sujetos, material, equipo, diseño, etc.), los resultados y una discusión

teórica.

D)Esquemas de autoconcepto o autorreferenciales. La mayoría de las personas poseen

un conocimiento muy articulado sobre si mismos, sus habilidades, debilidades, logros y

fracasos, preferencias, temperamento, etc. El autoesquema es una estructura cognitiva

muy diferenciada y articulada, y por tanto permite una mayor elaboración de la

información, cuando ésta se integra en dicho esquema (Bower y Gilligan, 1979, citado por

M. de Vega, 1984).

14.6. LA TEORIA DE ESQUEMAS

Hasta el momento presente, han aparecido numerosas Teorías de Esquemas, cada una

Page 159: Aznar Alternativas Teoricas en Percepcion Raic

159

con sus peculiaridades. Hasta aquí hemos intentado extraer las características generales

que comparten de algún modo.

En opinión del profesor de Vega (1984), la Teoría de Esquemas en su estado actual es

una formulación algo tosca. Sin embargo, su poder explicativo acompañado de una

indudable plausibilidad psicológica, la convierten en un núcleo teórico que por primera

vez nos permite vislumbrar la posibilidad de una Teoría Cognitiva unificada.

Así lo entendió el grupo LNR de la Universidad de California, dirigido por Rumelhart,

Norman y Lindsay, quienes integraron la Hipótesis del procesamiento de información con

la Teoría del Esquema propuesta por ellos mismos, señalando que no hay discontinuidad

entre percepción y comprensión (recordemos, una vez más, que la memoria es para ellos

un subproducto de la comprensión y/o la situación de prueba), sino que ambas se

insertan en un continuum que abarca desde un nivel de abstracción bajo hasta otro más

elevado. Percibir es comprender el estímulo sensorial (Rumelhart y Ortoni, 1977).

Por último señalaremos que las Teorías de Esquemas no sólo aportan principios

generales para explicar los fenómenos de la percepción, comprensión, memoria,

razonamiento, comportamiento, etc., sino que también permiten interpretar fenómenos

anómalos o atípicos que las teorías convencionales trataban de eludir o considerar

aberrantes. Citemos, entre éstos, la comprensión no literal que tiene lugar en la

metáfora, o el estudio de actos fallidos desde el punto de vista de esquemas o planes de

acción.

Con las ideas hasta aquí expuestas esperamos haber logrado mostrar una visión general

de este ascendente enfoque teórico, de modo que nos permita interpretar las

implicaciones teóricas sobre el ámbito de los fenómenos perceptivos y, concretamente,

la interacción sensorio-cognitiva que tiene lugar entre la información procedente del

estímulo y la almacenada en las estructuras del conocimiento.

Page 160: Aznar Alternativas Teoricas en Percepcion Raic

160

Capítulo XV: Marcos perceptuales (Frames)

Cuando percibo una casa, no veo una imagen que me entra en el ojo. Al contrario, veo un sólido en el que puedo entrar." (V. Weizsäcker, s. XX)

15.1. DEFINICION DE TERMINOS

Inicialmente es preciso establecer ciertas distinciones entre términos básicos que

abundan en el terreno del procesamiento visual no verbal, nos referimos a los términos

dibujo (picture), realidad y escena.

En opinión de Haber (1980), algunos autores consideran los dibujos como

construcciones artificiales y simplificadas de la realidad. En efecto, un dibujo reduce lo

tridimensional a bidimensional, lo que supone disminuir la complejidad y, en este

sentido, resultará más sencilla la percepción de un dibujo que la de su correlato real. En

consecuencia, consideran que en base a la experiencia se aprende a percibir qué es lo

que representan. El problema radica en que los datos empíricos recogidos, en lugar de

apoyar, contradicen esta hipótesis (Nelson, Metzler y Reed, 1974). Haber (1980) concluye

que resulta innecesario postular nuevos procesos, y un aprendizaje especial en la

percepción de dibujos, puesto que los sujetos pueden utilizar idénticos procesos y

estrategias que en la percepción de la realidad. Así, el sistema visual extrae información

sobre la profundidad de un dibujo en dos dimensiones (2D) a través de la interpretación

de un número determinado de pistas (Ejem.: gradiente de textura, tamaño, distancia,

solapamiento, etc.), aunque se pierdan otras claves, que se utilizan en la percepción de la

realidad, derivadas de la presencia física y activa del perceptor, tales como las

relacionadas con los movimientos corporales (cabeza, ojos) y la disparidad retiniana de la

visión binocular. Por consiguiente, dado que las pistas nos permiten percibir los dibujos

con profundidad (3D) puede admitirse cierta equivalencia funcional entre la percepción

de un dibujo y la percepción de la realidad que este representa, de modo que la

experiencia perceptual en la visión de la realidad puede extrapolarse, analógicamente, en

la identificación y reconocimiento de dibujos.

Page 161: Aznar Alternativas Teoricas en Percepcion Raic

161

No obstante, la equivalencia funcional entre dibujo y realidad no debe entenderse

como una correspondencia total. En esta línea, señala Gibson (1954) que, mientras en la

percepción de una escena natural (real) el sujeto utiliza abundante procesamiento

sensorial, periférico, en la percepción de un dibujo o fotografía no lo hace.

El término escena, que ordinariamente se refiere al espacio que simula el lugar donde

transcurre la acción teatral, en el ámbito del procesamiento visual se emplea para

designar la representación, mediante dibujo o fotografía, de un determinado lugar en el

plano (por ejem., dormitorio, cocina, granja, calle, etc.). Las unidades componentes de

una escena son los objetos,

dispuestos según relaciones espaciales (Mandler, 1984). En el procesamiento de una

escena interactúan la información sensorial, procedente del estímulo, con las estructuras

del conocimiento almacenadas en memoria; por tanto, se trata de una interacción

sensorio-cognitiva, que resultará más o menos automática según intervengan procesos

periféricos o centrales.

15.2. EXPLORACION DE ESCENAS

Al iniciar el procesamiento de escenas, acaecen unos procesos de atención selectiva de

los estímulos que la constituyen. La exploración del material pictórico, por los seres

humanos, no se realiza practicando un barrido exhaustivo, que comienza en un

determinado punto y sigue una cierta dirección, sino que, al contrario, transcurre según

estrategias de exploración que pueden estar guiadas por las propiedades más

sobresalientes del estímulo (data driven processing), por los conocimientos almacenados

en MLP a lo largo de experiencias pasadas (conceptually driven processing), o por la

interacción de ambos. El registro de los movimientos oculares durante la exploración de

una escena permite obtener una medida objetiva (VD experimental) del enfoque

atencional en un instante preciso, a la que han recurrido algunos investigadores (Loftus,

1972; Friedman, 1979). En tales movimientos oculares se distinguen dos componentes

diferenciados:

a) Las fijaciones oculares, en la cual los ojos permanecen casi estáticos durante periodos

Page 162: Aznar Alternativas Teoricas en Percepcion Raic

162

alrededor de los 300 msg. y en los que suele tener lugar la extracción de información.

b) Los movimientos sacádicos, en los que el sujeto desplaza, entre 5 y 10 grados, los

ojos sobre la escena, invirtiendo tiempos más breves (alrededor del 5% del tiempo de

exploración, Yarbus, 1967) y durante los cuales no se extrae información del estímulo

(Latour, 1962).

Estos movimiento oculares permiten conocer el lugar, el tiempo y la frecuencia con que

un sujeto centra su mirada sobre una escena, siendo posible establecer la amplitud de los

movimientos sacádicos o distancias que median entre dos fijaciones oculares

consecutivas. Los intereses, motivos y propósitos establecidos espontáneamente o

mediante instrucciones son factores relevantes en la exploración del dibujo (Yarbus,

1967) y, en general, las personas suelen fijar primero la mirada con más frecuencia y

duración en las áreas de mayor valor informativo (Mackworth y Morandi, 1967; Antes,

1974) y, posteriormente, examinan los detalles con más minuciosidad.

Loftus (1975) estableció 'a priori' una definición del valor informativo de un dibujo,

según la cual, este valor es inversamente proporcional a la probabilidad de verse incluido

en una escena, lo cual depende del efecto contextual y la tipicidad o experiencia del

sujeto. Ulteriormente, Loftus y Mackworth (1978) diseñaron un experimento para

someter a prueba su definición, llegando a la conclusión de que el número de fijaciones

oculares y el tiempo invertido en estas éstas era mayor en los objetos atípicos o de baja

probabilidad (altamente informativos) que en los objetos predecibles, además, los

primeros eran detectados antes.

Finalmente, Friedman (1979) estudió la relación entre fijaciones oculares y tipicidad,

encontrando que los objetos muy típicos de una escena se examinan más rápidamente

que los atípicos.

En resumen, las investigaciones revisadas hasta aquí nos permiten afirmar que las

personas detectan muy tempranamente los elementos que poseen mayor valor

informacional mediante procesos periféricos y, en base a estos procesos, determinan la

estrategia de exploración que provoca una mayor focalización de la atención sobre

ciertas áreas de la escena.

Page 163: Aznar Alternativas Teoricas en Percepcion Raic

163

15.3. IDENTIFICACION DE ESCENAS VERSUS RECONOCIMIENTO

En una investigación que evidenció la sorprendente capacidad humana para reconocer

estímulos anteriormente presentados, Shepard (1967) puso de relieve esta notable

capacidad al presentar secuencialmente a los sujetos 612 cuadros, a un promedio de 6

seg./imagen, aplicando pruebas de reconocimiento en distintos intervalos de retención.

Los resultados obtenidos indicaron un correcto reconocimiento inmediato del 97% de las

imágenes (9 de 35 sujetos obtuvieron el 100%); una semana después e la prueba el

reconocimiento se mantenía por encima del 90% y sólo después de haber transcurrido

cuatro meses el reconocimiento no difería del esperado al azar (58%).

Los hallazgos de Standing, Conezio y Haber (1970), todavía causan mayor admiración.

Hicieron estudiar 2560 diapositivas de escenas comunes a razón de 10 seg./imagen,

empleando de dos a cuatro días, y obtuvieron una retención inmediata del 90%, siendo el

máximo del 95% y el mínimo del 85%).

No obstante, si bien es elevada la capacidad de reconocimiento humana, debe tenerse

en cuenta que cuando se presentan las escenas con una tasa entre 3-8 imágenes por

seg., que se aproxima a la de las fijaciones oculares, el reconocimiento no es significativo

(Potter y Levy, 1969). Una aceptable interpretación que se dio a este hecho fue que los

sujetos no llegan a identificar las imágenes. Sin embargo, otros experimentos (Potter,

1975, 1976) sugirieron que, si bien las escenas lograban identificarse los sujetos no

conseguían recordarlas. Ulteriormente, Intraub (1979), mediante un paradigma

experimental denominado de "detección negativa" concluyó que la superioridad de la

detección sobre el reconocimiento podía atribuirse, no a la falta de tiempo para

identificarlo, sino al hecho de no disponer suficiente tiempo para codificar la información,

por lo que ésta era olvidada. Según Loftus (1972, 1976) la codificación de los detalles

tiene lugar en las sucesivas fijaciones oculares sobre el dibujo; sin embargo, el hecho de

que una demora interestimular en torno a 5 seg. aumente el reconocimiento, sugiere

que la codificación de detalles no sólo acontece durante el tiempo de exposición del

estímulo, sino que prosigue hasta que el icón se desvanece (Intraub, 1980).

Page 164: Aznar Alternativas Teoricas en Percepcion Raic

164

15.4. VARIABLES QUE INFLUYEN EN EL RECONOCIMIENTO

Reconocer significa decidir que un estímulo se ha experimentado anteriormente

(Mandler, 1981). El reconocimiento es función de numerosas variables, entre las que

destacan las seis que a continuación describimos:

1) La familiaridad, es la operación básica para el reconocimiento y se refiere a la

experiencia sensorial con el estímulo. Cuanto mayor es el tiempo de exposición de dicho

estímulo, mayor es el reconocimiento. Según Loftus (1972), no es meramente el tiempo

de exposición del estímulo el que debe asociarse a la experiencia de familiaridad, sino la

frecuencia y tiempo invertido en las fijaciones oculares.

2) La mediación verbal, que afecta al reconocimiento mediante la aplicación de

etiquetas verbales y/o almacenando una descripción verbal del estímulo durante el

tiempo de exposición.

3) El intervalo interestímulos, o período de tiempo transcurrido entre la exposición

secuencial de dos estímulos sucesivos, que permite una codificación de mayor número de

detalles, cuanto más prolongado es.

4) La demora temporal o intervalo de retención, que provoca un decaimiento del

reconocimiento a medida que aumenta. Si bien el reconocimiento disminuye con el

tiempo, cuando los estímulos son familiares, el decaimiento es menor (Shepard, 1967;

Bahrik, 1975).

5) La similitud interestímulos u homogeneidad de los estímulos de prueba, que hacen

disminuir el reconocimiento hasta no ser significativo respecto al azar. Goldstein y

Chance (1970) estudiaron el reconocimiento de diversos materiales, concluyendo que a

mayor homogeneidad (o similitud) implicaba un menor reconocimiento.

6)Los cambios estimulares o transformaciones de detalles en el estímulo original.

Baddeley y Patterson (1977) investigaron el reconocimiento de rostros de actores,

llegando a la conclusión de que el reconocimiento sin cambios era muy alto (98%),

mientras que con cambios (peinado, barba, gafas, bigote, etc.) descendía por debajo del

azar (45%).

Page 165: Aznar Alternativas Teoricas en Percepcion Raic

165

15.5. MARCOS PERCEPTUALES

En términos generales, las teorías del esquema sostienen que los sujetos van

construyendo estructuras de conocimientos (esquemas) a lo largo de su desarrollo

cognitivo, de manera que, posteriormente, estos esquemas guíen el procesamiento

perceptivo de manera cada vez más automática.

Las teorías del esquema han ido surgiendo como teorías sobre la representación del

conocimiento y resultan de un intento de ofrecer una explicación acerca de como utilizar

estos conocimientos en el reconocimiento de estímulos.

Una de estas teorías, que permiten interpretar contextos relativos a escenas visuales,

generan expectativas, contribuyen a la organización del recuerdo, etc., es la de los

"marcos perceptivos" (frames), la cual fue propuesta por Minsky (1975), trabajando en el

campo de la IA.

En un marco se halla representada información prototípica según un determinado

criterio y se hallan organizados jerárquica o heterárquicamente, en función de ciertos

niveles de abstracción o submarcos, los cuales se irán activando sucesivamente conforme

el sujeto interactúe con el medio. Así, por ejemplo, el marco 'casa' puede componerse de

los submarcos: pisos, escalera, ascensor, patio, garaje, etc.; el submarco piso se

compone, también, de otros submarcos de nivel inferior, tales como: cocina, dormitorio,

salón, baño, etc. y, cada uno de éstos, a su vez, se halla constituido por objetos más o

menos prototípicos.

Un sólo objeto o un reducido número de objetos puede activar un determinado marco

contextual y, viceversa, a partir de un marco se activan las expectativas de los objetos

típicos en él.

Con el fin de obtener una medición del grado de control que ejercen los marcos sobre la

información contenida en las escenas, Mandler y colaboradores (Mandler y Johnston,

1976; Mandler y Parker, 1976) clasificaron en cuatro grupos los 'tipos de información'

que contienen los esquemas. Estos son:

- Inventarial, encargada de especificar los objetos susceptibles de incluirse en el

marco, es decir, los que hay o puede haber.

Page 166: Aznar Alternativas Teoricas en Percepcion Raic

166

- De localización espacial, se ocupan de la información relativa a la posición de los

objetos y sus relaciones espaciales, esto es, donde están colocados.

- Descriptiva, contienen información sobre cómo son los objetos.

- De composición espacial, indican qué áreas del dibujo están rellenas y cuales vacías.

Para cuantificar estos tipos de información, registraron el TR o latencia de

reconocimiento y la precisión de las respuestas (número de aciertos y errores). Las

escenas presentadas a los sujetos, a razón de 5 seg./dibujo, podían ser organizadas o

desorganizadas y éstas, a su vez, podían ser originales o transformadas según ciertas

reglas relativas al tipo de información que controla el esquema (sustitución de un objeto,

supresión, movimiento lateral, intercambio de posición, etc.).

Los resultados obtenidos evidenciaban que el factor organizacional no influía sobre la

información inventarial, ni sobre la descriptiva; sin embargo, este factor organizativo

daba lugar a diferencias en el reconocimiento, al interactuar sobre la información de

localización, de modo que, si la escena era organizada, el reconocimiento era mayor y,

contrariamente, actuaba sobre la información de composición espacial, en el sentido de

que en las escenas desorganizadas el reconocimiento era superior.

Posteriores investigaciones (Mandler y Ritchey, 1977) pusieron de manifiesto que, en

pruebas de reconocimiento a largo plazo (intervalo de retención prolongado), el

reconocimiento en los ensayos relativos a información inventarial era más elevado en las

escenas organizadas que en las desorganizadas. Además, sugerían que, utilizando

escenas más complejas, o bien disminuyendo el tiempo de exposición de éstas,

probablemente, se incrementaría el acceso a la información inventarial en las escenas

organizadas. Respecto a la información descriptiva, los datos parecen insinuar que este

tipo de información no parece estar bajo control del esquema.

Friedman (1979) verificó, mediante una serie de experimentos, las predicciones de la

teoría de marcos, encontrando que la probabilidad de identificación de un objeto

contenido en una escena es inversamente proporcional a la probabilidad de hallarse este

objeto en el inventario del esquema, en otros términos, comprobó que el

reconocimiento era mayor cuando los objetos eran poco probables que cuando eran muy

probables. Interpretó que si los objetos encajan en las expectativas del esquema, la

Page 167: Aznar Alternativas Teoricas en Percepcion Raic

167

identificación es automática, pero si los objetos no son prototípicos del contexto de una

escena, requieren mayor focalización de la atención.

Por último, los trabajos experimentales de Goodman (1980), en relación con el

recuerdo, le llevan a afirmar que los sujetos primero recuerdan el tema del dibujo o

escena, luego los objetos más prototípicos en ese contexto y, finalmente, los de escasa

tipicidad, verificando así los supuestos de la teoría del esquema, que predicen un mejor

recuerdo para los objetos representativos del esquema y el olvido o recuperación tardía

de la información irrelevante para el esquema. Resumiendo lo hasta aquí expuesto, se

han verificado las funciones que cumplen los esquemas, guiando los procesos de

codificación contenidos en un esquema, así como la recuperación selectiva de la

información contenida, permitiendo predecir la probabilidad de reconocer la información

que alberga.

Page 168: Aznar Alternativas Teoricas en Percepcion Raic

168

Bibliografía ABELSON, R.P. (1981). Psychological status of the script concept. American Psychologist. Vol 36, 7, 715-729. ALLPORT, F.H. (1955) Theories of perception and the concept of structure. Nueva York: Wiley. AMES, A. (1946). Some demostration concerned with the origin and nature of our sensation: a lab manual.Dartmouth Eye Inst., Hanover, N.H. AMON, J. (1978). Estadística para psicólogos. Madrid: Pirámide, vol. 1. ANTES, J.R. (1974). The time course of picture viewing. Journal of Experimental Psychology, 103, 1, 62-70. ANDERSON, J.R. y BOWER, G.H. (1973). Human Associative Memory Ed. Winston & Sons. (Trad. cast. Memoria Asociativa. (1977). México: Limusa). ANDERSON, J.R. (1976). Language, Memory and Thought. Hillsdale, New Jersey: Lawrwnce Erlbaum Associates. ARDILA, A. (1980). Psicología de la percepción. México: Trillas. ATKINSON R.C. y SHIFFRIN R.M. (1968).Human Memory: A proposed system and its control processes. The Psychology of Learning and Motivation, 2, 2, 89-195. ATKINSON R.C. y SHIFFRIN R.M. (1971). The control of short-term memory. Scientific American, 225, 82-90. AVERBACH, E. y CORIEL, A.S. (1961). Short-Term memory in vision. Bell System Technical Journal, 40, 309-328. AVERBACH, E. y SPERLING, G. (1961). Short-Term storage of information in vision. En C. Cherry (Ed.): Information Theory. Butterworth. AZNAR, J.A. (1989): El continuum de eficacia en la recuperación: un marco integrador para el estudio de los comporta mientos mnémicos. Tesis doctoral no publicada. Universidad de Barcelona. BAHRICK, H.P.; BAHRICK, P.O. y WITTLINGER, R.P. (1975). Fifty years of Memory for Names and Faces: a cross-sectional approach. Journal of Experimental Psychol.: General, 104, 54-75. BARTLETT, F.C. (1932). Remembering. A study in experimental and social psychology. (reedic. 1977), Cambridge, Cambridge University Press. BARON, J. y THURSTON, I. (1973). Ananalysis of the word superiority effect. Cognitive Psychology, 4, 207-228. BLAKEMORE, C. y COOPER, G.F. (1970). Development of the brain de pends on the visual environment. Nature (Londres) 228, 477-478. BODEN, M.A. (1977). Artificial Intelligence and Natural Man. Brighton, Sussex: Harverter Press Limited. [Trad. cast. Madrid: Ed. Técnos, 1984]. BOWER, T.G.R. (1966). The visual world of infants. Scientifics American, 215, 80-92. BOWER, T.G.R. (1967). Phenomenal identity and form perception in an infant. Perception and Psychophysics, 2, 74-76. BOWER, T.G.R. (1971). The object in the world of the infant. Scientifics American, 225, 30-35. BRUNER, J.S. y POSTMAN, L. (1949). Perception Cognition and Behaviour. Journal of Peraonality, 18, 14-31. BRUNER, J.S.; GOODNOW, J. y AUSTIN, G.A. (1956 ). A Study of thinking. New York: Wiley & Sons. [Trad. cast. "El proceso mental en el aprendizaje". Madrid: Ed. Narcea S.A., 1978]. BRUNER, J.S. (1983). In search of mind. New York: Harper & Row. BRUNSWIK, E. (1955). Representative design and probability theory in a functional psychology. Psychological Review, 62, 193-217. CAPARROS, A.(1976). Historia de la Psicología. Tomos I-II. Barcelona: C.E.U. CAPARROS, A.(1977). El resurgir de la percepción en la Psicología contemporánea. Anuario de Psicología, 16, 63-94. CAPARROS, A.(1980). Los paradigmas en Psicología. Sus alternativas y sus crisis. Barcelona: Ed. Horsori. COLLINS, A.M. (1977). Why Cognitive Science. Cognitive Science, 1, 3-4.

Page 169: Aznar Alternativas Teoricas en Percepcion Raic

169

COLLINS, A.M. y LOFFTUS, E.F. (1975). A Spreading-Activation Theory of Semantic processing. Psychological Review, 82, 6, 407-428. CROWDER, R.G. (1982). The Psychology of Reading, an Introduction. Oxford University Press, Inc. (Trad. cast, Ed. Alianza, 1985). DAY, R.H.(1969). Human Perception. Australasia: Wiley & Sons. (Trad. cast., 1ª edic., 2ª reimpres.: Psicología de la percepción humana. México: Limusa DONCHIN, E. (1982). Cognitive Psychophysiology. Hillsdale, Nueva Jersey: L.E.A. DONCHIN, E.; RITTER, W. y McCALLUM, W.C. (1978). Cognitive Psy- chophysiology: the endogenous components of the ERP. En E. Callaway, P. Tueting y S. Koslov (Eds.) Event-Related Brain Potentials in Man. Nueva York; Academic Press. DONDERS, F.C. (1968). La vitesse des actes psychiques. Archives Néerlandaises. (Reedición en Acta Psychologica,30 1969, 412-431. FANTZ, R.L. y NEVIS, S. (1967). Pattern preferences and perceptual-cognitive development in early infancy. Merril-Palmer Quaterly, 13, 77-108. FERNANDEZ TRESPALACIOS, J.L.(1989). Object Perception and Pheno- menology. En B.E. Shepp y S. Ballesteros (Eds.). Object Perception: structure and process. Hillsdale New Jersey: L.E.A. (pp 1-17). FIRTH (1964). R. Austin and the argument from ilusion. Philosophical Review, 73, 372-382. FODOR, J.A. (1980). Methodological Solipsism Considered as a Research Strategy in Cognitive Psychology. Behavioral and Brain Sciences, 3, 63-110. FODOR, J.A. y PHYLYSHYN, Z.W. (1981). How Direct is Visual Perception: some reflections on Gibson's "ecological approach". Cognition, 9, 139-196 FORGUS, R.(1972). Percepción. Proceso básico en el desarrollo cognoscitivo. Mexico: Ed. Trillas, 2ª edición. FORGUS, R. y MELAMED, L.E.(1976). Perception: a Cognitive Stage Approach (2ª edic.). Nueva York: McGraw -Hill. (Trad. cast. 2ª edic. 1989. Percepción: estudio del desarrollo cognoscitivo. Mexico: Trillas). FRIEDMAN, A. (1979). Framing Pictures: the role of knowledge in automatized encoding and memory for gist. Journal of Experimental Psychology: General, 108, 3, 316-355. GALAMBOS, R. y HILLYARD, S.A. (1981). Electrophysiological approaches to human cognitive processing. Neuroscience Research Program Bulletin, 20, 141-265. GARDNER, H. (1975). The Shattered Mind: The Person after Brain Damage. Nueva York: Alfred A. Knopf. GARDNER, H.(1985). The Mind's New Science. A History of the Cognitive Revolution. New York: Basic Books, Inc. [trad. cast. (1988). Barcelona: Paidós]. GAZZANIGA, M.S. (1981). Nobel Prize for Physiology or Medicine. Science, 214, 517-518. GAZZANIGA, M.S. (1983). Right Hemisphere Language Following Com- misorotomy: a twenty-year perspective. American Psychologist, 38, 525-537. GIBSON, J.J. (1950). The Perception of the visual World. Boston: Houghton-Mifflin. GIBSON, J.J. (1954). A theory of pictorial perception. Audio-visual Comunications Review, 1, 1-23. GIBSON, J.J. (1959). Perception as a function of stimulatión. En S.Koch (Ed.), Psychology a study of a science. Vol.I. Sensory, perceptual, and physiological formulation. New York: McGraw-Hill, pag. 456-501. GIBSON, J.J. (1966). The Senses Considered as Perceptual Systems Boston: Houghton-Mifflin. GIBSON, J.J. (1967). New Reasons for Realism. Synthese, 17,162-72 GIBSON, J.J. (1969).Perceptual learning and development. New York Appleton-Century-Crofts. GIBSON, J.J. (1974). A note on ecological optics. En E.Carterette y M.Friedman (Eds.). Handbook of perception, vol. 1, pag. 335-340. Nueva York: Academic Press. GIBSON, J.J. (1979). The ecological approach to visual perception. Boston: Houghton-Mifflin. GIBSON, E.J. y WALK, R.D. (1960). The visual cliff. Scientific American, 202, 64-71. GIBSON, E.J.(1969). Principles of perceptual learning and development. Nueva York: Appleton. GLANZER, M. (1972). Storage Mechanisms in recall. The Psychology of Learning and Motivation, 5, 129-193.

Page 170: Aznar Alternativas Teoricas en Percepcion Raic

170

GOLDSTEIN, A.G. y CHANCE, J.E. (1970). Visual recognition memory for complex configuration. Perception and Psychophysics, 9, 237-241. GREEN, D.M. y SWETS, J.A. (1966). Signal Detection Theory and Psychophysics. New York: John Wiley. GREGORY, R.L. (1966). Eye and Brain. London: Weidenfeld and Nicolson. HABER, R.N. (1974). Procesamiento de información. En E.C. Carterette y M.P. Friedman (Eds.). Handbook of perception. [trad. cast. (1982), pag. 340-362. Mexico: Trillas]. HABER, R.N. (1980). Perceiving space from pictures: a theoretical analysis. En M.A. Hagen (Ed.). The perception of pictures. Vol. 1, New York: Academic Press. HEBB, D.O. (1949). The organization of behaviour. New York: Wiley HELSON, H. (1959). Adaptation-Level Theory. En S.Koch(Ed.). Psychology: a study of a science. New York:McGraw-Hill, 1, 565-621. HELSON, H. (1964). Adaptation-Level Theory: an experimental and systematic approach to behaviour. New York: Harper & Row. HILLYARD, S.A. y KUTAS, M. (1983). Electrophysiology of cognitive processing. Annual Review of Psychology, 34, 33-61. HINTON, G.E. y ANDERSON, J.A. (1981). Parallel Models of Associative Memory. Hillsdale, Nueva Jersey: L.E.A. HOFFMAN, J.E. (1980). Interaction Between Global and Local Levels of a Form. Journal of Experimental Psychology: Human Perception & Performance, 6 (2), 222-234. HUBEL, D.H. y WIESEL, T.N.(1959). Receptive Fields of Single Neurones in the Cat's Striate Cortex. Journal of Psychology, 148, 574-591. HUBEL, D.H. y WIESEL, T.N.(1962). Receptive Fields, Binocular interaction and Functional Architecture in the Cat's Visual Cortex. Journal of Psychology, 160, 106-154. HUBEL, D.H. y WIESEL, T.N.(1963). Receptive Fields of cells in striate cortex of very young, visually inexperienced kittens. Journal Neurophysiol., 26, 994-1002. HUBEL, D.H. y WIESEL, T.N.(1979). Mecanismos cerebrales de la visión. Investigacion y Ciencia Scientific American, 38, 100-115. INTRAUB, H. (1979). The role of implicit naming in pictorial en coding.Journal of Experimental Psychology: Human Learning and memory, 5, 2, 78-87. INTRAUB, H. (1979). Presentation rate and the representation of briefly glimpsed pictures in memory. Journal of Experimental Psychol.: Human Learn. and mem., 6, 1, 1-12. JOHNSON, R.A. (1986). A Triarchic Model of P300 Amplitude. Psy chophysiology, 23, 4, 367-384. JOHNSON-LAIRD, P.N. (1982). Propositional Representations, Procedural Semantics, and Mental Models. En J. Mehler, E.C.T. Walker y M. Garret (Comps.). Perspectives on mental representations: experimental and theoretical studies of cognitive processes and capacities. Hillsdale, N.J.: L.E.A. JOHNSTON, J. y McCLELLAND, J.L. (1974). Perception of letters in words: Seek not and eye shall find. Science, 184, 1192-1193. JOHNSTON, W.A. y HEINZ, S.P.(1978): Flexibility and capacity and demands of attention. Journal of Experimental Psychology: General, 107, 4, 420-435. KAHNEMAN, D.(1973): Attention and effort. Prentice-Hall. Englowood Clifts. N.J. KAHNEMAN, D. y TREISMAN, A.(1984). Changing views of attention and automaticity. En R. Parasuraman y D.R. Davies (Eds.): Varieties of attention. New York: Academic Press. KANIZSA, G. (1974). Contours Without Gradients or Cognitive Contours? Italian J. Psychol, 1, 93-112. KANIZSA, G. (1980). Gramatica del vedere. Bolonia: Societa Editrice Il Mulino. (Trad. cast., 1ª edic. 1986, Gramática de la visión. Percepción y Pensamiento. Barcelona: Paidós. KEATING, D.P. y BOBBITT, B.L. (1978). Individual and developmental differences in cognitive-processing components of mental ability. Child Development, 49, 155-167. KIMCHI, R. y PALMER, S.E. (1985): Separability and integrality of global and local levels of hierarchical patterns. Journal of Exp. Psychol.: Human Perception and Performance, 11, 673-688. KINCHLA, R. A. y WOLFE, J.M. (1979): The order of visual processing: "top-down", "bottom-up", or "middle-out". Perception and Psychophisics, 25, 225-231.

Page 171: Aznar Alternativas Teoricas en Percepcion Raic

171

KINCHLA, R. A., SOLIS-MACIAS, V. y HOFFMAN, J. (1983): Attending to levels of structure in a visual image. Perception and Psychophisics, 33, 1-10. KINTSCH, W. (1967): Memory and decision aspects of recognition learning. Psychological Review, 74, 496-504. KINTSCH, W. (1970). Memory and Cognition. (1ª edicion). New York: Wiley & Sons. KINTSCH, W. Y VAN DIJK, T.A. (1978). Toward a Model of Text Comprehension and Production. Psychological Rewiew, 85, 5, 363-394. KINTSCH, W. (1980). Psychological Processes in Discourse Production. Technical Report, Institute of Cognitive Science University of Colorado, 99. KOFFKA, K. (1935). The principles of gestalt psychology. Nueva York: Harcourt. KORCHIN, S.J. (1982): The legacy of H.A. Witkin. Contemporary Psychology, 27, (8), 602-604. KOSSLYN, S.M. (1978). Imagery and Internal Representation. En E. Rosch y B.B. Lloyd (Eds.). Cognition and Categorization. Hillsdale, N.J.: L.E.A. LaBERGE, D. (1975). Adquisition of automatic processing in perceptual and associative learning. En P.M.A.Rabbitt y S. Dornic (Eds.). Attention and Performance V. New York: Academic Press. LATOUR, P. (1962). Vision Thresholds during eye movements. Vision Research, 2, 261-262. LECOCQ, P. y TIBERGHIEN, G. (1981): Memoire et Decision. Lille: Presses Universitaires de Lille. LETTVIN, J.Y.; MATURANA, H.R.;McCULLOCH, W.S. y PITTS, W.H.(1959) What the frog's eye tells the frog's brain. Proceedings of the Inst. Radio Engr., 47, 1940-51. LINDSAY, P.H. y NORMAN, D.A. (1972). Human Information Processing. New York: Academic Press. (Trad. Cast. en Tecnos, 1976) LOFTUS, G.R. (1972). Eye fixations and recognition memory for pictures. Cognitive Psychology, 3, 525-551. LOFTUS, G.R. y BELL, S.M. (1975). Two types of information in picture memory. Journal of Exper. Psychol.: Human Learning and Memory, 104, 2, 103-113. LOFTUS, G.R. (1976). A framework for a Theory of picture memory. En J.W.Senders y R. Monty (Eds.). Eye movements and cognitive processes. Hillsdale, New Jersey: LEA. LOFTUS, G.R. y MACKWORTH, N.H. (1978). Cognitive determinants of fixation location during picture viewing. Journal of Experimental Psychology: Human Perception and Performance, 4, 565-572. LOGAN, G.D. (1978). Attention in character-classification tasks: evidence for the automaticity of component stages. Jour. of Exper. Psychol.: General, 107, 1, 32-63. LURIA, A.R. (1966). Higher cortical Function in Man. Tavistock Publications. MACKWORTH, N.H. y MORANDI, A.J. (1967). The gaze selects informative details within pictures. Perception and Psychophysics, 2, 547-551. MALAPEIRA, J.M., HONRUBIA, M.L. y VIADER, M. (1990). Psicología experimental: conceptos básicos. Esplugues (Barcelona): Edit. Gráficas signo, S.A. MANDLER, J.M. y JOHNSON, N.S. (1976). Some of the thousand words a pictures worth. Journal of Experimental Psychology: Human Learn. and mem., 2, 5, 529-540. MANDLER, J.M. y PARKER, R.E. (1976). Memory for descriptive and spatial information in complex pictures. Journal of Exper. Psychol.: Human Learn. and mem., 2, 1, 38-48. MANDLER, J.M. y RITCHEY, G.H. (1977). Long-Term Memory for pictures. Journal of Experimental Psychology: Human Learn. and mem., 3, 4, 386-396. MANDLER, G. (1981). The Recognition of Previous Encounters. American Scientist. 69, 211-217. MANDLER, G.(1985). Cognitive Psychology. An Essay In Cognitive Science. Hillsdale, New Jersey: LEA Inc. Publishers. MANDLER, J.M.(1984). Stories, scripts and scenes: aspects of schema theory. Hillsdale, New Jersey: L.E.A. MANKELIUNAS, M.V. (1980). Los modelos en psicofísica. En A. Ardila (dir.). Psicología de la percepción. Mexico: Trillas. MARTIN, M. (1979): Local and global processing: The role of sparsity. Memory and Cognition, 7, 476-484. MARR, D. (1975). Analysing natural images. A computacional theory of texture vision. MIT A.I. Lab.,

Page 172: Aznar Alternativas Teoricas en Percepcion Raic

172

memo 334. MARR, D. (1982). Vision. San Francisco, New York: W.H. Freeman & company. (trad. cast. 1985. Visión. Madrid: Alianza). McCLELLAND, J.L. (1979). On the time Relations of Mental Processes. An Examination of Systems of Processes in Cascade. Psychological Review, 86, 4, 287-330 McCLELLAND, J.L.; RUMELHART, D.E. (1981). An Interactive Activation Model of Context Effects in Letter Perception: Part 1. An Account of Basics Findings. Psychological Review, 88, 375-407. McCLELLAND, J.L.; RUMELHART, D.E. (1985). Parallel distributed processing: Explorations on the microstructure of cognition. Vol.2-Aplications. Cambridge, MA: MIT P. MEYER D.E., OSMAN A.M., IRWIN D.E. y KOUNIOS J. (1988): The Dynamics of Cognition and Action: Mental Processes Inferred From Speed-Accuracy Descomposition. Psychological Review, 95, 2, 183-237. MICHIE, D. (1974). On Machine Intelligence. Edimburgo: Edinburgh University Press. MILLER, G.A. (1956). The magical number seven, plus or minus two: some limits on our capacity for processing information. Psychological Review, 63, 81-97. MILLER, G.A.; GALANTER, E. y PRIBRAM, K.H. (1960). Plans and the structure of behaviour. Holt, Rinehart & Winston, Inc. MILLER, J. (1981): Global precedence in attention and decision. Journal of Exp. Psychol.: Human Perception and Performance, 7, 1161-1174. MILLER, J. (1979). Cognitive influences on perceptual processing. Journal of Exper. Psychol.:Human Perception and Performance, 5, 546-562. MILLER, J. (1982): Discrete Versus Continuous Stage Models of Human Information Processing: In Search of Partial Output. Journal of Experimental Psychology: Human Perception and Performance, 8, 2, 273-296. MINSKY, M. (1975). Frame-system theory. En R.C. Schank y B.L. Nashwebber (Eds.): Theorical issues in natural language processing.Preprints of a conferencia at MIT. MURDOCK, B.B.,Jr. (1962): The serial position effect of free recall. Journal of Exp. Psych., 64, 482-488. NÄÄTÄNEN, R.; GAILLARD, A. y MÄNTYSALO, S. (1977). Early selective-attention effect on evoked potential reinterpreted. Acta Psychologica (Neederlan), 42, 313-329. NAVON, D. (1977). Forest Before Trees: The Precedence of Global Features in Visual Perception. Cognitive Psychology, 9, 353-383. NAVON, D. (1981). The Forest Revisited: More on Global Precedence. Psychological Research, 43, 1-32. NAVON, D. (1984): Resources-A theoretical souf stone? Psychological Review. 91, 216-234. NAVON, D. y GOPHER, D. (1979): On the economy of the human-processing system. Psychological Review. 86, Nº 3, 214-255. NAVON, D. y MILLER, J. (1987): Role of outcome conflict in dualtask interference. Journal of Experimental Psychologi: Human Perception and Performance. 13, Nº 3, 435-438. NEISSER, U. y WEENE, P. (1960).A note on human recognition of hand-printed characters. Inform. & Control, 3,191-6. NEISSER, U. (1963). Decision-time without reaction-time: Experiments in visual scanning. American Jour. Psychol., 76, 376-385. NEISSER, U. (1967). Cognitive Psychology. New York: Meredith Publishing Company. [Trad. cast. Mexico: Ed. Trillas 1976]. NEISSER, U. (1976). Cognition and Reality. Principles and implications of cognitive psychology. San Francisco: W. H. Freeman and Co. [Trad. cast. Madrid: Ed. Marova, 1981]. NEISSER, U. (1982). Memory: What are the important questions? En U.Neisser (ED.), Memory Observed. Remembering in natural contexts. San Francisco: Freeman & Cia. NEISSER, U. (1984). Toward an Ecologically Oriented Cognitive Science. Memory Cognition Project. Atlanta, Georgia. Report I, Enero-84. NELSON, T.O.; METZLER, J. y REED, D.A. (1974). Role of details in the long-term recognition of

Page 173: Aznar Alternativas Teoricas en Percepcion Raic

173

pictures and verbal descriptions. Journal of Exper. Psychol., 102,1, 184-186. NORMAN, D.A. (1968). Toward a Theory of Memory and Atention. Psy chological Review, 75, 6, 522-536. NORMAN, D.A. y BOBROW, D.G. (1975): On data-limited and resource limited processes. Cognitive Psychology. 7, 44-64. NORMAN, D.A y BOBROW, D.G. (1979). Sobre el papel de los procesos activos de la memoria en la Percepción y la cognición. En Cofer, C.H. (Ed.), The structure of human memory. San Francisco: Freeman & Company. (Trad. cast. , Barcelona: Omega, S.A.). NORMAN, D.A. (1980). Twelve Issues for Cognitive Science. Cognitive Science, 4, 1-32. NORMAN, D.A. (1981). Perspectives on cognitive science. Norwood, New Jersey: Ablex Publishing. NORMAN, D.A. y RUMELHART, D.E. (1975). El LNR Research group (1981). Explorations in cognitions. San Francisco: Freeman. NORMAN, D.A. y RUMELHART, D.E. (1981). El LNR aproach to Human Information Processing. Cognition, 10, 235-240. NORMAN, D.A. (1982-1987). Perspectivas de la Ciencia Cognitiva. Barcelona: Ed. Paidós. PACHELLA, R.G. (1974): The interpretation of rection time in information processing research. En Kantowitz, B.H. (Ed.): Human Information Processing. Hillsdale, New Jersey: L.E.A. PALMER, S.E. (1975). Visual Perception and World Knowledge: Notes on a Model of Sensori-Cognitive Interaccion. En Norman, D.A. y Rumelhart, D.E. (Eds.) Explorations in cognition. San Francisco: Freeman and Co. PALMER, S.E. (1977). Hierarchical Structure in Perceptual Representation. Cognitive Psychology, 9, 441-474. PATTERSON, K.E. y BADDELEY, A.D. (1977). When face recognition fails. Journal of Exper. Psychol.: Human Learning and Memory, 3, 406-417. PHILLIPS, J.L. (1969). The Origins of intellect Piaget's Theory. San Francisco: W.H. Freeman and Company. [Trad. cast. Barcelona: Ed. Fontanella, 1977). PIAGET, J. (1926). La representation du monde chez l'enfant. Paris: PUF. (Trad. cast. Madrid: Morata, 4ª ed., 1978. PIAGET, J. (1950). Introduction á l` epistemologie genetique. P.U.F., Paris. [Trad. cast. Buenos Aires: Paidós, 1975]. PINILLOS, J.L. (1975). Principios de Psicología. Madrid: Alianza Editorial. 12ª edición. POSNER, M.I.; GOLDSMITH, R. Y WELTON, K.E.(1967). Perceived distance and the classification of distorted patterns. Journal of Experimental Psychologye, 73, 28-38. POSNER, M.I. Y KEELE, S.W.(1968). On the genesis of abstract ideas. Journal of Exper. Psychology, 77, 353-363. POSNER, M.I. (1969). Abstraction and the process of recognition. En Bower, G. y Spence, J.T. (Eds.): Psychology of learning and motivation.(vol 3) New Yorh: Academic Press POSNER, M.I. y BOIES, S. (1971). Components of attention. Psychological Review, 78, 5, 391-408. POSNER, M.I. (1978). Chronometric Explorations of mind. Hillsdale, New Jersey: Lawrence Erlbaum Associates. POTTER, M.C. y LEVY, E.I. (1969). Recognition memory for a rapid sequence of pictures. Journal of Experimental Psychology, 81, 1, 10-15. POTTER, M.C. (1975). Meaning in visual search. Science, 187, 165-166. POTTER, M.C. (1976). Short-Therm Conceptual Memory for pictures. Journal of Experimental Psychology: Human Learning and memory, 2, 5, 509-522. PRIBRAM, K.H. (1971). Languages of the Brain Experimental Paradoxes and Principles in Neuropsychology. Englewood Cliffs, New Jersey: Prentice-Hall. RATCLIFF, R. (1978): A Theory of Memory retrieval. Psychological Review, 85, 2, 59-108. RATCLIFF, R. (1985): Theoretical Interpretation of the Speed and Accuracy of Positive and Negative Responses. Psycological Review, 92, 2, 212-225. RATCLIFF, R. (1988): Continuous versus Discrete Information Processing: Modeling Acumulation of

Page 174: Aznar Alternativas Teoricas en Percepcion Raic

174

Partial Information Psychological Review, 95, 2, 238-255. RATCLIFF, R. y MURDOCK, B.B.,Jr.(1976): Retrieval Processes in recognition memory. Psychological Review, 83, 3, 190-214. REICHER, G.M. (1969). Perceptual Recognition as a function of the meaningfulness of the stimulus material. Journal of Experimental Psychology, 81, 275-280. ROCK, I. (1983). The logic of Perception. Cambridge, Massachusetts: The M.I.T. Press. ROSCH, E. (1973). Natural Categories. Cognitive Psychology, 4, 328-350. RUMELHART, D.D. y SIPLE, P. (1974). Process of recognizing tachistoscopically presented word. Psychologycal Review, 81, 99-118. RUMELHART,D. (1977). Introduction to human information processing. New York: John Wiley & Sons. [Trad. castell. "Introducción al proceso de información". Mexico: Ed. Limusa, 1983]. RUMELHART, D.E. y ORTONY, A. (1977). The representation of knouledge in memory. En Anderson, R.J.; R.J. Spiro y W.E. Montague (Eds.). Schooling and the adquisition of knowledge. Hillsdale, New Jersey: L. Erlbaum Asoc. RUMELHART, D.E. (1979). Some problems with the notion of literal meaning. En A. Ortony (Ed.) Metaphor and Thought. Cambridge: Cambridge University Press. RUMELHART, D.E. (1980). Schemata: The Building Blocks of Cognition. En Spiro, R.J.; Bruce, B.C. y Brewer, (Eds.) Theoretical Issues in reading comprehension. Hillsdale, New Jersey: Lawrence Erlbaum Associates. RUMELHART, D.E. y McCLELLAND, J.L. (1981). Interactive processing through Spreading Activation. En Lesgold, M.A. y Perfetti, C.D. (Eds.): Interactive processes in reading. Hillsdale, New Jersey: LEA. RUMELHART, D.E. y McCLELLAND, J.L. (1982). An interactive activation model of context effects in letter perception: Part 2. The contextual enhancement effect and some test and extensions of the model. Psychologycal Review, 89, 60-94. RUMELHART, D.E. y McCLELLAND, J.L. (1986). Parallel Distributed Processing. Exploration in the microstructure of cognition. Vol 1. Cambridge, MA.: MIT Press. SCHANK, R.C. Y ABELSON, R.P. (1977). Scripts, plans, goals and understanding. An inquiry into human knowledge structures. New Jersey: Lawrence Erlbaum Associates. SCHNEIDER, W. y SHIFFRIN, R.M. (1977): Controlled and automatic human information processing: I. Detection, search, and attention. Psychological Review. 84, 1, 1-66. SELFRIDGE, O.G. (1959). Pandemonium: a paradigm for learning. Londres: H.M. Stationery Office. SHEPARD, R.N. (1967). Recognition Memory for Words, Sentences and Pictures. Journal of verbal learning and verbal behavior, 6, 156-163. SHIFFRIN, R.M. (1970). Memory Search. En D.A. Norman (Ed.), Models for memory. New York: Academic Press. SHIFFRIN, R.M. y SCHNEIDER, W. (1977): Controlled and automatic human information processing: II. Perceptual Learning automatic attending and general theory. Psychological Review. 84, 2, 127-189. SIMSON, R.; VAUGHAN, H.G. y RITTER, W. (1977). Scalp topography of potentials in auditory and visual go Negotasks. Electroencephalografy and clinical Neurophysiology. SPERLING, G. (1960). The information available in brief visual presentations. Psychological monographs General and Applied, 74, 11, p. 29. SPERLING, G. (1963). A model for visual memory task. Human Factors, 5, 19-31. SPERRY, R.W. (1974). Lateral Specialization in the Surgically Separated Hemispheres. En F.Schmitt y F.G. Worden (Ed.) The Neurosciences: Third Study Program. Cambridge, Massachusset: MIT Press. STANDING, L.; CONEZIO, J. y HABER, R.N. (1979). Perception and memory for pictures: single-trial learning of 2500 visual stimuli. Psychonomic Science, 19, 73-74. STERNBERG, S. (1966): High speed scanning in human memory. Science, 153, 654. STERNBERG, S. (1967): Retrieval of contextual information from memory. Psychonomic Science, 8, 55-56. STERNBERG, S. (1969): Memory scanning: mental processes by reaction time experiments. American Scientist, 57, 4, 421-457. STERNBERG, S. (1975). Memory Scanning: New Finding and current controversies. Quaterly Jour. of

Page 175: Aznar Alternativas Teoricas en Percepcion Raic

175

Exper. Psychology, 27, 1-132. STERNBERG, S. (1975). Memory Scanning: New findings and current controversies. Quaterly J. of Experimental Psichology, 27, 1-32. STEVENS, S.S. (1957). On the Psychophysical law. Psychological Review, 64, 153-181. SUTTON, S.; BRAREN, M.; ZUBIN, J. y JOHN, E.R. (1965). Evoked-Potential correlates of stimulus uncertainly. Science, 150, 1187-1188. TANNER, W.P. y SWETS, J.A. (1954). Decision-Making Theory of Visual Detection. Psychological Review, 61, 401-409. THURSTONE, L.L. (1929). Fechner's law and the method of equal appearing intervals. Journal of Exp. Psychol, 12, 214-24. TREISMAN, A. (1977). Focused attention in the perception and retrieval of multidimensional stimuli. Perception and Psychophisics, 22, 1-11. TREISMAN, A. Y GELADE, G. (1980). A feature-integration theory of attention. Cognitive Psychology, 12, 97-136. TREISMAN, A. Y SCHMIDT, H. (1982). Illusory conjuntions in the perception of objects. Cognitive Psychology, 14, 1, 107-141. TVERSKY, A. y KAHNEMAN, D. (1983). Extensional vs. Intuitive reasoning: The conjunction fallacy in probability judgment. Psychological Review, 90, 293-315. VEGA, M. de (1984). Introducción a la Psicología cognitiva. Madrid: Ed. Alianza D.L. WALDROP, M. (1984). Artificial Intelligence (I): Into the world. Science, 223, 802-805. WARD, L.M. (1982): Determinants of attention to local and global features of visual form. Journal of Exp. Psychol.: Human Perception and Performance, 8, 562-581. WERNER, H. y WAPNER, S. (1952). Toward a general theory of perception. Psychological Review, 59, 324-338. WICKELGREN, W.A. (1977). Speed-accuracy tradeoff and information processing dynamics. Acta Psychologica, 41, 67-85. WICKENS, D.D. (1970). Encoding categories of words: an empirical approach to meaning. Psychological Review, 77, 1-15. WICKENS, D.,D. (1980). The structure of attentional resources. En Nickelson (Ed.). Attention and Performance VIII. Hillsdale, N.J. LEA. WINOGRAD, T. (1972). Understanding Natural Language. Nueva York Academic Press. WINSTON, P. H. (1.975): Artificial intelligence. Reading, Massa chuset, Addison-Wesley. WITKIN, H.A. y ASCH, S.E. (1948). Studies in space orientationIII. Perception of the uprigth in the absence of a visual field. Journal of Experimental Psychol., 38, 762-782 WITKIN, H.A. (1950). Individual differences in ease of perception of embedded figures. Journal of Personality, 19, 1-15 WITKIN, H.A.; DIK, R.B.; FATERSON,H.F.; GOODENOUGH y KARP.(1962): Psychological Diferentiation: studies of develop ment. New York, Wiley and Sons. WITKIN, H.A. y GOODENOUGH, D.R. (1977). Field Dependence and In terpersonal Behaviour. Psychological Bulletin, 84, 4, 661-689. YARBUS, A.L. (1967). Eye movements and vision. New York: Plenum.