bloque 2cap 4 5 y 6

40
Bloque 2: Método. Estructuras y Procesos de inteligencia Capitulo 4: Métodos de investigación en el estudio de las diferencias individuales Cuadro 4.1 El “cubo de datos” de R.B. Catell El Cubo de Datos de Cattell o la matriz básica de datos representa los diferentes tipos de relaciones bivariadas que pueden darse entre las variables objeto de estudio. En concreto, las relaciones entre las variables pueden representarse mediante un cubo cuyas tres dimensiones se corresponden con las tres fuentes de variación existentes: personas (o individuos), situaciones (tests) y ocasiones (tiempo). Cada una de las caras del cubo representa un tipo de relación bivariada posible, es decir, se ponen en relación dos de las tres variables (o dimensiones) y se mantiene constante la tercera variable (o dimensión). El Cubo da lugar a seis tipos de análisis divariados (Fig. 4.2): La técnica R (la más frecuente) y la técnica Q estudian en una sola ocasión (momento temporal) personas y tests (situaciones o variables). La primera correlaciona pares de variables (tests) en múltiples personas y trata de hallar factores ( o dimensiones generales que engloban múltiples variables) que los agrupen y administrarlos; y la segunda correlaciona individuos a través de múltiples tests con el fin de formar grupos de individuos que tengan en común cualidades, intereses, etc.. Ambas técnicas no informan sobre la variabilidad intraindividual . Las técnicas P y O estudian en un único sujeto las relaciones entre ocasiones y tests. La primera estudia el cambio intraindividual a lo largo del tiempo y la segunda se centra en determinar qué grupo de situaciones afectan a una persona a lo largo del tiempo. Las técnicas S y T estudian en una variable concreta (Test o conducta) las relaciones entre ocasiones y personas. La primera determina las semejanzas y diferencias que hay entre un grupo de personas, a lo largo del tiempo, en función de una conducta objeto de estudio; la segunda las estudia semejanzas y diferencias entre ocasiones de observación de esa particular variable en la muestra de personas. 1. Investigación en diferencias individuales 1. Las dos disciplinas de la Psicología científica La psicología científica históricamente se ha dividido en dos disciplinas que se pueden considerar complementarias. a. La psicología experimental Esta disciplina se encuentra enraizada en las investigaciones de Wundt y Pavlov, ambos adaptaron la metodología empleada por la fisiología experimental al estudio de las actividades psíquicas. El objetivo fundamental de esta corriente es comprender los fenómenos estudiados basándose en la causalidad provocada experimentalmente bajo control del investigador. Trata de encontrar Leyes Generales objetivas que expliquen la relación causal que existe entre las variables estudiadas, se centra en los procesos y relaciones funcionales que existen entre las variables, 26

Upload: gustavo-alejandro-del-vecchio

Post on 24-Dec-2015

15 views

Category:

Documents


4 download

DESCRIPTION

intuición

TRANSCRIPT

Page 1: Bloque 2cap 4 5 y 6

Bloque 2: Método. Estructuras y Procesos de inteligenciaCapitulo 4: Métodos de investigación en el estudio de las diferencias individuales

Cuadro 4.1 El “cubo de datos” de R.B. Catell

El Cubo de Datos de Cattell o la matriz básica de datos representa los diferentes tipos de relaciones bivariadas que pueden darse entre las variables objeto de estudio. En concreto, las relaciones entre las variables pueden representarse mediante un cubo cuyas tres dimensiones se corresponden con las tres fuentes de variación existentes: personas (o individuos), situaciones (tests) y ocasiones (tiempo). Cada una de las caras del cubo representa un tipo de relación bivariada posible, es decir, se ponen en relación dos de las tres variables (o dimensiones) y se mantiene constante la tercera variable (o dimensión).

El Cubo da lugar a seis tipos de análisis divariados (Fig. 4.2): La técnica R (la más frecuente) y la técnica Q estudian en una sola ocasión (momento temporal) personas y tests (situaciones o variables). La primera correlaciona pares de variables (tests) en múltiples personas y trata de hallar factores ( o dimensiones generales que engloban múltiples variables) que los agrupen y administrarlos; y la segunda correlaciona individuos a través de múltiples tests con el fin de formar grupos de individuos que tengan en común cualidades, intereses, etc.. Ambas técnicas no informan sobre la variabilidad intraindividual.

Las técnicas P y O estudian en un único sujeto las relaciones entre ocasiones y tests. La primera estudia el cambio intraindividual a lo largo del tiempo y la segunda se centra en determinar qué grupo de situaciones afectan a una persona a lo largo del tiempo.

Las técnicas S y T estudian en una variable concreta (Test o conducta) las relaciones entre ocasiones y personas. La primera determina las semejanzas y diferencias que hay entre un grupo de personas, a lo largo del tiempo, en función de una conducta objeto de estudio; la segunda las estudia semejanzas y diferencias entre ocasiones de observación de esa particular variable en la muestra de personas.

1. Investigación en diferencias individuales1. Las dos disciplinas de la Psicología científicaLa psicología científica históricamente se ha dividido en dos disciplinas que se pueden considerar

complementarias.a. La psicología experimental

Esta disciplina se encuentra enraizada en las investigaciones de Wundt y Pavlov, ambos adaptaron la metodología empleada por la fisiología experimental al estudio de las actividades psíquicas.

El objetivo fundamental de esta corriente es comprender los fenómenos estudiados basándose en la causalidad provocada experimentalmente bajo control del investigador. Trata de encontrar Leyes Generales objetivas que expliquen la relación causal que existe entre las variables estudiadas, se centra en los procesos y relaciones funcionales que existen entre las variables, desde una perspectiva generalista. Trata de poder explicar, predecir y controlar el comportamiento humano.

La Psicología experimental sigue el principio de causalidad y se enmarca dentro del paradigma Estímulo-Respuesta (E-R). Realiza un análisis sistemático de los efectos producidos sobre la denominada variable dependiente a partir de la manipulación de otra variable independiente, manteniendo constante cualquier otro parámetro que pudiera incidir sobre la relación funcional objeto de estudio y que pudiera contaminar los resultados obtenidos.

Mediante el control se trata de garantizar, en la medida de lo posible, que todos los cambios de la VD se deban exclusivamente a la manipulación de la VI, es decir, que el experimento tenga una elevada validez interna eliminando la varianza de error que pudiera interferir. El interés de la orientación experimental es estudiar la varianza entre tratamientos, por ello se procura suprimir la influencia de las diferencias individuales (varianza entre individuos), que en este ámbito representan un tipo de varianza de error a desestimar.

En este sentido, se trata de reducir la varianza de error formando grupos experimentales que sean homogéneos en las variables organísmicas (o de sujeto). Dicha homogeneización se obtiene mediante la asignación aleatoria de cada sujeto a los distintos grupos experimentales sobre los que posteriormente se aplicará una condición de la VI. La aleatorización distribuye la variabilidad entre las diferentes condiciones experimentales. Otro aspecto que contribuye a minimizar la influencia de la variabilidad individual es contar con un número elevado de sujetos por cada grupo experimental.

26

Page 2: Bloque 2cap 4 5 y 6

Una vez se garantiza la homogeneidad, se debe realizar un riguroso control de la manipulación sobre las variables situacionales, para poder evaluar las hipótesis de causalidad que se plantearon.

Desde el punto de vista estadístico, el método experimental en sus comienzos descriptivos se baso en la estimación de los parámetros de tendencia central o promedio. Posteriormente, al estudiar la influencia causal que una VI tiene sobre una VD, desarrolló análisis uni- o divariados, con un claro predominio del Análisis de la Varianza (AVAR).

b. La psicología correlacional Los precursores de la Psicología correlacional son F. Galton y Ch. Spearman.Se basa en el principio de correlación y se enmarca dentro del paradigma Respuesta –

Respuesta (R-R); mediante estrategias correlacionales trata de descubrir las posibles relaciones de covariación (variación conjunta) existentes entre múltiples variables. En esta disciplina se habla en términos de covariación entre múltiples variables y de cómo se agrupan estas entre sí (no de causalidad).

El objetivo es describir, ordenar y clasificar los datos observados tal y como éstos se manifiestan en la naturaleza. Así, mediante la observación del organismo se trata de inferir las dimensiones y estructuras de los fenómenos estudiados, analizando las relaciones de interdependencia entre las variables observadas.

La psicología de las diferencias individuales estudia las variables endógenas que no se pueden manipular experimentalmente, ya sea por razones externas a la variable (aspectos de carácter histórico por ej.) o debido a causas internas a la misma, como el color de ojos, sexo, etc.

La psicología correlacional se mantiene en estadios descriptivos relativos a las interdependencias existentes entre las variables consideradas; se centra en el estudio de la varianza entre individuos y concibe la “varianza del tratamiento” como la “varianza de error a desestimar”. De hecho las variables ambientales (varianza entre tratamientos) pueden afectar a la manifestación de las diferencias naturales observadas entre las personas, atenuando o enmascarando la relevancia de las mismas. El paradigma correlacional exige tratamientos uniformes (control de las variables ambientales o situacionales) para garantizar la validez externa de las diferencias individuales observadas.

En cuanto a las técnicas estadísticas, en un comienzo se centraron en parámetros de dispersión como la desviación típica y la varianza; después, desarrollaron el coeficiente de correlación para estudiar las semejanzas hereditarias, lo cual transformó la investigación diferencial descriptiva en el estudio de la organización mental. Esta técnica represento el punto de partida del Análisis Factorial y de otras técnicas multivariadas.

El estudio psicológico de las diferencias individuales avanza mediante una sucesión de diferentes ciclos inductivo – hipotético – deductivo, en donde la metodología correlacional predomina en un primer estadio, y las aproximaciones experimentales en un segundo estadio.EXPERIMENTAL CORRELACIONAL EXPERIMENTAL CORRELACIONAL

Antecedentes Tipo de experimentoW. Wundt/ I. Pavlov

Woodworth/E.C Tolman

Galton/ Spearman

R.B Catell/ H.J Eysenck

Provocado. El fenómeno se produce cuando el investigador

lo decide

Invocado. El fenómeno a investigar es

preexistente a la investigación

Origen Estudia

Asociacionismo Evolucionismo La varianza entre tratamientos

La varianza entre individuos

Paradigma Varianza de error a desestimar

E-R R-R Las diferencias individuales

La varianza entre tratamientos

Objeto de estudio Perspectiva

Procesos y relaciones funcionales

Dimensiones y estructuras

Nomotética Estudio de las Leyes Generales

Nomotético-Idiográfica Estudio de las

diferencias individualesVariables que investiga Tipo de medidas

Exógenas (tiempo de reacción simple,...)

Endógenas (inteligencia,

extraversión,...)

Dependencia (causalidad)

Interdependencia (covariación)

27

Page 3: Bloque 2cap 4 5 y 6

Variables organísmicas Técnicas de análisis estadístico

Homogeneizadas al azar

Control por asignación Uni – o bivariadas Multivariadas

Variables situacionales Procedimientos estadísticos predominantes

Riguroso control manipulativo

Controladas por muestreo

Análisis de la varianza AVAR

Análisis Factorial (AF)

Control Estadístico en el que se basan

Manipulativo No manipulativo Promedio Desviación típica y varianza

Validez predominante Efectos buscados al estudiar las variables

Interna Externa (ecológica) Causación Covariación

Ámbito de investigación Materias afines

Laboratorio Contexto natural (Medio externo/ mundo

interno del sujeto)

Psicología experimental, básica,

fisiología,...

Psicometría, personalidad,

Psicología educativa,...

2. Diseños de investigación en el estudio de las diferencias individuales Las distintas estrategias técnico – metodológicas de investigación estarán vinculadas a una serie

de técnicas estadístico – analíticas que posibilitaran el logro de objetivos propuestos. Si bien, las hipótesis descriptivas y de predictivas han sido habituales en psicología diferencial de corte clásico, cada vez un número mayor de investigación parte de hipótesis de carácter explicativo asociadas a métodos teóricos.

Según Burgaleta, tres serán las cuestiones a dilucidar: Identificar la función que cumplen las variables analizadas al operativizar las hipótesis; Identificar las variables extrañas y moduladoras, a fin de establecer los procedimientos

adecuados para su control Elegir las técnicas de análisis de datos adecuadas a las hipótesis planteadas.De acuerdo con Arnau, los teóricos del método científico han distinguido tradicionalmente tres

tipos de estrategias de investigación (Fig. 4.4): La descriptiva. La correlacional (método selectivo). La manipulativa.

Cuadro 4.3 Técnicas Multivariadas en el estudio de las diferencias individuales* Las técnicas multivariadas con las herramientas estadísticas más utilizadas en la PD. El concepto multivariado se refiere a un amplio rango de estrategias de investigación y de análisis de datos con muchas variables simultáneamente. Estas estrategias se desarrollaron para cubrir tanto un objetivo descriptivo como inferencial en estadística, suponen, en muchos casos, una extensión de técnicas univariadas y divariadas. * Estos análisis se dividen en técnicas o modelos de interdependencia (vinculados al paradigma R-R, de carácter descriptivo y basados en la covariación entre las variables estudiadas) y de dependencia (vinculados al paradigma E-R). a. Técnicas de interdependencia: Estudian la covariación entre múltiples variables, y posibilitan describir, clasificar y hallar estructuras latentes (o constructos) de interés en los fenómenos estudiados. Los datos observados se reducen a una serie de dimensiones con el fin de obtener una estructura que facilite describir los fenómenos estudiados. También proporcionan la base para posteriores análisis de relaciones de dependencia. El modelo de interdependencia a utilizar dependerá de la estructura de las relaciones que se pretenda obtener en función del fenómeno observado y del carácter métrico o no métrico de las variables a estudiar. b. Técnicas de dependencia: Estudian una serie de VI para predecir y explicar una o más VD. Mediante estas técnicas se intenta conocer cómo funciona la relación entre VI y VD. A las VI se las denomina Variables predictoras (se utilizan para hacer la predicción); las VD reciben el nombre de Variables Criterio (son empleadas para estudiar si la predicción es adecuada o no)* Además de este criterio clasificatorio, se ha considerado el tipo de escala de medida de las diferentes variables estudiadas. En concreto, las variables pueden ser de dos tipos:

28

Page 4: Bloque 2cap 4 5 y 6

Métricas (cuantitativas), ya que se puede medir la cantidad o magnitud que en esa variable presenta cada sujeto y además permite comparar en una escala graduada en unidades iguales la puntuación de cada sujeto con respecto a los demás.

No métricas (cualitativas), aquellas que sólo designan una cualidad o atributo del fenómeno a estudiar pero no permiten una cuantificación.*En resumen, la elección de un análisis multivariante concreto estará condicionado por el modelo seguido, por la escala de medida de cada variable, por el número de variables y por el objeto de estudio propuesto.

1. Manipulabilidad de los diseños 1. Diseños “ex-post-facto”

Según Kerlinger la investigación ex–post–facto es una búsqueda sistemática empírica, en la cual el científico no tiene control directo sobre las variables independientes, porque ya acontecieron sus manifestaciones o por ser intrínsecamente no manipulables. Se hacen inferencias sobre las relaciones entre ellas, sin intervención directa, a partir de la variación concomitante de las VI y VD.

Los diseños ex–post-facto se caracterizan por:- El investigador no puede manipular ni tampoco modificar la VI, puesto que ya viene dada (Ej.:

Variable sexo)- El investigador, al no poder realizar una asignación aleatoria de los sujetos a las condiciones

experimentales, lleva a cabo una selección de los sujetos en función de que posean o no determinadas características relacionadas con la variable independiente. (Ej.: Si los sujetos de ojos marrones son mas sensibles al alcohol que los sujetos de ojos azules)

Estos diseños se concibe la VD como el constructo descriptivo que debe explicarse, y como VI aquella que tiene valor explicativo. Un criterio fundamental, en esta distinción, será el orden de sucesión temporal de ambos constructos (la VI es anterior a la VD)

Se establecen dos tipos de diseños en el estudio de las diferencias individuales, también denominados métodos comparativos:

a. Diseños correlacionales Engloban todos aquellos procedimientos destinados a explorar y estructurar un campo de

observación dado, así como al estudio de hipótesis de naturaleza meramente relacional, con diversos grados de complejidad y aproximación a niveles inferenciales de orden explicativo. Se analizan estos aspectos según objetivos propuestos, el tipo de relación inferido y las técnicas estadísticas a emplear(Fig. 4.5).:

i. Objetivos descriptivos Los diseños correlacionales de covariación (o descriptivos) son de gran utilidad en campos poco

estudiados o demasiado complejos para establecer taxonomías o dimensiones básicas. Facilitarán el posterior enunciado de hipótesis empíricas más elaboradas en función de las relaciones detectadas. Según los propósitos de la investigación se pueden distinguir los siguientes apartados:

Análisis de relaciones: Siempre que el objetivo básico de la investigación sea conocer las relaciones entre variables de interés, las estrategias de investigación serán de tipo correlacional. Las técnicas estadísticas específicas son el índice de correlación de Pearson para las muestras paramétricas, y el índice de correlación de Spearman para muestras no paramétricas con datos de carácter original. El estudio de las relaciones entre variables es de gran utilidad para explorar nuevas áreas de conocimiento.

Análisis de estructuras: Se refiere a la posibilidad de encontrar estructuras subyacentes que puedan inferirse de la realidad observada y de reducir un cúmulo de variables a un número restringido y parsimonioso de agrupaciones significativas de carácter conceptual (hipotéticas). Es decir, posibilita ordenar, agrupar y clasificar la realidad observada mediante la extracción de los aspectos comunes que subyacen a las relaciones entre las diferentes variables estudiadas.

Para lograr este objetivo se recurre a múltiples técnicas multivariadas de interdependencia. De todas ellas, la técnica que destaca es el análisis factorial, esta técnica obtiene intercorrelaciones entre una serie de variables observadas y la estructura que subyace a las relaciones entre dichas variables. La estructura factorial extraída puede ser unidimensional, bidimensional o tridimensional.

El análisis factorial clásico es conocido como “análisis factorial exploratorio”. Este análisis permite inferir la estructura de los fenómenos estudiados tales como la inteligencia, la personalidad, etc. , sin embargo ha sido tradicionalmente una técnica meramente exploratoria en la búsqueda de unidades psicológicas significativas, por lo que uno de sus problemas mas serios es la “invarianza factorial”. A juicio de Mulaik una toma de conciencia creciente respecto a la

29

Page 5: Bloque 2cap 4 5 y 6

ambigüedad de los resultados arrojados por el análisis factorial, al reconocer la existencia de un problema de “indeterminación factorial”, ha impulsado el desarrollo de técnicas estadísticas cada vez más potentes entre las que destaca “el análisis factorial confirmatorio”.

El análisis factorial exploratorio es útil en la elaboración de hipótesis relativas a la organización del mudo que se observa (fase inductiva); el análisis factorial confirmatorio (fase deductiva) pretende abordar la evaluación y el correcto ajuste de modelos teóricos elaborados previamente a los resultados obtenidos. Su objetivo será estimar si la estructura factorial que los datos configuran se ajusta a un modelo teórico a priori.

Cuadro 4.5 El análisis factorial * El Análisis Factorial exploratorio es una técnica multivariante de interdependencia que estudia las interrelaciones entre un elevado número de variables observadas (también denominadas manifiestas, iniciales o patentes). Su objetivo es extraer la información que se oculta en estas variables, obteniendo un conjunto más pequeño de variables latentes denominadas factores.* Para realizar un análisis factorial es preciso seguir las siguientes fases: - Seleccionar las variables a factorizar según el objeto de estudio. - Calcular la matriz de correlaciones entre variables. - Extraer la matriz factorial básica. - Rotar la solución factorial siguiendo unos criterios determinados, facilitando la interpretación de las relaciones entre las variables. Existen dos tipos de rotación diferenciados: oblicua (cuando se cree que los factores están interrelacionados, permite establecer estructuras factoriales de tipo jerárquico basadas en la sucesiva factorización de los factores obtenidos en niveles previos de carácter más específico) y ortogonal (técnica y matemáticamente más adecuada ya que se entiende que los factores representan dimensiones independientes entre sí). - Interpretar conceptualmente la matriz factorial rotada.

ii. Objetivos predictivos Cuando el conocimiento de las variables que se van a estudiar permite establecer una división

entre las posibles variables predictoras (variables independientes) y variables criterio (variables dependientes), técnicas como el análisis de regresión (simple o múltiple), el análisis discriminante, o la correlación canónica permiten estimar la potencia predictiva del modelo previamente elaborado. La elección de un tipo de análisis u otro estará en función de la naturaleza de las variables (métricas o no métricas) y del número de variables predictivas y criterio. Los modelos de regresión permiten estimar, a partir del análisis de las relaciones entre los datos recogidos, los valores o magnitudes de cambio.

iii. Objetivos explicativos Según Hair, existen cuatro criterios para realizar afirmaciones causales: a. asociaciones

suficientes entre dos variables, b. antecedentes temporales de la causa frente al efecto, c. falta de alternativas a las variables causales; y d. una base teórica para la relación.

Sus ventajas para la psicología de las diferencias individuales son: en primer lugar, que permiten trabajar con variables latentes a los indicadores externos con los que se trabaja, y, en segundo lugar, concluir acerca del ajuste de los datos desde un modelo estadístico a un modelo teórico postulado a priori. Esto posibilitara la obtención de indicadores externos adecuados para los propósitos de la investigación.

b. Diseños propiamente comparativos Son calificados de planes experimentales que, a diferencia de los anteriores, no están

fundamentados en la estimación de covariaciones sino en el análisis comparativo de valores medios. Se pretende estudiar si existen diferencias estadísticas significativas al comparar las puntuaciones medias que obtienen diferentes grupos en la VD de interés; responderían a este apartado aquellas investigaciones que analizan como efecto principal las diferencias existentes entre niveles representativos de una VI ligada a características personales no manipulables. Dentro de estos diseños también se incluyen las diferencias intergrupales.

A diferencia de los experimentos, en estos diseños no se pueden manipular las VI para observar los cambios producidos en la VD y tampoco se pueden formar los grupos mediante una aleatorización de los sujetos. Estas dificultades incrementan el riesgo de realizar interpretaciones impropias al no poder descartar las llamadas hipótesis alternativas, lo que se traduce en serias restricciones al pretender establecer relaciones funcionales de tipo causal entre VI y VD.

30

Page 6: Bloque 2cap 4 5 y 6

Los análisis estadísticos más utilizados son “t de Student” que permite comparar dos grupos en una variable dependiente cuantitativa; el Análisis de la varianza “ANOVA” utilizado para comparar tres o más grupos; y el análisis multivariado de varianza “MANOVA” útil para comparar grupos en dos o más variables dependientes.

2. Diseños cuasi – experimentales Son aquellos estudios en los que, si bien no puede establecerse una aleatorización de los

sujetos, sí pueden manipularse, de forma sistemática, las condiciones o tratamientos a los estos sujetos experimentales son expuestos, es decir, pretenden analizar la interacción existente entre fuentes de variación individual significativa y determinadas situaciones. Por sus características son considerados por muchos autores como el auténtico puente entre dos aproximaciones extremas, la experimental y la correlacional.

En el estudio de las diferencias individuales, representan una vía de análisis que hace más factible el contraste de hipótesis relativas a los procesos subyacentes y al valor funcional de las variables personales a través del estudio de la interacción con el contexto o, de forma más específica, mediante aquellas manipulaciones experimentales diseñadas al efecto. Por ello posibilitan un acercamiento progresivo al estudio científico de las diferencias individuales dentro de un marco interactivo.

3. Temporalidad de los diseños Históricamente se han diferenciado dos tipos de diseños temporales o evolutivos: transversales y

longitudinales. Ambos tienen como objeto genérico de estudio los cambios vinculados a la edad cronológica (VI) en la VD estudiada.

La edad cronológica es una variable de selección, es una variable que proporciona un mayor juego metodológico que el resto de variables de selección, porque además de permitir realizar comparaciones intergrupales en función de la edad, posibilita estudiar el cambio que se produce a lo largo del tiempo.

La edad no es la causante del cambio sino los procesos evolutivos que actúan en función de la edad, tales como la maduración, el aprendizaje y la interacción entre ambos.

Tabla 4.2diseños transversales DISEÑOS LONGITUDINALES

Recogida de datos

Sincrónica Diacrónica

DiseñoIntersujeto (o de medidas independientes)

Intrasujeto (o de medidas repetidas)

Variable constante

Un único momento temporal Una única muestra generacional

Objeto de estudio

Las diferencias entre edades Cambios (variación) con la edad

ProcedimientoComparar diferentes grupos de edad en la VD

Estudiar la evolución de cada sujeto a lo largo del tiempo en la VD

Aspectos positivos

- Mayor economía, facilidad y rapidez- Baja tasa de abandonos- Control de los efectos históricos

- Mayor garantía explicativa- Análisis real de los cambios

observados- Control de los efectos de cohorte

Principal sesgo metodológico

Los efectos de cohorte o de generación Los efectos históricos o del aprendizaje

1. El diseño transversal Recoge los datos de forma sincrónica, ya que se estudia en un mismo momento temporal, una

VD determinada en diferentes grupos de sujetos seleccionados según edad cronológica. El objeto de interés de este diseño es estudiar las diferencias entre edades, y por lo tanto se

emplea un diseño intersujeto o de medidas independientes (al comparar grupos de edad diferentes en la VD de interés.)

Estos diseños han sido utilizados y lo son por la mayor economía, facilidad y rapidez, tanto de aplicación como de obtención de resultados; muestran una baja tasa de abandonos y permiten el control de los efectos históricos

Limitaciones: El efecto de cohorte, representa un sesgo metodológico. Una cohorte de edad (o

generación) es un grupo de personas que han nacido en el mismo año, y por lo tanto, han tenido las 31

Page 7: Bloque 2cap 4 5 y 6

mismas influencias históricas; por ello cuando se encuentran diferencias al comparar diferentes cohortes de edad, no se pueden atribuir exclusivamente a la edad cronológica, sino también a todas las influencias culturales y ambientales.

Dificultad para establecer con propiedad relaciones causales. No sabe hacia dónde se podría dirigir el cambio de cada generación o de cada individuo. Dentro de una generación evaluada se incluyen sujetos que tienen la misma edad

cronológica pero con diferentes niveles de maduración o procesos de cambio, tales como la edad mental, la edad biológica o la edad social.

2. El diseño longitudinal Obtiene datos de forma diacrónica, ya que estudia en diferentes momentos temporales el cambio

que se produce vinculado a la edad en la VD de interés. Emplea diseño intrasujeto o medidas repetidas. Por consiguiente, este diseño representa una opción alternativa al transversal, así como una aproximación a la contrastación de hipótesis explicativas, dado que introduce una dimensión temporal que permite estimar el sentido del cambio; es decir, cada una de las variables es evaluada en diversos momentos temporales que, según decida el investigador, pueden variar en cuanto a su frecuencia y extensión.

Estos diseños controlan el efecto de cohorte, también se les puede denominar diseños de intracohorte. Mediante estos diseños los cambios observados en un mismo individuo se pueden generalizar a los cambios en los grupos de edad. De todas formas, estas estrategias no resuelven el problema de la espueridad, es decir, no se asegura que la relación encontrada entre la VD e VI se deba a la influencia causal de una tercera variable, de tal forma que si ésta se neutralizara desaparecería la relación observada. A pesar de ello, el uso de modelos estructurales (que tratan de desentrañar las complejas relaciones causa – efecto) pueden también contribuir a una mayor consolidación de los datos obtenidos.

El diseño longitudinal simple, permite, a diferencia del transversal, estimar directamente los efectos ocasionados por la edad. Su estrategia metodológica presenta una serie de limitaciones:

Efectos históricos o efectos de aprendizaje: se puede confundir el efecto de la edad con el efecto asociado al momento en el que se realizó la prueba.

Mayores costes de realización y organización que los diseños transversales Elevada tasa de abandonos (también denominada mortandad experimental) Ausencia de equivalencia en los instrumentos de evaluación empleados para edades

diferentes Ceñirse al estudio de una sola generación, limita la investigación a un análisis de los

efectos propios de dicha generación. Responde sólo al estudio de las características de una generación.

Los investigadores motivados por estas limitaciones han sugerido algunas modificaciones, dando lugar a:

Diseño longitudinal transverso: combina ambos diseños mediante un seguimiento longitudinal de varios grupos generacionales y análisis de cortes transversales entre los mismos. Con lo que se podría apreciar cuáles son los efectos propios de la edad y cuáles son producto de la generación de pertenencia.

Diseño longitudinal de poblaciones: tomando una población como referencia, en estos, varían los sujetos pero se mantiene la población (edad o edades) objeto de estudio. Este diseño permite estimar cómo afectan los cambios sociales y culturales a la población.

32

Page 8: Bloque 2cap 4 5 y 6

Capítulo 5: Naturaleza y estructura de las diferencias individuales en inteligencia

Cuadro 5.3 La inteligencia A, B y CInteligencia A: Potencial innato que posee cada individuo para poder aprender y adaptarse al entorno, siendo necesario para desarrollarse intelectualmente. Esta genéticamente determinado, y mediado por la complejidad y plasticidad del SNC, su sustrato biológico fundamental.Inteligencia B: Manifestación de la inteligencia de los individuos en su vida cotidiana, más cercana a lo que se entiende por Inteligencia práctica o Inteligencia Social.Inteligencia C: Aquello que miden los tests de CI, es decir, la “Inteligencia Psicométrica”, evaluada a través de problemas estandarizados.Los autores que defienden los modelos biológicos sostienen que la Inteligencia A es la

auténtica, ya que no esta contaminada por ningún tipo de factor externo como el temperamento, la motivación o la cultura (Eysenck).Los críticos de las medidas reduccionistas (Stemberg) abogan por la inteligencia B, en la

medida en que incluye aspectos muy relevantes para la vida cotidiana de las personas, que la inteligencia biológica y Psicométrica no contemplan.

Cuadro 5.4 Principales ventajas y desventajas de la metáfora geográficaPrincipales ventajas*Presentar una especificación muy concreta y clara de las estructuras mentales que se componen*Proporcionar una operativización directa de los factores propuestos a partir de los tests mentales desarrollados a tal efecto.*Disponer de una metodología cuantitativa muy sofisticada para abordar sus investigacionesPrincipales desventajas*Mostrar énfasis insuficiente en los procesos mentales*Las teorías derivadas del Análisis Factorial exploratorio presentan dificultades de falsación, por lo tanto no se puede probar que un modelo dado no es erróneo.*Indeterminación en las posibles soluciones factoriales, da lugar a distintas alternativas, porque no se puede deducir que un modelo sea la única solución posible.*Excesiva dependencia de las diferencias individuales (como único objetivo de estudio)*Una capacidad de generalización cuestionable de sus resultados al tipo de inteligencia cotidiana que los individuos desarrollan.

Cuadro 5.5 Principales ventajas y desventajas de la metáfora computacionalPrincipales ventajas*Presentar una especificación detallada de procesos y estrategias mentales*Llevar a cabo un análisis experimental de las tareas en tiempo real*Disponer de una gama extensa de sofisticados recursos informáticosPrincipales desventajas*Escaso énfasis en las estructuras contempladas en el enfoque psicométrico, como fuente de diferencias individuales*La comparación de la mente al funcionamiento del ordenador es cuestionable*Dificultades de generalización de los resultados a la vida cotidiana

Cuadro 5.6 Principales ventajas y desventajas de la metáfora biológicaPrincipales ventajas*Establecer fundamentación biológica de los procesos intelectuales*Procedimientos y técnicas experimentales habitualmente objetivas y precisas.*Evaluación libre de sesgos culturales (aunque aún no se tenga evidencia empírica)Principales desventajas*Muchos de los resultados aún no tienen aplicación práctica (aunque sean prometedores)*Generalmente sus procedimientos no tienen en cuenta el contexto donde se produce la conducta*Las interpretaciones causales argumentadas por los autores no pueden derivarse, aún, de los datos obtenidos.

33

Page 9: Bloque 2cap 4 5 y 6

Cuadro 5.7 Principales ventajas y desventajas de la metáfora antropológicaPrincipales Ventajas*Reconocer el papel que los roles culturales tienen en la determinación de lo que constituye la conducta inteligente y su posible naturaleza*Presentar un mayor potencial para aplicar de forma transcultural la teoría*Reconocer la necesidad de adaptar y ajustar la evaluación de la inteligencia a cada contexto culturalPrincipales desventajas*El funcionamiento cognitivo se especifica de forma imprecisa o no se trata del todo.*Las teorías, en general, adolecen de falta de detalles importantes y de elaboración.*Posiciones excesivamente extremas que conducen a considerar la inteligencia como algo diferente en cada cultura, carecen de parsimonia.

Cuadro 5.8 Principales Ventajas y desventajas de la metáfora sistémicaPrincipales Ventajas*Reconocer la multiplicidad de elementos y procesos inherentes a la inteligencia*Integrar niveles múltiples de análisis*La amplitud de las habilidades consideradas como integrantes de la inteligenciaPrincipales Desventajas*La gran dificultad de poner a prueba las teorías (no imposibilidad)*Menos parsimonia por la complejidad de las teorías propuestas*Algunas teorías están más desarrolladas en la extensión de los elementos que abordan, que en un análisis profundo de los mismos

Cuadro 5.9 Razones principales para la defensa de la existencia de “g”1. La manifestación universal de un fenómeno de covariación positiva entre todos los tests de inteligencia. Este factor da cuenta del mayor porcentaje de varianza explicada del rendimiento en una amplia variedad de pruebas mentales.2. Cumple con el criterio científico de parsimonia en la explicación de los fenómenos.3. Representa a nivel científico una definición operativa de la inteligencia que presenta una gran utilidad práctica4. Ser la fuente de diferencias individuales más amplia en todas aquellas actividades cognitivas que suponen un cierto grado de complejidad mental y una escasa automatización de las demandas de ejecución.5. Presenta una estabilidad temporal notable6. Alta validez predictiva en el ámbito académico y laboral7. Tiene relación con otras variables objetivas (independientes del Análisis Factorial) como las psicofisiológicas o los estudios experimentales sobre cronometría mental.

Cuadro 5.10 Razones para un acercamiento entre las concepciones unitarias y múltiples de la inteligencia

1. Los propios Spearman y Thurstone llegaron a aproximar sus posturas. Spearman reconoció la existencia de los factores de grupo y colaboró con Holzinger en el desarrollo de una teoría que abarcara tanto factores específicos como el factor “g”; Thurstone admitió la posibilidad de existencia de correlaciones entre sus capacidades primarias, representadas por factores de primer orden, potenciando procedimientos metodológicos destinados a la búsqueda de factores de orden superior más amplios y generales (como la rotación factorial oblicua) y a la obtención de la denominada estructura simple. De este modo, obtuvo un factor tentativamente interpretado como de segundo orden (catalogado de razonamiento inductivo) cuya similaridad con “g” debía ser validada empíricamente a partir de otros estudios. Guildford interpretando que los factores pueden ser psicológicamente dependientes, ha reconocido la evidencia de que puedan haber factores de orden superior. 2. Cuando el investigador toma la decisión acerca de si utilizar rotación de ejes o no, y en el caso de que sí, si el tipo de rotación va a ser ortogonal u oblicua, así marca el modelo final planteado al impedir o facilitar la relación entre los factores de orden superior, y por tanto llegar a “g” a través de la rotación oblicua, permite aproximar posturas y desarrollar modelos integradores. Muchos autores defienden que todos los datos factoriales son finalmente compatibles formando parte de un continuo heterogéneo y jerárquico.

34

Page 10: Bloque 2cap 4 5 y 6

Cuadro 5.11 “Corriente científica principal sobre la inteligencia”: Evidencia sobre el CI y su evaluación

Aportaciones/declaraciones de un grupo de 50 expertos. El documento apoya la evidencia relativa al CI y su medida a través de los tests psicométricos.Significado y medida de la inteligencia1. La inteligencia es una capacidad mental muy general que, entre otras cosas, implica la habilidad para razonar, planificar, resolver problemas, pensar abstractamente, comprender ideas complejas, aprender con rapidez y aprender de la experiencia; refleja una capacidad amplia y profunda para la comprensión del entorno, para ser capaz de capturar el significado de las cosas y darlos un sentido, o para ingeniárselas a la hora de saber qué hacer.2. La inteligencia, así definida, puede ser medida, y los tests de inteligencia la miden correctamente. Este tipo de tests se encuentran entre los más precisos (fiabilidad y validez) de todos los tests y procedimientos psicológicos de evaluación.3. Aunque existen diferentes tipos de tests de inteligencia, todos ellos miden la misma inteligencia4. La distribución de las personas a lo largo del continuum del CI, desde los niveles bajos a los altos, puede ser correctamente representado por la curva normal .5. Los tests de inteligencia no están culturalmente sesgados.6. Los procesos cerebrales que subyacen a la inteligencia se conocen poco aún. La investigación actual busca, por ejemplo, en la velocidad de transmisión neural, el gasto de glucosa y la actividad eléctrica del cerebro.Importancia práctica1. El CI se relaciona notablemente con numerosos eventos educacionales, ocupacionales, económicos y sociales importantes. Lo que quiere que sea lo que el CI mide, es de gran importancia práctica y social.2. Un CI alto es una ventaja en la vida porque prácticamente todas las actividades requieren en alguna medida de razonamiento y toma de decisiones.3. La ventaja práctica de poseer un mayor CI se incrementa en la medida en que la vida se vuelve más compleja4. Las diferencias en inteligencia no son los únicos factores que afectan el rendimiento en la educación, el entrenamiento y en trabajos altamente complejos, pero a menudo la inteligencia es la más importante.5. Ciertos rasgos de personalidad como talentos, aptitudes, capacidades físicas, experiencia, etc. Son importantes, pero siempre con una aplicabilidad más reducida (o desconocida) y una capacidad de generalización menor. A veces esos otros rasgos se identifican como otras “inteligencias”.

1. Principales modelos estructurales de la inteligencia En el marco de la metáfora geográfica, los modelos psicométricos tradicionales elaborarán los

denominados modelos estructurales de la inteligencia. El estudio de la disposición estructural de la inteligencia generará los modelos psicométricos tradicionales, vinculados al estudio diferencialista.

El objetivo central de los modelos estructurales ha sido la descripción de la inteligencia humana y la elaboración de sistemas taxonómicos del rendimiento cognitivo en función de las diferencias individuales encontradas. Para alcanzar este objetivo dos han sido las cuestiones fundamentales a dilucidar:

¿Cuáles y cuántas son las habilidades a lo largo de las cuáles las personas pueden diferir?

¿Qué estructura presenta el conjunto de dichas habilidades; que configuración se deduce de las mismas?

El estudio de la estructura de la inteligencia a nivel de rasgo se ha realizado fundamentalmente a partir de una herramienta estadístico-matemática denominada Análisis Factorial Exploratorio, técnica que extrae las dimensiones o factores que subyacen a las interrelaciones entre un elevado número de variables observadas. Es decir, pretende extraer la variación conjunta que tienen en común las variables observadas con la mínima pérdida de información. En este sentido la inteligencia puede inferirse a partir del análisis factorial exploratorio del rendimiento cognitivo

1. Principales estructuras de organización de la inteligencia Con respecto al número de factores, las propuestas discurren entre las posturas esgrimidas por

Spearman y Thurstone – unicidad (unidimensionalidad) o multiplicidad (Multidimensionalidad), respectivamente. La polémica se planteará entre el primer modelo psicométrico postulado por

35

Page 11: Bloque 2cap 4 5 y 6

Spearman en su Teoría de los dios factores (o modelo general de inteligencia) a favor de la existencia de un factor único de inteligencia general y múltiples factores de carácter irrelevante y específico para cada una de las tareas, y el Modelo de habilidades primarias múltiples e independientes de Thurstone.

Existen múltiples concepciones en torno a la estructura que configuran los factores. La mayor parte de los psicólogos diferencialistas terminarán por considerar que la inteligencia es de naturaleza jerárquica. Asimismo, los modelos jerárquicos más importantes permitirán solventar la dicotomía unicidad/multiplicidad en torno al número de factores que componen la inteligencia. Fig. 5.15

1. Modelos factoriales no jerárquicos de la inteligencia El objetivo de los modelos factoriales no jerárquicos de la inteligencia es conocer la totalidad de

los componentes o “aptitudes mentales” de la inteligencia, abogando por la utilidad de su consideración.

a. Un modelo de inteligencia general: el modelo de Spearman La concepción de la inteligencia de Spearman es entendida como una facultad unitaria referida a

la capacidad cognitiva “general” del individuo. Su legado también se dejó notar en el ámbito estadístico matemático. Spearman es considerado el “padre” del estudio factorialista de la inteligencia, además de serlo desde la perspectiva actitudinal (estructural) como procesual.

Descubrió que al administrar diferentes pruebas de inteligencia a una muestra de sujetos, todas ellas correlacionaban positivamente entre sí, aunque con diferente magnitud o grado de correlación. Esto le llevó a considerar que existe un componente general al que denominó Factor “g” y un componente específico, factor “s”, que se correspondería con la información específica de cada test, sin relación con “g”.

b. Modelos de capacidades mentales primarias independientes: los modelos de Thurstone y Guildford

Modelo de capacidades mentales primarias de Thurstone Thurstone contribuyó al progreso del análisis factorial a partir del desarrollo del análisis factorial

múltiple, útil para encontrar el número de factores independientes que resumen las relaciones entre los distintos tests de inteligencia, y de un tipo de rotación factorial orientada a encontrar la estructura factorial más simple.

Thurstone postuló la existencia de siete factores independientes entre sí que daban cuenta de todas las correlaciones obtenidas entre distintos tests de inteligencia, lo que le llevó a considerar dos aspectos:

Negar la existencia de un factor “g” de carácter único y general. Es más acertado y útil evaluar la inteligencia de una persona teniendo

en cuenta las aptitudes básicas que la componen, que el hipotético factor “g”. Para él la inteligencia de cada individuo representa un perfil constituido por el grado de relieve mostrado por cada una de las capacidades primarias. Ej.: poca capacidad matemática y grandes habilidades verbales.

Algunos de los aspectos que influyeron en la obtención de diferentes resultados con respecto a los de Spearman, son los siguientes:

Los test administrados : Thurstone empleó más tests y éstos se debían realizar en un tiempo máximo y además tenían un mayor nivel de detalle. Por ello los test de Thurstone tenían más probabilidad de encontrar escalas que se agruparan en torno a un factor “independiente”-

Los sujetos estudiados: Thurstone empleó una muestra homogénea en inteligencia de estudiantes universitarios; mientras que Spearman utilizó una muestra más heterogénea; por ello, al primero le costaba más encontrar un factor “g”.

El tipo de rotación factorial: Thurstone empleó la rotación ortogonal, dirigida a obtener la estructura factorial más simple, y que agrupa en factores independientes los tests que correlacionan entre sí; mientras que Spearman utilizó la rotación oblicua, que permite que los factores estén relacionados.

Ambos autores, Thurstone y Spearman, acercaron sus posturas y realizaron cambios en su proceder metodológico. Así, Thurstone, además de comenzar a trabajar con muestras más heterogéneas, utilizó la rotación factorial oblicua, y a partir de ella, halló que sus capacidades primarias estaban relacionadas, y era oportuno creen en la existencia de factores más generales o de segundo orden a sus capacidades primerias. Spearman reconoció la existencia de los denominados “factores de grupo”.

36

Page 12: Bloque 2cap 4 5 y 6

Cuadro 5.13 Modelo de las capacidades primarias de Thurstone Razonamiento inductivo : habilidad necesaria para la realización de

aquellos procesos de razonamiento conducentes de lo específico a lo general. Memoria : recuerdo de cadenas de palabras, números, etc. Capacidad numérica : realización rápida y precisa de cálculos y

problemas matemáticos. Rapidez perceptiva : detección y reconocimiento tempranos de

diversos estímulos. Visualización espacial : capacidad de reconocimiento y manipulación

de formas en el espacio mediante procesos de representación o visualización espacial. Comprensión verbal : comprensión de contenidos verbales. Fluidez verbal : emisión de una expresión verbal fluida.

Modelo cúbico de la estructura del intelecto de Guildford Guilford, rechazó la validez del factor “g”, planteó un modelo radicalmente distinto al que

denominó modelo de estructura del intelecto o modelo cúbico de Guilford, por su estructura en forma de cubo, en el que trataba de clasificar todas las capacidades humanas existentes y de explicar los procesos intelectuales asociados utilizando la técnica del análisis factorial con rotación ortogonal; que favorecía la obtención de factores independientes e impedía hallar un factor general.

El modelo morfológico de Guildford postula que la inteligencia está compuesta por 120 habilidades o aptitudes independientes, que derivan de la combinación de tres dimensiones: contenidos, operaciones (o procesos) y productos (resultados). A su vez, cada una de estas dimensiones incluye facetas distintas, cuya combinación (5x4x6) da lugar las 120 habilidades.

Según Guildford la morfología de la inteligencia se puede representar a partir de un cubo tridimensional general, conformado por 120 aptitudes mentales independientes, correspondientes con los elementos que las constituyen. Fig. 5.19

Cuadro 5.14 Modelo cúbico de la estructura del intelecto de Guildford Operaciones mentales: alude a las actividades cognitivas involucradas

en el procesamiento de la información. Pueden ser 5: cognición, memoria, producción convergente, producción divergente y evaluación.

Contenidos: Se refiere al tipo de información que las personas procesan. Pueden ser 4: figurativos, simbólicos, semánticos y conductuales.

Productos: Resultados de las diversas operaciones realizadas con los distintos contenidos. Pueden ser 6: unidades, clases, relaciones, sistemas, transformaciones e implicaciones.

Críticas al modelo de Guildford: Uso de la rotación ortogonal, que fuerza las dimensiones

independientes e impide detectar correlaciones entre diferentes factores (no factores generales) Su modelo se muestra en claro contraste a la mayoría de los modelos

factoriales Es tan complejo que es imposible llevar a cabo una verificación

empírica completa.Este modelo es de gran utilidad para la construcción de tests de inteligencia, y está claramente

vinculado a los procesos cognitivos. Plantea la detección precisa de las aptitudes mentales como elementos del sistema cognitivo, y diferenciar las aptitudes en función de la clase de información empleada y de los diferentes modos de operar. Siguiendo la formulación de Guttman de la teoría de las facetas, se puede decir que el modelo de Guildford se contempla como un modelo de facetas.

Guttman ha desarrollado un modelo de facetas aplicado a la inteligencia, el Modelo de Radex, que no plantea una estructura derivada del análisis factorial. Para este autor, la inteligencia puede ser representada en un modelo circular de polaridades cartesianas en el que “g” ocupa el centro de la circunferencia. La cercanía o la lejanía radial de las habilidades hace referencia al grado de complejidad de las mismas: aquellos tests con alta saturación en “g” se sitúan cercanos al centro del espacio circular; mientas que los tests con saturaciones bajas en “g” se sitúan en zonas periféricas de dicho espacio. En este modelo las capacidades centrales son de carácter más general y engloban a aquellas capacidades situadas en la periferia de la estructura planteada.

2. Modelos factoriales jerárquicos de la inteligencia

37

Page 13: Bloque 2cap 4 5 y 6

Los modelos jerárquicos se encuentran a medio camino entre las unitarias y las multidimensionales. Plantean que la inteligencia se distribuye en distintos niveles con sus correspondientes factores y dentro de un continuo especifidad/generalidad. (Fig. 5.20)

a. Jerarquías puras: los modelos clásicos de Burt y Vernon Las jerarquías puras son las estructuras que establecen distintos niveles que van desde una

gama más o menos amplia de aptitudes primarias a un factor general único.

Modelo jerárquico de niveles mentales de Burt Burt entiende la inteligencia como una capacidad general cuya estructura es un sistema

jerárquico de niveles mentales. En este sentido, la inteligencia general estaría presente en todos los niveles de la jerarquía ya que representa una capacidad integradora. (Fig. 5.21) Su está compuesto por cinco niveles jerárquicos con diferente grado de complejidad funcional y cognoscitiva. De grado más bajo de complejidad (sensación) a más alto (factor “g”).

Modelo jerárquico de la inteligencia de Vernon El estudio estructural de la inteligencia propuesto por Vernon, se basa en su concepto de

Inteligencia C. Postula que la inteligencia se compone de diversas capacidades que se ubican en una estructura jerárquica de 4 niveles de generalidad (Fig. 5.22):

Primer nivel: Factores específicos, relacionados con las habilidades requeridas para responder a cada test particular.

Segundo nivel: Factores de grupo o de carácter menor, que agrupan los factores específicos.

Tercer nivel: Dos factores de grupo mayores,: El factor verbal – educativo, que agrupa factores de grupo menor como comprensión y fluidez verbal, vocabulario, memoria, etc. Y El factor espacial – mecánico, que engloba factores de grupo menor como habilidades espaciales, mecánica, perceptiva, etc.

Cuarto nivel: Factor de inteligencia general, similar al factor “g”, este factor explica el 40% de la variabilidad de la conducta inteligente en la vida cotidiana.

b. Jerarquías mixtas: los modelos de Cattel y Horn Los modelos mixtos se caracterizan por no contemplar un factor g, y focalizarse en los factores

de segundo orden, que no son jerarquías puras.Cattel y Horn desarrollaron el Modelo de inteligencia fluida (Gf) e inteligencia Cristalizada (Gc),

conocido como el modelo Gf –Gc o “modelo de Cattel – Horn”El Modelo Gf – Gc plantea la existencia de dos factores generales de inteligencia, o de segundo

orden. Cattel denominó a estos factores inteligencia fluida e inteligencia cristalizada. Posteriormente, con la contribución de Horn, fue contrastada mediante el análisis factorial exploratorio y el uso de la rotación oblicua. Este modelo considera que la inteligencia se estructura jerárquicamente en tres niveles de diferente generalidad (Fig. 5.23):

Factores de primer orden: referidos a las aptitudes mentales primarias de Thurstone, y a algunas de las aptitudes postuladas por Guildford.

Factores de segundo orden: (más generales) destacan la “inteligencia fluida” (Gf) y la “inteligencia cristalizada” (Gc); los restantes factores son: la inteligencia vidual (Gv), la capacidad de recuperación (Gr) y la velocidad cognitiva (Gs).

Factores de tercer orden: a) La inteligencia fluida histórica (Gf-h) (identificada por algunos autores con el factor g de Spearman) b) un factor de aprendizaje común, adquirido en el ambiente escolar y familiar, que se relaciona con el tiempo que la persona ha estado escolarizada, el interés o motivación que tiene, y su memoria histórica

38

Page 14: Bloque 2cap 4 5 y 6

Cuadro 5.16 Inteligencia fluida e Inteligencia cristalizada Inteligencia fluida (Gf): alude a la capacidad para adaptarse y afrontar situaciones nuevas de forma flexible sin que el aprendizaje previo constituya una fuente de ayuda determinante para su manifestación. Configurada por aptitudes como la inducción, deducción, relaciones y clasificaciones figurativas, amplitud de memoria asociativa o la rapidez intelectual. Tiene una mayor base genética y se la representa como una cascada. Alcanza su máximo desarrollo en torno a la adolescencia y a partir de la vida adulta tiende a disminuir en paralelo al envejecimiento. Semejante al hardware (aspecto estructural) de la inteligencia. Su manifestación preponderante es en tareas mentales simples

Inteligencia cristalizada (Gc): se refiere a aquél conjunto de capacidades, estrategias y conocimientos, que representa el nivel de desarrollo cognitivo alcanzado a través de la historia de aprendizaje del sujeto: comprensión verbal, relaciones semánticas, evaluación y valoración de la experiencia, establecimiento de juicios y conclusiones, conocimientos mecánicos o la orientación espacial. Depende del aprendizaje derivado de la experiencia previa del sujeto (Cultural, ambiental). Se representa como un diamante. Una persona desarrollara esta inteligencia en la medida en que invierta su inteligencia fluida histórica. Esta inteligencia es creciente desde la juventud hasta la vejez. Se asemejaría al software de la inteligencia. Su manifestación preponderante es en tareas cognitivas complejas.

Horn considera que la inteligencia se organiza funcionalmente de forma jerárquica. De esta forma, el desarrollo de las funciones cognitivas más básicas (detección auditiva y visual), memoria a corto y a largo plazo, dan lugar a capacidades vinculadas al procesamiento asociativo, y estas últimas posibilitan la aparición de la inteligencia fluida y cristalizada. (Fig. 5.26)

Las principales aportaciones de Cattel y Horn podrían resumirse en: Intento de integración de los modelos estructurales de la inteligencia Aplicabilidad en el ámbito de la evaluación al haber construido tests

relacionados con la inteligencia fluida (libres de influencia cultural) y cristalizada, e inspirar a otros autores en la confección de tests que tienen en cuenta los factores postulados en su modelo.

Utilidad en el ámbito neuropsicológico Presentación de un modelo evolutivo de la inteligencia Interés por los aspectos hereditarios relacionados con la inteligencia.

c. Jerarquías integradoras más recientes: los modelos de Gustafsson y Carroll Se entiende por jerarquías integradoras aquellos modelos que han procurado integrar todos los

modelos estructurales existentes en un modelo único. Modelo factorial jerárquico HILI de Gustafsson

Gustafsson contrastó los modelos de estructura de la inteligencia más relevantes a partir del análisis factorial confirmatorio, es decir, si a partir de un supuesto o hipótesis a priori un modelo factorial determinado se ajusta a los datos empíricos. Tras ello, propuso el modelo factorial jerárquico HILI , cuyas principales conclusiones son:

Las capacidades mentales se organizan en una estructura jerárquica con tres niveles de diferente grado de generalidad. En la base se ubican los factores primarios de Thurstone, Guilford, etc.; en un nivel intermedio, los cinco factores de segundo orden de Cattell y Horn (Gf, Gc, Gv, Gr, Gs); en la cúspide, el factor g de Spearman.

Concibe una clara correspondencia entre el modelo de Vernon y el de Cattell y Horn. En concreto, identifica el factor g con la inteligencia fluida.

Modelo de los tres estratos de CarrollCuadro 5.19 Síntesis del libro de Carroll “Capacidades cognitivas humanas!

Cooper resume las principales ideas que contiene este libro y la gama de factores que se contemplan: Tres tipos de capacidad de razonamiento (inductivo, deductivo y la necesaria para la solución de problemas matemáticos.

Cinco factores de memoria (desarrollo de la memoria, memoria asociativa, memoria visual, memoria de material significativo y recuerdo libre)

39

Page 15: Bloque 2cap 4 5 y 6

Entre cinco y ocho factores de percepción visual, incluyendo la velocidad perceptiva, capacidad espacial, velocidad de cierre, flexibilidad de cierre, y visualización

Doce factores auditivos, que incluyen la capacidad para escuchar sonidos débiles, para localizar sonidos en el espacio, recuerdo de tonos, etc.

Nueve factores vinculados a la velocidad con la que las ideas pueden ser generadas o expresadas, incluyendo la fluencia de ideas y verbal.

Una gran variedad de factores asociados con el uso del lenguaje Diversos factores asociados al rendimiento escolar/conocimiento, y habilidades sociales

La teoría de los tres estratos de Carroll supone una expansión y extensión de teorías previas y representa la síntesis final de la mayor parte de los modelos existentes sobre la estructura de la inteligencia, pues representa el mapa de todas las capacidades cognitivas de la inteligencia humana que se conocen o que se espera que existan. Específicamente, se hallaron 2272 factores de primer orden (metafóricamente, ciudades), 572 factores de segundo orden (provincias) y 36 factores de tercer orden (comunidades).

Es importante diferenciar entre el orden en que se obtienen los factores y el estrato en el que los diferentes factores se ubican. El orden alude a las operaciones factoriales realizadas para la obtención de los diferentes factores; y el estrato se refiere al nivel absoluto de generalidad que alcanza un factor, con independencia del orden factorial alcanzado.

Tabla 5.28 Modelo de los tres estratos de Carroll

Cuadro 5.20 Modelo de los tres estratos de Carroll

El primer estrato es el más concreto o específico, se incluye un gran número de aptitudes mentales primarias que se asemejan enormemente a las aptitudes primarias plateadas por Guilford.El segundo estrato corresponde a factores que tienen un mayor grado de generalidad que los factores del primer estrato. Estos factores se representan con el número 2. principales factores pertenecientes al segundo estrato: Inteligencia fluida: representa diferentes capacidades que implican procesos intelectuales básicos y que permiten realizar tareas intelectuales libres en su mayor parte de conocimientos culturales Inteligencia cristalizada: capacidad relacionada con la adquisición de nuevos conocimientos, que está vinculada al aprendizaje, la experiencia, la socialización, etc. Memoria y aprendizaje: capacidad implicada en tareas que requieren del aprendizaje y de la memorización de conceptos nuevos. Percepción visual: capacidad referida a la percepción de formas y al procesamiento sensorio –perceptivo visual. Percepción auditiva: engloba factores primarios vinculados con tareas perceptivas pertenecientes al ámbito sensorial auditivo. Capacidad de recuperación: capacidad relativa al rendimiento de un sujeto al realizar una tarea que requiere recordar información almacenada en la memoria.

40

INTELIGENCIA GENERAL (3G)

inteligencia fluida

2F

inteligencia

cristalizada

2C

memoria y

aprendizaje

2Y

percepción visual

2V

percepción auditiva

2U

capacidadde

recuperación2R

velocidad cognitiva

2S

rapidezde

procesamiento2T

RAZONAMIENTO

SECUENCIAL GENERAL

INDUCCIÓN

RAZONAMIENTO CUANTITATIVO

...

DESARROLLO DEL

LENGUAJECOMUNICA

CIÓNIDIOMAS

GRAMÁTICA

AMPLITUD DE

MEMORIAMEMORIA SEMÁNTIC

ACAPACIDA

D DE APRENDIZ

AJE

...

VISUALIZACIÓN

RELACIONES

ESPACIALES

VELOCIDAD

PERCEPTIVA

...

DISCRIMINACIÓN DE SONIDOS

UMBRALES DE

ESCUCHA-HABLAAJUSTE

TEMPORAL

...

FLUENCIAS

FACILIDAD NOMBRAN

DO

SENSIBILIDAD A

PROBLEMAS

...

VELOCIDAD PARA

REALIZAR TEST

FACILIDAD NUMÉRIC

A

VELOCIDAD PERCEPTIVA

TR SIMPLETR DE

ELECCIÓNVELOCIDA

D PROCESAMIENTO

SEMÁNTICO

VELOCIDAD COMPARACIÓN

GEN

ER

AL

(3 e

stra

to)

AM

PLI

O(2

est

rato

)C

ON

CR

ETO

(1 e

stra

to)

Page 16: Bloque 2cap 4 5 y 6

Velocidad cognitiva y rapidez de procesamiento: son dos capacidades relacionadas con las tareas que exigen rapidez en la actividad o en el rendimiento cognitivo.El tercer estrato se refiere a un único factor de inteligencia general (3G) vinculado a la mayoría de factores de segundo orden, pero los mejor representados son la inteligencia fluida y la cristalizada.

El modelo de los tres estratos de Carroll supone una expansión, extensión e integración de las teorías previas acerca de la estructura de la inteligencia.

2. Balance de las aportaciones de los modelos estructurales de la inteligencia ¿Qué representan los modelos estructurales para el estudio de la inteligencia y, más

concretamente, de las diferencias individuales en inteligencia?1. El intento más exhaustivo de identificación de las dimensiones básicas de las habilidades

cognitivas2. La búsqueda de una estructura significativa e interpretable, de carácter relativamente estable,

de las capacidades humanas, que pueda guiar el desarrollo de teorías de la inteligencia y la cognición.

3. La contribución más importante al estudio de las diferencias individuales.4. Instrumentos útiles para establecer las relaciones de la inteligencia con otras variables de

carácter empírico, como los procesos cognitivos, los biológicos o las diferencias entre culturas.5. La orientación más clara hacia la clasificación, predicción y selección, a partir del análisis de

las diferencias individuales obtenidas; es decir, hacia la vertiente tecnológica o aplicada del conocimiento

Las teorías estructurales han recibido serias críticas que no pueden menospreciase. Las primeras críticas se han cernido en torno al uso de los tests de CI por presentar una orientación geneticista, determinista y susceptible de alentar prejuicios sociales dadas las diferencias encontradas en el CI de distintas razas, clases sociales, o entre hombres y mujeres.

Por otra parte, los acercamientos psicométricos han suscitado numerosas reflexiones, que en resumen son: función meramente descriptiva, carácter latente y estático (no revelan nada acerca de la naturaleza de la inteligencia o su funcionamiento), criterios subjetivos de elaboración teórica, dificultad de falsación (útiles para hipótesis pero no para falsación), carácter artificial y falta de atención a los contextos reales en donde la conducta se produce, carácter estrictamente cuantitativo, carácter reduccionista de los procedimientos de evaluación y escaso poder de intervención.

Cuadro 5.22 Conclusiones recientes de Horn sobre la estructura de la inteligenciaExisten factores comunes o generales que abarcan diferentes capacidades. Un elevado número de medidas de las capacidades humanas pueden ser descritas, con gran fiabilidad, mediante un número relativamente pequeño de factores comunes.La inteligencia se organiza jerárquicamenteSe han encontrado cuatro niveles de factores comunes dentro de la estructura jerárquica de la inteligencia. En concreto, mas de 40 aptitudes mentales primarias resumen los aspectos comunes que evalúan los cientos de test que existen. A su vez, estas aptitudes mentales primarias no son totalmente independientes, y sus relaciones pueden resumirse aproximadamente en 10 factores de segundo orden. Asimismo, estos 10 factores tampoco son completamente independientes y, por ello, al extraer los aspectos que miden en común se obtienen dos factores comunes de tercer orden dentro de la jerarquía. Estos dos también están relacionados positivamente, lo cual indica la existencia de un factor común.

41

Page 17: Bloque 2cap 4 5 y 6

Capítulo 6: Enfoque procesual de las diferencias individuales en inteligencia

Profundizar en la naturaleza de la inteligencia requiere el desarrollo de modelos basados en teorías que contemplen aquellos procesos fundamentales que dan lugar a las consistencias de comportamiento observadas, y que constituyen la unidad fundamental del estudio de las diferencias individuales, el rasgo.

Un modelo procesual responde a un modelo explicativo que plantea una serie de mecanismos de funcionamiento responsables, o causantes, de las conductas observadas; a diferencia de los modelos estructurales, que sólo establecen los posibles componentes del comportamiento.

1. Inteligencia y procesos cognitivos En los albores de la disciplina Galton había iniciado el estudio experimental de la inteligencia

seguido por Spearman, y por los autores de la escuela americana (McKeen Cattel). Sin embargo, durante décadas esta corriente sufrió un fuerte estancamiento, lo cual puedo deberse a:

La crítica a los postulados de Spearman por su interés en el estudio de la inteligencia a partir de habilidades de discriminación sensorial simple.

El desarrollo de los tests de inteligencia en la línea iniciada por Binet, así como el éxito de los mismos, lo que apartó a la investigación de la inteligencia de los laboratorios experimentales centrándola en las cuestiones aplicadas.

La investigación en materia de aprendizaje animal con planteamientos teóricos lejanos a los planteamientos de la Psicología Cognitiva que habría de desarrollarse después.

Los resultados negativos presentados por Sharp y Wissler sobre el valor predictivo de la investigación experimental basada en los procesos mentales simples, lo que convenció a los psicólogos de la época de la inviabilidad del estudio experimental de la inteligencia, a pesar de la falta de rigor metodológico de estos dos estudios.

A lo largo del las décadas de los 60 – 80 del S.XX, gracias al desarrollo de un área de investigación centrada en la investigación en procesos cognitivos bajo un marco teórico nuevo, La Psicología Cognitiva, se fue dando un vuelco progresivo.

La Psicología Cognitiva no representa un acercamiento unificado, sino que comporta un amplio abanico de investigaciones y teorías, y una amplia variedad de técnicas y métodos para el estudio de los diversos problemas o cuestiones. A jucio de Hunt se podrían contemplar tres niveles diferentes en las teorías existentes sobre la cognición humana:

Estudio de los mecanismos cerebrales subyacentes a la cognición. El análisis de cómo piensan las personas sobre el mundo. La identificación de las funciones del procesamiento de la información

elemental que interviene entre los mecanismos del cerebro y el uso del conocimiento del mundo.Las bases procesuales de carácter biológico y los mecanismos procesuales cognitivos, de

distinto orden de complejidad, se integran en el estudio del pensamiento humano de orden superior.

1. Orígenes y desarrollo de la psicología cognitiva Ya en los trabajos de Spearman se pone de manifiesto la voluntad de acercarse al estudio de las

diferencias individuales en el funcionamiento mental: ¿Qué procesos mentales constituyen el funcionamiento de la inteligencia? ¿Con qué rapidez y/o precisión se llevan a cabo ¿ ¿En qué estrategias se combinan? ¿Bajo qué formas de representación mental actúan? ¿Cuál es la base de conocimiento que se organiza en esas formas de representación?

La aproximación cognitiva al estudio de la inteligencia se caracteriza, principalmente, por ser de corte generalista. El estudio de las diferencias individuales también ha venido despertando el máximo interés en sus modelos. Los acercamientos cognitivos iniciaron una revolución en los planteamientos existentes y una nueva fase en el estudio de las diferencias individuales en el área de las competencias cognitivas.

La nueva corriente recibió un fuerte impulso a partir de la década de los 70. había llegado el momento de desarrollar un marco flexible de investigación que no supusiera una mera yuxtaposición de procedimientos correlacionales y experimentales. Se vino haciendo especial hincapié en que la Psicología Cognitiva no podía avanzar si no era en función de la integración de la Psicología Psicométrica y la Experimental.

42

Page 18: Bloque 2cap 4 5 y 6

Cuadro 6.3 Características fundamentales de los modelos de la inteligencia basados en la integración de la psicología cognitiva y la psicología diferencial

1 Consideración conjunta de las dos fuentes de variación, sujetos y tareas, dentro de un marco interactivo.2 Uso de una gama más amplia de tareas con distintos niveles de dificultad y requerimientos, así como mayor número de parámetros de respuesta (velocidad, precisión, etc.)3 Muestras de sujetos más heterogéneas y representativas de la población en un marco de análisis más próximo al contexto y problemáticas reales en donde la conducta inteligente se produce.4 Recuperación de una base teórica en los desarrollos psicométricos relativos al estudio de las habilidades cognitivas5 Conocimiento profundo de la naturaleza y el funcionamiento del comportamiento inteligente a través del estudio de sus procesos, estrategias y representaciones.6 Utilización de procedimientos estadísticos apropiados aplicados al estudio de procesos (Ej.: AF confirmatorio)7 Posible dimensionalización del funcionamiento cognitivo gestada a partir de la factorialización de parámetros procesuales, lo que implicaría la identificación de tipos cognitivos. Desde una vertiente más cualitativa que cuantitativa, la búsqueda de tipos de diferenciación más que tipos de sujetos. El objetivo será averiguar cuáles son las fuentes cognitivas de variabilidad, tanto a nivel de procesos, como de representación del conocimiento.8 Desarrollo de acercamientos más eclécticos, generando teorías de la inteligencia más flexibles y comprehensivas9 Nuevos planteamientos acerca del origen y la naturaleza de las diferencias individuales centrados en la detección de aquellos procesos y estrategias que pueden ser entrenados frente a los que no (no la disyuntiva Herencia/Medio ambiente o en las diferencias entre grupos raciales o sexos)10 Mejora sustancial de programas interactivos para la mejora y el entrenamiento de la inteligencia

¿Cuáles son los procedimientos más relevantes en el análisis de la conducta inteligente dentro de un marco cognitivo? El supuesto básico es que el cerebro humano es el máximo responsable del procesamiento interno de la información. Si bien este procesamiento no puede ser observado directamente, al menos podrá ser inferido a partir del estudio de la conducta inteligente bajo condiciones estrictamente experimentales que permitan una posterior replicación y generalización.

La estrategia experimental basada en los procedimientos de la Psicología cognitiva, consiste en la consideración de una serie de estadios en los que puedan desglosarse los procesos cognitivos que implican la realización de una tarea concreta, cada uno de ellos analizado en términos del tiempo empleado para la emisión de la respuesta correspondiente, o tiempo de reacción (TR). Estos estadios o fases permiten analizar la actividad mental en función de los procesos subyacentes a la resolución de tareas cognitivas.

Todos los acercamientos compartirán el uso del TR como variable fundamental y la metodología experimental como vía de investigación. No obstante, será la manipulación del nivel de dificultad de las tareas lo que, en general, provoque que las personas difieran.

Los investigadores en procesos también parecen escoger un nivel de análisis preferido en función de la complejidad de los procesos contemplados.

De acuerdo con Deary, investigar sobre la naturaleza de la inteligencia implica elegir el tipo de variables sobre las que va a recaer el peso de la explicación El resultado de la elección debe organizarse en una jerarquía que incluya también aquellas variables más vinculadas a los ítems de los tests psicométricos y más próximas a las variables biológicas relacionadas.

2. Los modelos de resolución de tareas cognitivas simples Galton y Spearman son considerados los fundadores de la escuela de Psicología de Londres.

Jensen comenta que una característica de esta escuela en su acercamiento al fenómeno mental es el reduccionismo, es decir, explicar fenómenos complejos en términos de procesos más simples o elementales.

Deary y Stough consideran que los acercamientos reduccionistas pueden englobarse en dos tipos de aproximaciones:

El estudio de las asociaciones entre las puntuaciones en los tests psicométricos de inteligencia y el rendimiento en varios índices psicológicos elementales

El estudio de los correlatos fisiológicos de los tests de CI.Autores como Eysenck o Jensen, además de proponer una hipótesis concerniente a la velocidad

mental como origen de las diferencias individuales en g, conciben esta velocidad en el marco de la

43

Page 19: Bloque 2cap 4 5 y 6

rapidez de los propios procesos biológicos implicados. Deary señal que todo modelos reduccionista debe permitir dar respuesta a 4 objetivos fundamentales: 1) establecer la amplitud de asociación entre las puntuaciones en los tests de inteligencia y las variables consideradas en el nivel reduccionista escogido; 2) Establecer la dirección causal entre la inteligencia Psicométrica y las variables de bajo nivel; 3) Encontrar una explicación funcional de la asociación entre la inteligencia Psicométrica y las variables del procesamiento de la información; 4) Aportar una teoría que contemple tanto los procesos como las tareas en donde aquéllos se ponen en marcha.

1. Inteligencia y tareas simples de velocidad mental Eysenck retomó la idea de Galton de que, quizás, la inteligencia era una consecuencia

importante de la rapidez mental, planteando la investigación de la inteligencia general en función de la velocidad de procesamiento de la información.

Según esta hipótesis, la inteligencia se relaciona con medidas tan sencillas como el tiempo de reacción (TR), el tiempo de elección (TRE) o el tiempo de inspección (TI). A mayor inteligencia, mayor rapidez y consistencia (menos oscilaciones) en el tiempo empleado en emitir una respuesta ante estas tareas simples.

Las tareas utilizadas en este paradigma se denominan tareas cognitivas elementales, por elementales se entiende que son tan simples que pueden ser resueltas incluso por personas con deficiencia mental, no requieren conocimiento y el aprendizaje del pasado, ni del pensamiento abstracto para su realización y no comportan valor o significación psicológica alguna.

a. Inteligencia y tiempo de reacción (TR) El objetivo de esta línea es determinar que las personas más inteligentes presentan un TR menor

en la realización de tareas muy simples. El TR es el tiempo transcurrido entre la presentación de un estímulo y la emisión de una respuesta por parte del sujeto y se evalúa a partir de la latencia de respuesta, o tiempo que el sujeto tarda en emitir una respuesta. Su unidad de medida fundamental es, generalmente, el milisegundo.

La razón por la cual las tareas de TR sólo funcionan si los tiempos de presentación de los estímulos son relativamente cortos es que, quizás, en los tests más largos no sea únicamente el TR lo que decida el nivel de rendimiento, sino que entren en juego otros aspectos como el uso de la experiencia, la memoria, o el conocimiento de las estructuras de las respuestas.

Durante los años 50 y 60, los estudios realizados desde la Psicología Cognitiva, en los que se analizaba el incremento del TR en función del número de unidades de información contenidas en el estímulo al que debía responder el sujeto en las diferentes condiciones experimentales, pusieron pronto de manifiesto la existencia de importantes diferencias individuales en este sentido.

Cuadro 6.4 Las investigaciones realizadas en el estudio de la inteligencia con la Ley de HickLa Ley de Hick hace referencia al incremento de tiempo que se tarda en elaborar la información recibida en función de la cantidad de elementos contenidos en la misma. Partiendo de esta idea, Jensen y Munro relacionaron dicha ley con la inteligencia entendida como capacidad de procesar eficazmente la información y elaboraron la hipótesis de que los sujetos con mayor nivel de CI tendrían una pendiente en la función de Hick menos pronunciada que los menos inteligentes, es decir, su TR no se vería tan afectado por la cantidad de información que incluye la tarea que realizan.El procedimiento utilizado permitía distinguir entre dos componentes que presenta el TR ante la presentación del Estímulo, el TR propiamente dicho y el Tiempo de movimiento (Fig. 6.5)

Cuadro 6.5 Balance de los estudios sobre el tiempo de reacción y el CI1 Aunque el tiempo de reacción simple (TRS) correlaciona negativamente con las medidas tradicionales de inteligencia utilizando tests como el WAIS, el tiempo de reacción de elección (TRE) presenta correlaciones más altas con dicha medida.2 Tanto el tiempo de decisión, como el de movimiento, están significativa y negativamente correlacionados con el CI, si bien el tiempo de decisión suele ser más informativo que el de movimiento3 Existe una correlación negativa entre la inteligencia y la variablidad intraindividual que presentan los sujetos tanto en medidas TR como TRE4 La mayor parte de los estudios realizados utiliza estudiantes, lo que inevitablemente restringe el rango del CI y la atenúa las correlaciones.5 Cuando se combinan varios tipos de tests las correlaciones promedio obtenidas entre las distintas pruebas y el CI se potencian.6 A pesar de trabajar con tareas cognitivas elementales, las mas complejas arrojan mejores resultados que las más simples (presumiblemente porque proporcionan a la velocidad del

44

Page 20: Bloque 2cap 4 5 y 6

procesamiento mental una oportunidad mejor de manifestarse).b. Inteligencia y tiempo de inspección (TI)

El TI es el tiempo mínimo necesario que una persona tarda en reconocer de forma correcta un estímulo presentado durante un espacio de tiempo muy corto. Tiene que ver con la velocidad de aprehensión (no con el tiempo de reacción), pues la persona tiene todo el tiempo que necesite; la rapidez en el procesamiento se evalúa disminuyendo el tiempo de exposición hasta que el tiempo de presentación sea tan corto que las discriminaciones de los sujetos sean por puro azar.

La mayor parte de los trabajos tempranos en TI tiene su origen en el campo de la psicofísica y ha permanecido en mayor medida en el dominio de las diferencias individuales, interesando menos a los experimentalistas. Desarrollado para evaluar el funcionamiento de los procesos sensoriales, pronto comenzó a relacionarse con la inteligencia, siendo Nettelbeck quien primero exploro la correlación entre el TI y la inteligencia, iniciando un estudio sistemático de las correlaciones entre ambas variables.

Brody propone que el TI puede ser un buen índice de las capacidades involucradas en el procesamiento de la información y, suponiendo la existencia de un núcleo isomórfico entre los componentes del PI y las habilidades delimitadas mediante la investigación psicométrica de la inteligencia, argumenta la posibilidad de que el TI forme parte de ese núcleo.

Según Eysenck, aparentemente la habilidad para la abstracción, el razonamiento, el aprendizaje y la memoria dependen de la rapidez mental que, a su vez, estaría en función de la velocidad del funcionamiento cortical. De todas formas, no se puede afirmar que la velocidad en una serie de tests psicométricos, la biológica, la experimental o la psicofísica, compartan una misma varianza. Las relaciones obtenidas en este tipo de estudios son moderadas, por lo que no se puede afirmar que sólo a partir de este tipo de procesos podamos dar cuenta de toda la complejidad de la conducta intelectual.

Cuadro 6.6 Ventajas del TI sobre el TR1 Es una medida compacta que parece implicar menos procesos cognitivos que el TR, ya que no necesita distinguir entre componentes como el tiempo de decisión y el movimiento.2 No presenta el problema de tener que establecer la ratio velocidad/precisión3 Es un factor limitante para muchas operaciones mentales de nivel superior. Puede verse como un factor que presenta una aparente influencia generalizada sobre otros procesos mentales, y puede considerarse como base para las diferencias humanas en inteligencia.4 Factores como la motivación, la atención o la personalidad no contribuyen sustancialmente a las relaciones entre TI e inteligencia, ni tampoco parece incidir sobre el uso de distintas estrategias cognitivas.5 Es la única medida de procesamiento de la información que alcanza de forma más convincente los criterios requeridos y, entre estos, cumple el de poder tener un tratamiento teórico más sólido que otras medidas reduccionistas, al estar incluido en un modelo teórico ya consolidado en el campo de la psicología de la percepción.2. Inteligencia y Tareas experimentales cognitivas: El enfoque de los correlatos cognitivos

El enfoque de los correlatos cognitivos se basa en dos hipótesis básicas: Las diferencias en las distintas habilidades cognitivas que postulan las teorías

factoriales son descritas en términos de un pequeño número de componentes elementales de procesamiento de la información.

Las diferencias serán debidas a las variaciones existentes en la velocidad de ejecución de estos procesos básicos.

El tipo de investigaciones características de este enfoque parte de modelos concretos de procesamiento de la información. A partir de los componentes del modelo elegido se postula que una dimensión, o factor, de las teorías psicométricas de la inteligencia (desde “g” hasta capacidades más específicas como la fluidez verbal o la memoria) se relacionará significativamente con uno o varios componentes procesuales, lo que permitirá conocer los procesos subyacentes al factor de inteligencia considerado.

La estrategia experimental básica consiste en contrastar si los individuos caracterizados por una alta puntuación en el factor de inteligencia – clasificados en función de su puntuación en el test psicométricos correspondiente - difieren significativamente de aquellos con baja puntuación en su ejecución en la tarea de procesamiento de la información utilizada. Por tanto, la variable dependiente (VD) es el rendimiento en el tipo de tareas cognitivas simples habitualmente utilizadas dentro del paradigma del procesamiento de la información (Fig. 6.7) se pretende encontrar los correlatos procesuales asociados a las capacidades psicométricas clásicas y para ello se correlacionan las

45

Page 21: Bloque 2cap 4 5 y 6

medidas en el factor psicométrico objeto de estudio, con el rendimiento en una tarea cognitiva experimentalmente probada.

Este tipo de investigaciones suponía una vuelta al paradigma de Galton (basado en el análisis de procesos simples y en el TR como su parámetro de evaluación básico). Los resultados de estas investigaciones presentaban ciertos problemas metodológicos y de interpretación, la explicación podría estar en la siguientes causas:

Utilización de parámetros de CI excesivamente globales en grupos de sujetos que presentan una variabilidad muy restringida; la escasa variabilidad existente en las puntuaciones de los sujetos extremos dificulta el hallazgo de correlaciones interesantes.

Consideración de muestras con pocos sujetos experimentales. Utilización de tareas con escasa sensibilidad para el tipo de cuestión analizada. Elección incorrecta de parámetros , la velocidad de respuesta no siempre es la

característica principal de las personas más brillantes, existen también otros parámetros como la precisión, o un balance adecuado entre precisión y velocidad.

Cuadro 6.7 El estudio de la capacidad verbal en función de sus correlatos cognitivos: las investigaciones de Hunt y Colbs.

El mejor ejemplo de esta aproximación es la realizada por Hunt y colbs. a partir de una serie de tareas cognitivas experimentalmente probadas, para analizar los procesos subyacentes a la habilidad verbal: las tareas de emparejamiento de letras, de escudriñamiento de la memoria a corto plazo y de verificación de frases.

El objetivo de estos estudios era analizar si la velocidad con la que los sujetos ejecutan estas tareas se correlacionaba con la capacidad verbal de los modelos psicométricos, arrojándose resultados poco conclusivos y correlaciones moderadas.

3. Los modelos de resolución de tareas cognitivas complejas: el enfoque de los componentes cognitivos

Debido a lo moderado de los resultados obtenidos por el enfoque de los correlatos cognitivos, los investigadores dedujeron que las diferencias individuales en la inteligencia psicométrica tenían menos que ver con la velocidad del procesamiento per se, que con la efectividad del individuo en seleccionar, organizar, ejecutar, monitorizar y adaptar los componentes cognitivos apropiados para resolver un problema. En este contexto surge el enfoque de los componentes cognitivos.

Estes señala que la forma más simple y directa de conocer en qué consiste la actividad intelectual comienza por analizar las conductas específicas que están involucradas en la respuesta a los tests psicométricos de inteligencia.

El primer objetivo de este enfoque es la elaboración de un modelo de procesamiento de la información que explique el rendimiento de los sujetos en tareas cognitivas complejas, semejantes a las utilizadas por los modelos psicométricos clásicos. Este acercamiento está más relacionado, en general, con el estudio de los tests de CI como tareas cognitivas, y su principal contribución estriba en ser susceptibles de ser estudiados a través de los métodos de análisis cognitivo – experimentales. En este caso, si bien el tiempo de reacción es una variable dependiente importante, los errores cometidos, o el patrón de elección de respuesta, son utilizados como variables dependientes secundarias de gran interés.

Los procesos básicos en la aproximación empírica del enfoque de los componentes son: 1) descomponer cada tarea de PI en elementos más pequeños o subcomponentes y analizar el tiempo de reacción y los errores cometidos en la ejecución de cada uno de ellos y 2) analizar aquellos subcomponentes relacionados con las diferencias individuales en el rendimiento intelectual.

1. El modelo racional de Carroll (1976, 1979, 1987) Su trabajo parte del análisis de los 24 factores cognitivos que se recogen en la batería de tests

de French y colbs.; estos factores derivan del análisis de 74 tests diferentes. Su finalidad es abordar el estudio de los tests y los factores psicométricos tradicionales desde el margo de la psicología cognitiva experimental.

Carroll desglosa las características de las tareas de dicha batería, distinguiendo entre: 1) tipo de estímulo presentado, 2) respuestas abiertas requeridas, 3) estructura de las mismas, 4) operaciones y estrategias que implican, 5) aspectos temporales necesarios para su resolución y 6) tipo de almacén de memoria implicado.

Carroll elabora una lista no exhaustiva de componentes cognitivos necesarios para la resolución de dichas tareas, como la atención, la aprehensión, la integración perceptiva, la codificación, la comparación, o la ejecución de respuesta, entre otros.

46

Page 22: Bloque 2cap 4 5 y 6

A su juicio, la existencia de una amplia variedad de factores de diferenciación individual parece ser el producto de la interacción de un número reducido de procesos elementales con diferentes clases de estímulos y formas de respuesta, diferentes modalidades sensoriales y diferentes tipos de almacenes de memoria. Estas interacciones constituirían la verdadera “estructura del intelecto”.

Carroll califica de imposible, en principio, el poder identificar factores “puros” de variación individual y opina que el estudio de las tareas cognitivas elementales tendrá más utilidad teórica que práctica en la evaluación de la inteligencia.

La aproximación de Carroll posibilita el enunciado de hipótesis de trabajo dentro de un marco de integración entre la Psicología Psicométrica clásica y la Cognitiva.

2. La teoría componencial de R. Stemberg (1977, 1980, 1983) El objetivo de Stemberg era encontrar qué hacía que unas personas procesaran la información

de forma más eficaz e inteligente que otras. Para ello analiza el tipo de tareas utilizado en los tests convencionales de inteligencia, aislando los componentes o procesos mentales utilizados en la realización de estas tareas, definiendo el término componente y la estrategia del análisis componencial de la siguiente manera:

Componente: proceso mental específico que opera sobre las representaciones internas que los individuos tienen de los objetos y los símbolos.

Análisis componencial: análisis que consiste en descomponer el TR total y la frecuencia de errores de las personas en la realización de una tarea, en función de los procesos que constituyen la misma; deben establecerse los tiempos de reacción y los errores parciales correspondientes a cada uno de los procesos mentales implicados en la resolución del problema.

Stemberg postula un modelo jerárquico con tres niveles de generalidad que constituye su modelo componencial, y en el que se distinguen tres tipos fundamentales de componentes:

Los metacomponentes, o procesos ejecutivos de control, de orden superior. Son los máximos responsables a la hora de decidir acerca de cuál es el problema a resolver y cómo llevarlo a cabo; igualmente, dirigen todos los procesos de monitorización y evaluación en la resolución de problemas. Son un total de 10 metacomponentes básicos en donde se hace patente la relevancia de la acción para el enunciado de cualquier teoría del rendimiento intelectual: 1) Reconocimiento de la existencia de un problema dado, 2) Definición de la naturaleza del problema, 3) Selección de un conjunto de componentes de nivel inferior, no ejecutivo, para la ejecución de una tarea, 4) Selección de la estrategia a seguir para la resolución de la tarea, 5) Selección de una o más representaciones mentales para la elaboración de la información disponible, 6) Decisión acerca de la disposición y utilización de los recursos atencionales, 7) Monitorización de la propia ejecución, 8) Comprensión del feedback externo e interno con respecto a la calidad de la ejecución, 9) Conocimiento acerca de cómo actuar a partir del feedback recibido, 10) Implementación de la acción como resultado del feedback recibido..

Los componentes de ejecución, procesos de nivel inferior a los metacomponentes, empleados para el desarrollo de diversas estrategias durante la realización de una tarea, por lo que suelen ser específicos para el tipo de problema a resolver. Ejecutan las órdenes de los metacomponentes: 1) codificación de la naturaleza del estímulo, 2) inferencia de relaciones entre estímulos y 3) aplicación de esta inferencia a nuevas situaciones.

Los componentes de adquisición del conocimiento, procesos de nivel inferior a los metacomponentes involucrados en el aprendizaje y almacenamiento de nueva información en la memoria. Destacan la codificación selectiva, la combinación selectiva y la comparación selectiva.

La relación entre estos componentes es de carácter dinámico e interactivo, a partir de procesos de activación, así como de feedback o retroalimentación entre los mismos. No obstante, únicamente los metacomponentes ejercen un control directo sobre el sistema.

4. La valoración de los modelos procesuales cognitivos Una valoración global de las aproximaciones cognitivas al estudio de las diferencias individuales

en inteligencia permite concluir que existen ciertos límites (Sanchez Elvira):1 En relación al tipo de tareas empleadas:- Elevado grado de artificialidad de las mismas;- Utilización de niveles muy uniformes de dificultad;- Una focalización excesiva en el parámetro de velocidad de respuesta2 En lo que respecta a las muestras de sujetos, los límites hacen referencia a la utilización de

niveles de edad muy homogéneos, rangos de inteligencia poco amplios, así como una uniformidad excesiva del estatus social y cultural – sin atender a la importancia del contexto -, lo que restringe la variabilidad de la muestra y la posibilidad de encontrar relaciones más potentes.

47

Page 23: Bloque 2cap 4 5 y 6

3 Se ciñen de forma exclusiva al ámbito de lo cognitivo y en ellos no se tratan aspectos relativos a las bases biológicas de la inteligencia, o de los procesos concretos considerados.

En lo relativo al modelo de los correlatos, realmente los datos obtenidos son un poco circulares; es esperable que los sujetos con alta capacidad verbal tengan una ejecución superior en tareas relacionadas con la ejecución verbal.

En lo relativo al modelo de los componentes, como el de Stemberg, ocurriría algo semejante. La crítica más dura se centraría en que la teoría componencial se describe sin que presente una evidencia excesiva respecto a su validez de constructo.

En relación con las contribuciones principales, la metodología cognitiva – respecto a la factorial – es útil a la hora de verificar hipótesis y presenta un gran potencial de desarrollo.

El conocimiento del funcionamiento real de la mente humana tiene implicaciones prácticas importantes; Campione y Brown pretendieron demostrar que existen componentes en el procesamiento de la información que son susceptibles de ser entrenados (entrenamiento cognitivo). Su objetivo es el logro de una mayor eficiencia cognitiva. (de especial importancia en el caso de personas con deficiencias mentales).

Hacia los primeros años de la década de los 80 los cognitivistas caerían en el mismo círculo vicioso que los psicómetras: aplicar las mismas técnicas, tarea tras tarea, habilidad tras habilidad, discutiendo en este caso sobre los niveles de procesamiento de cada tarea o las diferencias en la metodología experimental utilizada.

Algunas de las cuestiones relevantes a seguir investigando sobre las diferencias individuales desde un marco cognitivo – experimental son las propuestas por autores como Carroll, Cooper Y Reagan):

1 Demostrar la especifidad de los procesos que distinguen a las personas de capacidad superior de las de menor capacidad.

2 Encontrar el lugar preciso en la secuencia de procesos en donde se encuentra la fuente de variación individual.

3 Estudiar en profundidad los distintos procesos alternativos que los individuos pueden poner en marcha en diferentes situaciones, así como la posibilidad de modificar o entrenar los mismos a partir de distinto tipo de manipulacines.

4 Analizar las estrategias que caracterizan a los distintos sujetos en la resolución de problemas.5 Analizar la estabilidad temporal y la generalidad de las diferencias de procesamiento

demostradas.2. Inteligencia y procesos biológicos

El primer psicólogo en proporcionar una teoría detallada y contrastable de cómo el cerebro podría dar soporte a los procesos cognitivos fue Hebb. Su trabajo fue muy influyente para otorgar unas bases sólidas para algunas corrientes de la psicología cognitiva.

La analogía biológica aborda el estudio de la inteligencia en términos del funcionamiento psicológico del cerebro.

Los modelos biológicos de la inteligencia son herederos de Galton en su vertiente geneticista, centrándose en lo que Hebb denominó inteligencia A, y que requiere la posesión de “un buen cerebro y un buen metabolismo neural”.

Hipótesis basadas en la “rapidez de la transmisión neural” pueden agruparse bajo el modelo de “eficiencia neural” defendido por Vernon. El postulado principal del modelo de eficiencia neural asume que las diferencias individuales en la realización de los tests psicométricos reflejan, en gran medida, los procesos neurofisiológicos subyacentes a la ejecución de cualquier tarea cognitiva. De esta forma, los cerebros que puedan actuar más rápida y eficientemente, sin errores de transmisión, obtendrán un mejor resultado. El objetivo último será determinar los correlatos biológicos de la inteligencia.

1. La velocidad de conducción nerviosa Algunos investigadores basan su explicación de los modelos cognitivos basados en tareas de

tiempo de reacción (TR) simple, piensan que la inteligencia psicométrica, especialmente g, se encuentra vinculada a la eficiencia neuronal con la que el cerebro trabaja y que esta eficiencia está estrechamente relacionada con la mayor velocidad que los individuos inteligentes manifiestan, derivada, a su vez, de la mayor velocidad neural que estos presentarían, con una transmisión más rápida y con menos errores y con un Procesamiento de la Información más eficiente a cargo del SNC.

Deary realizó un estudio longitudinal, a partir de cuyos resultados se podía inferir un vínculo entre el TI y las habilidades de procesamiento de información en estadios tempranos del desarrollo, de

48

Page 24: Bloque 2cap 4 5 y 6

forma que la vinculación ayudaría a incrementar el conjunto de habilidades intelectuales producto del sistema educativo. Estas observaciones llevan a pensar en una base genética para el tiempo de inspección.

Respecto a la relación entre el TR e inteligencia se ha argumentado la posibilidad de que tal medida no refleje exclusivamente la inteligencia de un individuo, sino que puede ser también consecuencia de otras características personales como la impulsividad. Por otra parte, es igualmente factible que otras variables, como la familiaridad diferencial con el material estimular, las estrategias atencionales y perceptivas, la motivación o los criterios de respuesta, el énfasis en la precisión o en la velocidad, pueden incidir en esta medida de la “eficacia neuronal”

Los datos sólo señalan una relación entre velocidad neural e inteligencia, pero la dirección de la causalidad está aún por dilucidar. Los grupos de Jensen y de Vernon han demostrado las relaciones entre CI y la velocidad de respuesta en tareas de TR complejo, especialmente cuando la información que deben de utilizar para dar la respuesta correcta a las pruebas experimentales debe recuperarse desde la memoria a largo plazo.

2. Los potenciales evocados En el electroencefalograma (EEG) posibilitó el inicio de la medición de la actividad eléctrica

cerebral; los resultados obtenidos al principio fueron discutidos, debido a que el EEG refleja los cambios de la actividad inmediata en el cerebro, mientras que el CI es una medida general que engloba un conjunto de capacidades estáticas disponibles en un sujeto. Para solucionar este problema se diseñaron experimentos en los que el sujeto tenía que realizar tareas concretas relacionadas con el CI, a la vez que se elaboraron técnicas de tratamiento cuantitativo de los registros del EEG, de forma que se pudiese trabajar con un índice derivado de los citados registros, denominado Potencial Evocado Cerebral promediado (PE) – es el resultado de promediar la actividad fásica del EEG en respuesta a una estimulación repetida un determinado número de veces-. Los resultados aportados por las distintas investigaciones subrayan tres hechos:

Existe una correlación negativa entre el nivel de inteligencia y la latencia de los PE, de forma que las personas con un CI alto suelen presentar PE de latencia más corta;

Existe una correlación negativa entre CI y variabilidad de los PE; personas con más inteligencia suelen mostrar unos patrones de PE más estables.

Existe una correlación positiva entre amplitud de potenciales evocados ante estímulos inesperados y el CI.

En el intento de justificar teóricamente el significado de las correlaciones entre los PE y el CI podemos destacar dos teorías:

Teoría de la adaptabilidad neural de Schafer: parte de que la modulación de la actividad EEG produce unas mayores amplitudes en los potenciales evocados por estímulos inesperados que ante los esperados, por lo que dicha amplitud es un parámetro útil para estimar el grado de adaptabilidad neural que presenta el cerebro de una persona. Las diferencias radican en que las personas con un cerebro eficaz utilizan un menor número de neuronas para un estímulo previsto y mayor ante uno inesperado, mientras que el resto utilizarían un número semejante. En los resultados de sus estudios, los sujetos más inteligentes mostraron una mayor flexibilidad de su respuesta (amplitud en los PE) en función de que el estímulo fuese más o menos esperado.

Teoría de la eficiencia neural de Hendrickson: centra su interés en el estudio de la velocidad y precisión con que el SNC procesa la información, partiendo de la hipótesis de tales aspectos constituyen la base de la inteligencia. Las personas con un CI alto se caracterizan por presentar una mayor estabilidad (menor variablidad) en sus procesos neurales. En los resultados procedentes de las investigaciones centradas en el tiempo de reacción, se da la misma premisa, es decir, a mayor variabilidad (menor estabilidad) menor inteligencia.

Eysenck argumentó que el mensaje neuronal no se transmite de una vez o en un solo golpe, sino que se transmite de forma reiterada hasta que llega a alcanzar el peso necesario para que el sujeto acepte el mensaje. De esta forma, cuantos menos errores de transmisión neuronal se produzcan, antes se aceptará el mensaje y, por lo tanto, menor será el TR y la latencia de los PE.

El concepto de inteligencia biológica engloba dos características principales: por una lado, una transmisión neuronal con un mínimo de errores, y, por otro, la capacidad de aplicar de una manera eficiente los recursos energéticos disponibles en el cerebro.

La importancia de tales descubrimientos no debe llevarnos a concluir que las medidas neurofisiológicas pueden sustituir a la medición de la inteligencia a través de pruebas de rendimiento en distintas tareas que, desde el marco factorial o cognitivo, se han venido utilizando, por razones

49

Page 25: Bloque 2cap 4 5 y 6

como que el concepto de inteligencia tiene connotaciones socioculturales que sobrepasan el potencial biológico y por razones de economía y sencillez.

3. El consumo de energía La medición de la energía consumida nos sirve de referencia para estimar el esfuerzo que se

invierte en realizar una determinada tarea, sea física o mental. Para medir la energía que consume el cerebro, actualmente se recurre a la Tomografía de Emisión de Positrones.

La utilización de la TEP permite determinar las regiones del cerebro que se encuentran implicadas en la realización de tareas mentales concretas. La hipótesis central es la siguiente: a mayor consumo energético en determinadas zonas del cerebro, mayor la actividad que las neuronas allí situadas están realizando.

Entre los datos más relevantes proporcionados cabe destacar el hecho de que las tareas verbales conllevan un mayor consumo de glucosa en las células del hemisferio izquierdo, mientras que las tareas de tipo manipulativo se encuentran asociadas a un mayor consumo de energía en el hemisferio derecho. Asimismo, se ha encontrado una relación entre consumo de glucosa en la circunvolución del cíngulo y el proceso atencional, y un consumo energético predominante en las zonas del córtex frontal superior, del lóbulo temporal y del hipocampo cuando realizamos tareas que implican la utilización de la memoria de trabajo.

A medida que aumenta la práctica que las personas adquieren en la realización de cualquier tarea, desciende el consumo de glucosa cerebral cuando la están llevando a cabo. De forma que cuando más dificultades se tienen en la realización de una tarea se produce un mayor consumo de glucosa cerebral.

4. Las redes neuronales Desde el conexionismo o Paradigma Emergente se entiende que nuestro pensamiento, nuestros

sentimientos y sensaciones, surgen a partir de interconexiones masivas que funcionan de forma distribuida, de manera que las conexiones entre conjuntos de neuronas cambian como resultado de la experiencia. Desde este enfoque se intenta comprender tanto la inteligencia como otros procesos básicos.

Los procesos cognitivos son resultado de variaciones de la actividad neuronal de las redes, correspondiéndose cada pensamiento, recuerdo o sensación, con una configuración única de actividad espaciotemporal de las neuronas interconectadas. (Fig. 6.14)

La investigación realizada con primates ha permitido mostrar que los recuerdos se almacenan preferentemente en el neocórtex, y las distintas clases de memoria están tejidas por redes de neuronas repartidas e interconectadas por dicha zona. Las diferencias que presentan los humanos entre sí se debe a que adquisición de un nuevo conocimiento consiste, básicamente, en la modulación de la sinapsis, es decir, de los contactos entre neuronas.

La información que contiene nuestro cerebro viene definida por las relaciones neuronales, no por neuronas individuales, de forma que la eficiencia de tales relaciones se convierte en un factor de mayor relevancia.

En cualquier caso, según Hunt, la relación entre el funcionamiento del cerebro y la inteligencia no es, en modo alguno, lineal. Cuando el funcionamiento del cerebro decae por debajo de un nivel aceptable, la habilidad para realizar determinadas funciones cognitivas elementales se ve claramente afectada, especialmente aquellas relacionadas con la memoria y el control de la atención.

Desde una perspectiva integradora estructural – procesual, la idea de que la inteligencia reside en un lugar específico del cerebro pertenece al S.XIX. Diferentes tareas de PI pueden aparecer en muchos procesos. Hunt propone que la estructura en forma de árbol del modelo psicométrico de Carroll puede ser reemplazada por una estructura alternativa. (Fig. 6.15)

3. Las aproximaciones sistémicas al estudio de la inteligencia Las teorías sistémicas tienen un carácter integrador, intentan ampliar sus horizontes en busca de

una perspectiva conceptual, metodológica y aplicada. Las teorías sistémicas de carácter integrador son la Teoría triárquica de Sternberg, la Teoría de las Inteligencias Múltiples de Gardner y el Modelo Bioecológico de CECI. En todas ellas, la inteligencia supone la interacción de distintos sistemas (cognitivo, biológico, contextual) no implica un concepto único sino que puede abarcar un amplio abanico de habilidades y es algo dinámico que puede cambiar cuando cambian las condiciones del entorno.

1. La teoría Triárquica de R. Stemberg Stemberg define la inteligencia como la capacidad de aprender de la experiencia, utilizando

procesos metacognitivos para promover el aprendizaje, y la habilidad de adaptarse al entorno, lo que

50

Page 26: Bloque 2cap 4 5 y 6

puede requerir diferentes tipos de adaptaciones dentro de contexto sociales y culturales distintos. La teoría triárquica propone un acercamiento integrado de tres áreas básicas o subteorías:

La inteligencia y el mundo interno del individuo : o subteoría encargada del estudio de los mecanismos y procesos mentales que subyacen a la conducta inteligente. Esta subteoría recoge la teoría componencial (metacomponentes, componentes de ejecución y de adquisición el conocimiento) (Enfoque de los componentes de Stemberg).

La inteligencia y el mundo exterior del individuo : o subteoría encargada del estudio del uso de los mecanismos mentales en la vida cotidiana de la persona con el objetivo de lograr un ajuste o adaptación inteligente al entorno y a las circunstancias externas. En este apartado la inteligencia adquiere un valor propositito, encaminado a la consecución de determinados fines. Los procesos claves de esta subteoría son:

La adaptación al medio: Una buena parte del pensamiento inteligente esta encaminado a adaptarse a las demandas del medio.

El modelado: Cuando el individuo no puede adaptarse al entorno, puede intentar un proceso de modelado del mismo, antes de la adaptación también puede suceder.

La selección del entorno: Implica buscar un entorno distinto (cuando no puede adaptarse). Esta también puede acontecer con anterioridad.

La inteligencia y la experiencia : o subteoría encargada del estudio del papel modulador y mediador que la experiencia vital del individuo tiene en la interacción entre sus mundos interno y externo. La evaluación de la inteligencia requerirá el conocimiento de los componentes de la inteligencia y conocimiento del nivel de experiencia al que se aplican los componentes en los contextos reales con los que el individuo interactúa. (Fig. 6.16) Los procesos básicos de esta subteoría son:

La habilidad para trata con la novedad: Los individuos deben decidir qué aspectos de la situación nueva son relevantes. Este concepto se relaciona con el factor de Inteligencia fluida (Gf)

La habilidad para automatizar: existe cierta evidencia empírica que señala que la velocidad y nivel de automatización del procesamiento ante una tarea ya conocida es elemento clave en la inteligencia.

Si bien todas las subteorías trabajan conjuntamente, los individuos no presentan un nivel de funcionamiento idéntico en cada una de ellas, lo que se traducirá en perfiles de individuos distintos, algunos más caracterizados por una inteligencia analítica, o manejo óptimo de los componentes internos de procesamiento; otros por una inteligencia creativa, o aplicación de los componentes a la creación y al descubrimiento; y otros por una inteligencia práctica, habilidad para adaptarse, modelas y seleccionar aquellos entornos más apropiados para el individuo.

No sería un modelo sistémico completo porque Stemberg no hace referencia a las bases biológicas de la conducta inteligente.

2. La teoría de las Inteligencias múltiples de H. Gardner Dos cuestiones fundamentales sirven como punto de partida para los planteamientos

diferenciales de Gardner, con respecto a la naturaleza de la inteligencia: ¿cuán inteligente eres? A esta pregunta subyacen las siguientes ideas:

Una inteligencia única, de carácter unidimensional, a lo largo de la cual las personas se distribuyen.

Este tipo de inteligencia se puede medir convenientemente a través de un amplio conjunto de pruebas de evaluación o tests psicométricos estandarizados, especialmente los tests del CI

¿de qué forma eres inteligente? A esta cuestión le subyacen las siguientes ideas: Existencia de muchas posibles facetas de la cognición y de capacidades y estilos cognitivos Necesidad de evaluar la inteligencia a través de instrumentos que complementen un amplio

abanico de habilidades cognitivas e íntimamente relacionados con los contextos donde se aplican.

Gardner considera que las teorías clásicas del aprendizaje, y los modelos psicométricos de la inteligencia, suelen considerar a los individuos como organismos pasivos que simplemente reciben los estímulos exteriores, a los que responden según su historia de aprendizaje.

La concepción de inteligencia que Gardner propone no es la de una inteligencia única, de carácter general, que agrupa diferentes capacidades específicas con distinto nivel de generalidad, sino la de un conjunto de inteligencias múltiples, distintas e independientes. De esta forma surge la Teoría de las Inteligencias Múltiples.

51

Page 27: Bloque 2cap 4 5 y 6

Gardner propone una serie de criterios fundamentales que permiten establecer la identidad independiente de una inteligencia:

Las lesiones cerebrales deben permitir su delimitación. El daño cerebral o la destrucción de áreas discretas del cerebro permitirán señalar qué áreas cerebrales la definen.

Existencia de poblaciones atípicas, que muestran habilidades extraordinarias o déficit, en un tipo particular de conducta intelectual.

Presencia de un conjunto de operaciones identificables específicas, que resulten esenciales para la ejecución de un tipo de conducta inteligente particular.

Una historia de desarrollo individual característico en donde pueda apreciarse el desarrollo que sigue una persona.

Una historia evolutiva en la que los incrementos de la inteligencia puedan estar plausiblemente asociados con incrementos en la adaptación al entorno.

Apoyo experimental derivado de la investigación psicológica. Apoyo de la investigación de carácter psicométrico que permita la evaluación del tipo de

inteligencia que se postula a partir de tests fiables y válidos. Posibilidad de ser codificada en un sistema de símbolos propio y específico.

Tabla 6.1 Teoría de las inteligencias de GardnerLa Teoría de las Inteligencias Múltiples, cuyo impacto ha sido mayor en el ámbito de su aplicación a los sistemas educativos, señala las siguientes inteligencias: 1 Lingüística: dominio y amor por el lenguaje y las palabras, junto al deseo de explorarlos.2 Lógica-matemática: confrontación y valoración de objetos, abstrayendo y discerniendo sus relaciones y principios subyacentes.3 Espacial: habilidad para percibir el mundo visual con precisión, para transformar y modificar lo percibido y para recrear experiencias visuales incluso en ausencia de estímulos físicos.4 Musical: capacidad no sólo de componer e interpretar piezas con tono, ritmo y timbre, sino también de escuchar y de juzgar.5 Corporal-cinestésica: dominio y orquestación de los movimientos del cuerpo. Manipulación hábil de objetos.6 Interpersonal: determinar con precisión el estado de humor, los sentimientos y otros estados mentales de uno mismo utilizando esa información como guía de conducta en la interacción con el mundo.7 Intrapersonal: determinar con precisión el estado de humor, los sentimiento y otros estados mentales de los otros utilizando esta información como guía de conducta.8 Naturalista: identificación y caracterización de objetos naturales.9 Existencial: captación y reflexión sobre cuestiones fundamentales de la existencia.

Cada persona presentará un perfil propio de distribución en el que puntuará de forma distinta en cada una de las inteligencias. A pesar de la relativa autonomía propuesta, las inteligencias pueden trabajar conjuntamente en distintas áreas. Por otra parte, cada cultura puede presentar un perfil también característico en función de las inteligencias que más primen en una sociedad concreta, en un momento histórico dado.

La teoría de Gardner ha recibido numerosas críticas desde las esfera de los investigadores de la inteligencia; a muchos autores parece incomodarles el alejamiento de las pruebas estándar de inteligencia y la adopción de un grupo de criterios poco habituales y más difíciles de cuantificar, o la denominación de inteligencia a cuestiones tales como las inteligencias musical y corporal – cinestésica a las que prefieren llamar talentos.

Las razones por las que la influencia de Gardner se ha extendido al campo de la educación se encuentran en una visión renovadora de la enseñanza guiada por el deseo de ofrecer una visión de la inteligencia más amplia, liberar a la sociedad de la utilización de los instrumentos estándar de evaluación de la inteligencia y utilizar la idea de inteligencias múltiples para la elaboración de una pedagogía y una evaluación de las capacidades intelectuales más efectivas.

52

Page 28: Bloque 2cap 4 5 y 6

El proyecto Zero, coordinado por Gardner, tiene como objetivo fundamental el desarrollo de un sistema de enseñanza más abierto, flexible, creativo e individualizado, que permita potenciar las distintas inteligencias múltiples de cada niño, y no únicamente las tradicionalmente consideradas y evaluadas por los tests de capacidades psicométricas clásicos.

Es cierto que las teorías sistémicas presentan, por el momento, una dificultad aún mayor que las reduccionistas de validación empírica, pero no es menos cierto que su visión de la naturaleza de la inteligencia está más cercana a la realidad que las personas experimentan desde el punto de vista de lo que es ser intelectualmente competente.

53