Post on 19-Sep-2018
1
Naturaleza de la Medida en Educación Coral González Barberá
Universidad Complutense de Madrid
Consideraciones previas En Educación, así como en el resto de disciplinas, que se constituyen
mediante conocimientos científicos, es necesario realizar investigaciones
científicas y, es sabido, que uno de los aspectos fundamentales en toda
investigación científica que se precie es la medición, por lo que, es necesario
medir.
En palabras del profesor {García Hoz, 1969 #15} dos condiciones son
necesarias y suficientes para que una investigación empírica tenga cabida en la
ciencia experimental. En primer término la aplicación de la medida o evaluación
objetiva a los fenómenos estudiados (…). En segundo lugar, la posibilidad de
comprobar la investigación por parte de personas ajenas a ella.
Efectivamente, si la Pedagogía es una disciplina que estudia o contiene teorías
sobre la Educación, es evidente que requiere conocimientos científicos que
reúnan características esenciales de todo conocimiento científico, entre las que
destacan las de ser demostrado y sistemático, y además, requiere algún
método o estrategia que le permita alcanzarlos de manera rigurosa.
Consecuentemente, aceptamos la acción de medir en educación como una
necesidad, un requisito para alcanzar conocimientos científicos.
Sin embargo, la necesidad de medir no significa que todo sea medible, que
todo se pueda medir, necesitamos conocer las variables a medir y someterlas a
prueba, hipotetizar sobre si, entre sus características, se encuentra la
posibilidad de ser medida.
Así como en el campo de la psicología podemos destacar una rama o
especialización denominada Psicometría que se encargaría del estudio de los
métodos, técnicas y teorías implicadas en la medición de variables
psicológicas, en Educación no existe una especialización tan concreta algo así
como la Edumetría. Puesto que muchas de las variables estudiadas en
educación se asemejan a las que se trabajan en psicología consideraremos la
psicometría como parte fundamental de nuestro estudio.
2
A lo largo de la historia la psicometría se ha centrado en varios aspectos, hoy
por hoy podríamos destacar cinco grandes áreas de trabajo que, a su vez,
podrían subdividirse en áreas más concretas. A continuación de sintetizan:
Áreas de estudio de la Psicometría
Áreas temáticas Descripción
Teoría de la Medición Fundamentación teórica de la Medida
Teoría de los Tests
Lógica y modelos matemáticos
subyacentes a la construcción y uso
de los tests
Escalamiento Psicológico Problemática del escalamiento de
estímulos psicológicos
Escalamiento Psicofísico Problemática del escalamiento de
estímulos físicos
Técnicas Multivariadas Imprescindibles para la construcción
y análisis de instrumentos de medida
Este curso se basa en los dos primeros aspectos de la tabla, en concreto estas
páginas se refieren fundamentalmente a la Teoría de la medición.
Breve historia de la Medida en Educación Siguiendo a Michell (1990), trataremos lo que se ha denominado Imperativo
categórico, y posteriormente, la historia del concepto de medida,
deteniéndonos la Teoría bifactorial de la inteligencia (Spearman, 1904) debido a
la importancia de su aportación en el estudio de la medida.
El imperativo cuantitativo Desde la Antigüedad hasta nuestros días el asunto de la medida ha sido objeto
de preocupación y estudio. Podríamos destacar dos grandes corrientes o
perspectivas, la primera de ellas sería a defendida por grandes matemáticos y
filósofos como Pitágoras y Platón que afirmaban que todas las cosas se podían
transformar en números, que los números eran la esencia del mundo. La otra
perspectiva, cuyo mayor exponente es Aristóteles, señalaba que la esencia de
todas las cosas era cualitativa.
3
No es hasta el siglo XI en la Edad Media Europea, cuando vuelve a surgir el
interés por la Ciencia y, del siglo XII al XVII, impera el pensamiento de
Aristóteles de que los hechos psicológicos, a diferencia de otros hechos, son de
naturaleza no cuantitativa.
Sin embargo, la tradición de Platón y Pitágoras resurge poco a poco en el siglo
XIII en Inglaterra. Así, en tiempos de Galileo y de sus seguidores como Kepler
y Descartes, finalmente se gana, casi definitivamente, la batalla al
pensamiento de Aristóteles.
En el s. XIX, Newton impone lo que se ha venido llamando el imperativo
cuantitativo que ayudó a dar sentido a muchos fenómenos psicológicos
apoyándose en las matemáticas y que podríamos decir qué filósofos de la talla
de Kant de una forma u otra, lo asumieron dentro de sus teorías.
Fechner (1860) fue una figura importante en el campo de la medida en
psicología porque aunque comenzó preocupado por la medida de fenómenos
físicos, finalmente se planteó la medida de la intensidad de las sensaciones.
Desarrolló la primera metodología psicológica cuantitativa y por ello se le
consideró el padre de la psicología como ciencia (puesto que era la primera vez
que se conseguía medir).
Sin embargo, aunque Oresme (en el s- XIV) y después Herbart (1816) se
habían planteado la teoría psicológica basada en lo cuantitativo fue Fechner
el primero en plantear los modos de medir.
Se pueden destacar psicólogos del prestigio de Wundt, Thorndike y Freid,
entre muchos otros.
Durante un largo periodo, muchos se dejaron la vida en medir y en considerar
que lo que no podía ser medido no era conocimiento científico, sin embargo
podemos destacar autores como Bretano (1874) el cual tenía una visión más
flexible del asunto, más cercana a algunos argumentos Aristotélicos. Este
conjunto de autores opinaba que no todas las variables tienen la estructura
necesaria para considerarse cuantitativas (para serlo han de ser aditivas), que
era posible que existieran ciencias puramente cuantitativas porque las
variables que estudian lo son. No obstante, la medida no la consideraban
como una característica universal de la ciencia, sino que lo que caracterizaba
a la ciencia, según su opinión, era el método de la observación, ya que sólo
4
mediante él se puede conocer la estructura de cada variable, ya que es
imposible determinarla a priori.
Todo ello, ha dado lugar a una confusión enorme que se ha extendido a lo
largo de todo el siglo veinte, no sólo sobre el citado imperativo sino también
sobre el propio concepto de medida.
Historia del concepto de Medida De los escritos de Aristóteles y Euclides podríamos extraer toda una teoría,
verdaderamente coherente, del concepto de medida y cantidad.
Aristóteles consideró la cantidad la categoría fundamental de la realidad, así,
dividió las cantidades en discretas y continuas. Las cantidades discretas eran
los números naturales los cuales no los consideraba elementos de un sistema
formal pero sus propiedades comunes formaban clases o conjuntos, por
ejemplo, el número 2 era lo común de todos los pares de cosas. Las cantidades
continuas, que llamaba magnitudes, las utilizaba para intentar designar
variables como la longitud, el tiempo, el peso, el volumen, etc.
Dichas categorías, se diferenciaban por el hecho de que un valor de una
magnitud está compuesto por partes aditivas mientras que un número natural
está compuesto de una única parte; según lo cual, las magnitudes pueden ser
divididas infinitamente, por esa razón las llamó variables continuas. Su
estudio le llevó a trabajar con otro concepto que denominó magnitud relativa,
que se basaba en el uso de equivalencias y razones.
De esta concepción de las cantidades de Aristóteles, proviene lo que hoy
llamamos cantidades extensas cuyo paradigma es la longitud, ya que
constituye un ejemplo claro de la propiedad aditiva: si se cogen dos barras de
acero de diferente longitud y se unen por las puntas se forma otra línea con
una longitud que es exactamente la suma de las dos barras.
Si nos centramos en la teoría clásica de la medida podemos observar que
trabaja sobre la estructura de variables cuantitativas, y no sobre el
comportamiento de los objetos que poseen los valores de cada variable. Este
aspecto de la teoría, que ahora parece tan evidente e importante no fue
resaltado por los antiguos filósofos y matemáticos, puesto que las únicas
magnitudes que manejaron fueron extensivas y, por tanto, no sentían la
necesidad de dedicarse a ello.
5
Sin embargo, la ciencia moderna, a diferencia que la antigua, trabaja con
muchas variables cuantitativas que no son extensivas. La temperatura es un
buen ejemplo: combinando dos líquidos no obtenemos otro cuya temperatura
es la suma de la temperatura de los dos. A este tipo de cantidades se llaman
intensivas. Se diferencian de las extensivas en que los objetos que las
manifiestan se comportan de manera diferente, la relación entre la cantidad y
el objeto es mucho más compleja e indirecta, pero no dejan por ello de ser
variables cuantitativas. A pesar de esta extensión de las variables
cuantitativas, no debemos olvidar que la teoría clásica sigue describiendo la
estructura de la variable involucrada (y no las relaciones entre la variable y el
objeto).
El hecho de que la teoría clásica considerase ambas cantidades (extensas e
intensas) se hizo explícito, por primera vez, en el siglo XIV gracias a un
teólogo francés llamado Oresme. En el ámbito de la teología surge el problema
de intentar medir la intensidad de variables como la caridad de la gente y,
posteriormente lo hace extensivo a todas las variables de características
similares. El citado autor propuso una solución que consistía en concebir las
intensidades en un continuo, y situarlas en una línea. De su pensamiento se
siguió que se podían considerar los dos tipos de cantidades como si fueran
extensivas (con el paradigma de la longitud) apoyando su interpretación en la
explicación que Aristóteles hace sobre las razones. En consecuencia, Oresme
se creyó con derecho de especular sobre la medida de toda clase de variables
que hasta ahora se habían considerado cualitativas, incluyendo variables
físicas como la velocidad y variables psicológicas como el placer y el dolor.
La aportación de Oresme fue muy importante ya que creó, en teoría al menos,
la nueva Psicometría.
Su visión hizo que se modificaran los antiguos conceptos de magnitud y
medida y que se ampliara su significado incluyendo también las magnitudes
intensivas en el concepto de magnitud, algo que fue muy relevante en la
revolución de la ciencia y en sus consecuencias.
Llegados a este punto nos parece oportuno de hacer un alto en el camino de la
historia de la medida para detenernos en, lo que consideramos, un hito
importante de la misma: la aportación de Spearman (1904). Aunque es
conocido por la teoría bifactorial de la inteligencia, el interés por detenernos en
la aportación de Spearman, no se debe tanto a la técnica del análisis factorial
6
como tal, sino a la importancia que tiene en el mundo de la medida. Spearman
(1904) a primeros del siglo pasado, fue el primero que consiguió formular un
método mediante el cual estudiar una variable latente como era la inteligencia
(al que llamó factor G) mediante la medición de variables observadas (factores
específicos).
Él mismo (Spearman, 1932) resume su doctrina como sigue: Cuando una serie
de pruebas psicológicas producen una tabla de correlaciones tal que sus
columnas son proporcionales, estas pruebas pueden explicarse por un solo
factor general, común a todas ellas, y por tantos factores específicos como
pruebas haya.
En realidad, lo primero a tener en cuenta es que la inteligencia es una
característica no observable que sólo podemos controlar a través de cómo
soluciona un sujeto la tarea.
La idea de Spearman se basa en la existencia de una inteligencia general que
se hace observable a través de multitud de tareas de naturaleza distinta.
Siendo:
G Factor general, es una variable no observable, rodeada de un
círculo, que explica parte de la realización de cada tarea.
X Es la tarea, es una variable observable.
a Es la intensidad con la que G afecta a X.
e Factor específico, no observable, que explica otra parte de X.
Debemos saber que G no afecta del mismo modo a cada una de las variables
observables. Siendo a1 la intensidad con que afecta a X1, a2 la intensidad con
que afecta a X2, etc.
G
X1
X3
X4
a1
a2
a3
X2
a4
e1
e2
e3
e4
7
Si consideramos que a siempre se encuentra entre los valores 0 y 1, hemos de
tener en cuenta que nunca puede tomar el valor de 1, ya que en ese caso
estaríamos diciendo que G=X1, X1 y G serían lo mismo, por tanto la
inteligencia sería una variable observable.
G no explica por completo ninguna X, por tanto hay un cambio en las
variables observables no explicado por G. Así, cada e representa al conjunto de
todos aquellos factores que no están contenidos en G y que afectan a cada una
de las variables observadas, se trata pues, de un factor o conjunto de factores
que actúa como si fuese un factor específico que explica cada X. Existe un e
para cada x.
A este modelo se le llama MODELO BIFACTORIAL o MODELO DE FACTOR COMÚN,
porque cada variable observable está explicada por dos factores, el general (G)
y el específico (e).
De todo ello se deduce que cualquier par de variables observadas tiene que
presentar correlación. Para un mismo valor de G, los valores de X1 y X2
estarán relacionados, serán similares. X1, X2, X3 y X4 se relacionan por la
unión que todos ellos tienen con G, es decir, por a1, a2, a3 y a4. Porque, en
caso contrario, no podrían tener un factor común que explicase a las variables
observadas. La existencia de correlación entre las variables observadas es uno
de los requisitos fundamentales para aplicar la técnica del análisis factorial.
Sin embargo, los errores (e), no tienen entre sí ninguna relación, cada uno
afecta a una sola de las variables. Tampoco tiene porqué haber correlación
entre G y los valores e, ya que no tienen nada en común, así podríamos definir
cada variable observable como:
X1= a1*G + e1
X2= a2*G + e2
X3= a3*G + e3
X4= a4*G + e4
Estas ecuaciones recuerdan a la recta de regresión, la diferencia está en que
en la recta de regresión tanto la variable explicativa como la variable explicada
son observables, y en este caso, la variable explicada, por ejemplo X1, es
observable, sin embargo la variable predictora, G, es latente.
8
Cuanto mayor sea la relación de G con X1, mayor será la relación de G con X2
y, en consecuencia de X1 con X2. Para comprender esta afirmación es
necesaria una deducción matemática en la que se ponga en relación el
operador de esperanza matemática y la correlación en términos de varianzas y
covarianzas con el fin de probar que, efectivamente la relación entre dos
variables observadas depende únicamente de la relación que poseen con el
factor común G.
Esto nos da a entender que la relación entre X1 y X2 depende de la relación
que exista entre éstos y G.
No perdamos de vista el hallazgo de Spearman: Se consigue estimar el valor de
G a través de dos variables observables.
Está claro por tanto, que los sujetos tendrán un desempeño diferente en G en
función del desempeño que tengan en X1, X2, X3 y X4.
Si fuese cierto que existe un factor G de inteligencia, debería manifestarse en
que la destreza de las tareas X1, X2, X3 y X4 sería parecida, esto es, que las
puntuaciones deben estar correlacionadas.
Resumiendo y generalizando:
r 1,2 = a1 . a2
Esta correlación observable es el producto de las cantidades
a1 y a2 que son, igualmente observables. Por tanto,
r i,j = ai . aj
Si r 1,2 es observable, y a1 y a2 no lo son ¿cuántas correlaciones diferentes
puedo encontrar entre las 4 variables?
En general serían 2
)1( −KK, siendo K el número de variables observadas. En
este caso 4.3/2=6 correlaciones, representadas en la matriz simétrica
siguiente:
X1 X2 X3 X4 X1 1 r1,2 r1,3 r1,4 X2 1 r2,3 r2,4 X3 1 r3,4 X4 1
9
Si existe un factor G, todas las r dependerán de él, entonces:
r 1,2 = a1 . a2
r 3,4 = a3 . a4 r 1,2 . r 3,4 = a1 . a2 . a3 . a4
r 1,4 = a1 . a4
r 2,3 = a2 . a3 r 1,4 . r 2,3 = a1 . a2 . a3 . a4
Esta igualdad sólo
existe si existe una
factor G, por tanto:
Por tanto:
r 1,2 . r 3,4 = r 1,4 . r 2,3 � r 1,2 . r 3,4 - r 1,4 . r 2,3 = 0
Esto es especialmente interesante porque todos los términos de esta ecuación
son observables, y sólo se cumple si es verdad este modelo. En caso contrario,
si no se diera la ecuación y r 1,2 . r 3,4 - r 1,4 . r 2,3 ≠ 0, el modelo no se cumpliría.
Si se toma otro par de correlaciones diferente:
r 1,3 . r 2,4 = a1 . a2 . a3 . a4
r 1,4 . r 2,3 = a1 . a2 . a3 . a4
Ocurre lo mismo:
r 1,3 . r 2,4 = r 1,4 . r 2,3
r 1,3 . r 2,4 - r 1,4 . r 2,3 = 0
Es decir, que si existe el
factor común, tiene que
darse la anulación de las
tétradas.
De esta manera, Spearman cayó en la cuenta de que el producto de dos
correlaciones implicaba a todas las saturaciones, con independencia de las
variables observadas que correlacionase, siempre que existiese el factor G.
Por tanto, para probar la existencia del factor G de inteligencia debe darse lo
que denominó anulación de las tétradas.
Posteriormente el trabajo de Sperman consistió en medir diferentes variables
observadas y comprobar si sus tétradas se anulaban y resultó que así era. Lo
que le llevó a pensar que había demostrado que existía un factor general de la
inteligencia.
Efectivamente, su hallazgo fue grandioso, pero no tanto en el ámbito de la
inteligencia y la psicología como en el hecho de que es la primera vez que una
teoría psicológica es científica, nunca antes se había podido contrastar una
teoría psicológica (1904).
10
Como consecuencia de todo esto, queda demostrada la posibilidad y utilidad
de medir variables psicológicas, lo que justifica la teoría de la medida, es más,
la fundamentación de la teoría bifactorial de Spearman es la clave de la teoría
clásica de los tests.
Dicha teoría defiende que las ratios de las magnitudes deben ser equivalentes
a las ratios de los números. Ahora las magnitudes como la longitud son
propiedades empíricas o relaciones, es decir, pertenecen al mundo espacio
temporal de la experiencia. Por otro lado, las características empíricas de los
números han sido siempre un problema, desde tiempos antiguos. Sin embargo
la teoría clásica, afirmando la existencia de relaciones entre las ratios de las
magnitudes y de los números, defiende que los números deben tener
características empíricas.
Esta teoría empezó a recibir fuertes críticas entrado el siglo XX, por una parte,
porque Frege se opone rotundamente demostrando que la teoría empírica del
número de Mill es errónea, y por otra, por el avance de durante el siglo XIX de
la teoría matemática de geometría no euclídea.
Posteriormente, la teoría de la medida que propone Campbell (1920) distingue
dos clases de medida: fundamental y derivada.
Una medida fundamental es la que requiere que exista una analogía física de
la adicción numérica, por ejemplo que dos barras (a y b) se unen para dar
lugar a una tercera (algo físico) y la longitud numérica del valor de a más la de
b, da lugar a un valor numérico que es la suma de los dos.
También contempla que existen medidas derivadas, que no son más que la
combinación de medidas fundamentales, cuando las medidas fundamentales
se hacen constantes podemos calcular una tercera (derivada de las otras dos),
por ejemplo, la densidad es la medida derivada de la razón de la masa y el
volumen, que son medidas fundamentales. En cualquier caso, las medidas
fundamentales son lo primero, puesto que constituyen el paso necesario para
que se dé cuantificación.
Esta teoría se aplicó de lleno a la psicología, apareciendo muchos libros y
artículos.
Sin embargo, siempre hubo autores que seguían creyendo que en psicología
no hay unidades aditivas y que es complejo medir; hasta tal punto, que se
comenzó a observar que la psicología carecía de variables que fuesen medidas
fundamentales, así Bartlett (1940) afirmó que la intensidad de las sensaciones
11
no cumple la regla de Campbell de que sólo con la yuxtaposición física de
entidades equivalentes podíamos medir. Por tanto, sin medidas fundamentales
que pudiesen dar lugar a medidas derivadas, comenzó a extenderse la idea de
la imposibilidad de medir en psicología.
Todo ello, colocó a la psicología en una situación delicada, hasta que Stevens
(1956) propuso una nueva teoría de la medida influido por Campbell y por un
conjunto de autores pertenecientes a una corriente llamada operacionalismo.
Bridgman (1927) fue el padre de dicha corriente afirmando que todo es un
problema de definición de los términos y, que lo que debe ocurrir es que todo
debe ser definido basándose en las observaciones de lo que se define.
El operacionalismo entra con fuerza en psicología gracias a Stevens. También
implicó una nueva teoría de la medida propuesta por Dingle (1950) donde se
define medida como cualquier operación precisamente especificada que da
lugar a un número. Medir es dar números según ciertas reglas, olvidándose
por completo el hecho de que número es igual a cantidad.
Si bien es verdad que Stevens partió de la teoría de Campbell poco a poco fue
evolucionando hacia teorías más cercanas al operacionalismo.
Campbell, en sus últimos trabajos, remplazó el concepto de aditividad por el
de representación en la medida considerando que los números son usados en
la medida para representar, no para cuantificar.
Stevens reconoció que se podrían representar con números otras relaciones
aparte de la aditividad y, dando énfasis a tales representaciones, pensó que
tenían el mismo derecho a incluirse en el concepto de medida.
Según esto, los números se usan para representar identidad o diferencias con
respecto a otros atributos (escala nominal).
Otra escala es la que ordena las categorías que representan atributos, pero no
dejan de ser representaciones de identidad ordenadas.
Una tercera representa relaciones en las que las relaciones aditivas se dan
entre las diferencias de las categorías de la escala, pero donde los números de
la escala en sí mismo no representan aditividad.
Finalmente, reconoció que las relaciones aditivas se podían representar
numéricamente mediante otra escala: la escala de razón.
Según esta teoría todos los atributos pueden ser medidos, basta asignar
números a variables.
12
En este punto, el concepto de medida pierde todo su contenido, así como la
distinción entre cantidad y cualidad, el hecho de que una variable sea
cuantitativa o no depende únicamente de la decisión del investigador, no de la
naturaleza de la misma.
Así, de repente, todo lo cuantitativo o pseudocuantitativo era medida. Y se
tomó la definición de medida de Stevens como la que siempre había existido.
Hasta Stevens se sorprendió de ello.
Durante estos tiempos, la teoría de Stevens fue tan apoyada que provocó un
consenso entre lo psicólogos y se respiraba por fin un ambiente de unidad.
A pesar de ello, la definición de Stevens es errónea porque confunde dos clases
diferentes de prácticas: medida (en el sentido clásico) y la codificación
numérica. Confundir ambas cosas es confundir cómo son las cosas con su uso
simbólico para representarlas. Por medida entendemos un compromiso
ontológico de la cantidad y el número como parte del mobiliario del universo,
mientras que la codificación numérica es simplemente un recurso notarial para
la representación simbólica de los hechos.
Todo lo argumentado anteriormente, da explicación al hecho de que los
psicólogos aceptaran esta confusión, estaban deseosos de implementar un
programa cuantitativo en su ciencia, obsesionados porque consideraban que
la única forma de avanzar en la técnica era la de tener variables cuantitativas.
Hagamos un recorrido por las dos teorías más importantes de la medida, para
estudiar sus aportaciones y sus limitaciones en profundidad en el apartado
siguiente y, sólo así, comprenderemos mejor los métodos que se proponen
para enmendar los errores que venimos arrastrando de la historia de la
medida.
Teorías de la Medida en Psicología y Educación
En este apartado se estudiarán las dos teorías o concepciones que más hondo
han calado en la historia de la medida y que a su vez, son muy diferentes
entre sí: el Operacionalismo y el Representacionismo, aunque en ocasiones
aparecen juntas en una visión simplista de la medida.
13
Teoría Operacional de la Medida Las razones de Bridgman, considerado el padre de la misma, para promulgar
la doctrina son muy diferentes a las razones por las que los psicólogos las
aceptaron. Como ya hemos mencionado, la doctrina parte de la revolución
física. Le llamó la atención el hecho de que las teorías cuánticas y de la
relatividad dieran lugar a la revisión de conceptos como espacio y tiempo,
fundamentales para la teoría de Newton.
Bridgman era un defensor de la inducción y pensaba que el conocimiento
científico se adquiría poco a poco y sólo se daban pequeños cambios con
algunas leyes y teorías de muy de vez en cuando, sin embargo, la teoría de
Newton no fue un pequeño ajuste y, aunque la podría haber considerado como
un ataque al inductismo, Brigdman (1927) concluyó, que los conceptos
fundamentales que envuelven a la teoría de Newton son erróneos, que se
habían definido mal desde el primer momento y que estaban impregnados de
metafísica.
Ello le llevó a tomar una medida rápida que consistió en afirmar que los
conceptos científicos debían ser separados de su contenido metafísico aunque
esto diese lugar a reducirlos completamente a las clases de operaciones
científicas que se usan para llegar a ellos.
La crítica de Russell (1928) destaca lo mala que es esta doctrina de acuerdo
con el uso actual de los términos científicos, ya que, algunas veces, decimos
que una operación es mejor que otra para medir algunas variables
cuantitativas y, según la visión del operacionalismo si el concepto es sinónimo
de su correspondiente conjunto de operaciones, cada operación define un
concepto diferente y, por tanto, no es posible realizar comparaciones de las
especificadas por Russell. Los conceptos cuantitativos como se usan en la
ciencia generalmente trascienden de las operaciones usadas en su medida.
El operacionalismo de Bridgman acabó con la unidad conceptual de
propiedades tales como la longitud, dejando múltiples conceptos aislados unos
de otros, uno por cada procedimiento diferente.
Muchos psicólogos aceptaron este principio, usándolo como arma para
derrotar al mentalismo, que se percibía como una clase de metafísica.
14
Tomaron el operacionalismo para implementar la máxima de que todos los
términos teóricos usados en psicología deben ser definidos desde sus
operaciones.
No sólo los conductistas, sino también muchos psicometristas, encontraron
un acuerdo entre su teoría y el principio de Bridgman. Como habían intentado
medir variables como la inteligencia, las actitudes y la intensidad de las
sensaciones, variables que habían sido pensadas para ser mentales, y se
habían encontrado con numerosas dificultades, el operacionalismo aparece
para solventar sus problemas de un golpe. El concepto de medida podría
definirse en términos de los procedimientos usados.
Esta máxima se trasladó al operacionalismo británico, el físico Dingle (1950),
alargó o interpretó en el operacionalismo de Bridgman la teoría de medida
implícita en él. Él definió la medida como cualquier operación específica que de
lugar a un número. El punto de vista de Dingle capta el espíritu
operacionalista que ha impregnado los intentos de la medida psicológica desde
1930 hasta el presente. El principio de Bridgman convierte a todos los
conceptos y a todas las operaciones en desconocidas. Si el significado de un
concepto es el conjunto de operaciones por las cuales se determina, entonces
conocer el significado de un concepto depende de conocer el conjunto de las
operaciones apropiadas. Sin embargo, reconocer o conocer operaciones debe, a
su vez, depender del conocimiento de los conceptos. Por tanto, ¿que viene
primero, conocer los conceptos o las operaciones?
Por ejemplo, todos los casos de medir longitud con la regla tendrían algo en
común en virtud de lo cual son operaciones de esta clase antes que de otras.
Este algo debe ser un conjunto de propiedades o relaciones envueltas en la
operación. La identificación de la operación requiere reconocerlas. Por tanto,
conocer un concepto es reconocer una operación y reconocer una operación es
conocer nuevos conceptos, los cuales requieren conocer nuevas operaciones y
así hasta el infinito.
Ante esto último los operacionalistas intentaron “salvarse” replicando que la
observación en sí misma es una operación y, por tanto, que el conocimiento de
conceptos por observación directa es conocimiento basado en operaciones
(Stevens, 1939), sin embargo, no lo consiguieron. Es verdad que la
observación es una operación, en el sentido de que es algo que hacemos,
Stevens lo llamó la operación fundamental de la ciencia. Pero, su afirmación
15
pasa por alto la distinción entre la interpretación de una operación y su
conocimiento.
El Operacionalismo sirvió para diferentes propósitos dentro de la psicología.
No se aplicó en psicología con el mismo rigor con el que su autor lo había
aplicado en física. Tampoco se aplicó para los conceptos que se percibían
directamente, únicamente para aquellos denominados teóricos. La meta de
este operacionalismo, más diluido, fue la de reducir todos los conceptos
teóricos a conceptos observacionales para definirlos en términos de
operaciones especificables de manera observacional. Aquellos conceptos
teóricos que no eran reducibles, se veían como extravagantes, no deseados,
porque, según ellos, le daban a la ciencia un toque de metafísica.
Defendían una interpretación falsa de la ciencia, en tanto que la meta de la
ciencia es descubrir caminos naturales de trabajo, por lo que, diluir el
operacionalismo fue más un obstáculo que una ayuda. Muchos de los caminos
naturales están, al principio, oscuros y fuera del alcance de nuestra vista, por
lo que un acercamiento a la ciencia que no nos permite pensar más allá de lo
que puede ser observado actualmente, nos impide comprender aquellos
caminos ocultos.
Más seriamente todavía, esta variación del operacionalismo incurrió en un
error de lógica. Los eventos envueltos en una operación (o en sus resultados)
están, la mayoría, sólo causalmente relacionados con aquellos trabajos
escondidos que los conceptos teóricos están intentando elucidar. Definir los
conceptos teóricos en términos de tales eventos es violar el principio de que las
causas y los efectos deben ser lógicamente distintos de los sucesos (atribuido
a Hume, 1888).
Por tanto, contrariamente al operacionalismo diluido, los conceptos teóricos
no deben ser definidos operacionalmente.
Ambos, el operacionalismo clásico de Bridgman y el diluido de los psicólogos,
llevan a una confusión deliberada entre los conceptos y los significados
(operaciones) con los que son identificados.
El error en el contexto de la medida está en confundir una relación con una de
las entidades envueltas en ella. Conocer algo, identificarlo o medirlo, es una
relación entre el observador y la cosa conocida, identificada o medida. La
16
operación de la medición en la cual Bridgman puso mucho énfasis, es
simplemente el camino específico de la relación de la medición sucedida.
Teoría Representacional de la Medida La representación numérica de los sistemas empíricos
De acuerdo con la teoría representacional de la medida el papel de los
números es el de representar. Los números son asignados a entidades
empíricas de tal modo que ciertas relaciones entre los números asignados
representan relaciones empíricas entre las entidades. Los
representacionalistas hacen una distinción entre las entidades empíricas y las
numéricas. Las entidades empíricas son “entidades identificables tales como el
peso, las personas, las actitudes estamentales o los sonidos” (Suppes y
Zinnes, 1963, p.7). Y los números, entidades abstractas.
Uno de los conceptos centrales de Suppes es el de sistema relacional. Un
sistema relacional es una clase de entidades junto con una o más relaciones
de las que forman parte. Los sistemas relacionales poseen estructura. La
estructura está constituida por las propiedades de las relaciones involucradas.
Por ejemplo, la relación de al menos tan largo como tiene las propiedades de
ser transitiva y fuertemente conectada. Lo que significan estos términos lo
podemos indicar más claramente si utilizamos algunos símbolos.
Si tenemos x, y, z para identificar entidades de una clase y R para expresar la
relación, la expresión R(x,y) indica que x está en la relación R con y.
Entonces una relación R es transitiva, si y sólo si para todas las x, y y z de la
clase se cumple: R(x,y) y R(y,z) entonces R(x,z).
Una relación es fuertemente conectada si y sólo sí para todo x e y de la clase,
cualquiera R(x,y) o R(y,x).
De acuerdo con la teoría representacional, la medida depende de lograr
encontrar un sistema de relaciones numéricas que exponga una estructura
similar al sistema relacional empírico considerado.
Un sistema relacional numérico es aquel cuyas entidades involucradas son
números y las relaciones son relaciones numéricas. Dos sistemas relacionales
son similares en estructura cuando se corresponde cada relación en el primer
sistema con una relación en el segundo sistema que posee las mismas
propiedades.
17
Una adjudicación de los objetos dentro de los números será uno a uno cuando
a cada objeto le es asignado un único número, que es diferente del número
asignado a cualquier otro objeto. Una fijación de objetos a números es muchos
a uno cuando la segunda de las condiciones la ignoramos y el mismo número
puede ser asignado a más de un objeto. La representación de un sistema
relacional por otro se llama isomorfismo cuando la fijación es uno a uno, y
homomorfismo, cuando es de muchos a uno. Es normal en la medida que a
más de un objeto se le asigne el mismo número.
Por tanto, la medición da lugar a un homomorfismo entre un sistema de
relaciones empíricas y un sistema de relaciones numéricas. A tal
homomorfismo (o en los casos donde ocurre, isomorfismo) Suples y Zinnes
(1963) se refieren como una escala de medida.
Según Campbell los sistemas extensivos eran los únicos capaces de medir, la
visión de Russell (1903), sin embargo, difería. Este último consideró medida a
la representación numérica de magnitud, por la que entendía un sistema de
representación empírica que supone una relación de orden (tan grande que o
menos que en algún sentido). Esta opinión también la compartían Ellis (1966)
y Luce (1979).
Stevens (1946), por su parte, era partidario de un concepto incluso más
amplio. Su famosa definición de medición incluye cualquier caso de
representación numérica de un sistema relacional empírico, sea como sea su
estructura. En la práctica, puso el límite con lo que llamó escalas nominales,
que son la representación numérica de sistemas empíricos de un tipo
puramente clasificatorio. Por ejemplo, si la gente se clasifica por el género con
hombres asignando 1 y mujeres 0, el resultado es una escala nominal de
medida en el esquema teórico de Stevens.
Como se puede deducir de lo explicado hasta ahora, el liberalismo de Stevens
permitió a los psicólogos considerar sus procedimientos como medición
incluso aunque la visión da Campbell rechazara este estatus.
La teoría de tipos de escala
No podemos obviar el hecho de que existe siempre una arbitrariedad en los
números elegidos para hacer el trabajo de la medida, de acuerdo con la teoría
representacional. Habiendo decidido las relaciones numéricas que se usan
para representar las relaciones empíricas, se pueden asignar diferentes
18
conjuntos de números a entidades empíricas para conseguir el deseado
homomorfismo.
Así, se pueden obtener diferentes escalas de la misma variable. Tales escalas
no diferirán en la representación numérica de cualquier relación empírica, sin
embargo, sí lo harán en las asignaciones numéricas realizadas. Este punto lo
aclararemos con un ejemplo.
Considerando de nuevo el ejemplo de las varillas, anterior construimos una
escala ordinal basada en la relación de ser al menos tan largo como.
Supongamos que a, b, c y d son cuatro varillas y la asignación numérica
hecha en la escala 1 (ver tabla 1) refleja su orden de longitud. Puesto que los
números asignados bajo la escala 2 están exactamente en el mismo orden,
también reflejan el mismo orden de relaciones empíricas. Así, para estos
cuatro objetos, las escalas 1 y 2 representan el sistema relacional empírico de
igual de bien. Por supuesto, hay un conjunto infinito de conjuntos asignados
que también lo harían correctamente. Por otro lado, la escala 3 no representa
el orden de longitud con la magnitud numérica, por tanto no lo hará
correctamente.
Tabla 1. Escalas ordinales hipotéticas (escala 1 y 2) y escala nominal (escala 3) medidas de longitud de cuatro varillas a, b,c,d
Asignaciones numéricas
Varillas Escala 1 Escala 2 Escala 3
A 4 10 4
B 3 9 10
C 2 3 8
D 1 2 9
Stevens se planteó la cuestión de cómo todas las escalas ordinales están
relacionadas entre ellas. Suppes lo llamó el problema de la unicidad para las
escalas ordinales. Es el asunto de cómo de únicas son las asignaciones
numéricas en el caso de las escalas ordinales. En otras palabras, ¿cómo
podrían cambiarse las asignaciones numéricas de cualquier escala ordinal sin
cambiar la convención de que el orden empírico es representado por la
magnitud numérica?
La respuesta, obviamente, es que pueden ser cambiadas de cualquier manera
siempre que se mantenga el orden de la magnitud intacto. Es decir, si ni (x) es
el número asignado a x en la escala i, y nj (x) es el número asignado a x en la
19
escala j, entonces la transformación de la escala i a la escala j, deja el
homomorfismo intacto si y sólo si, para todos los pares de objetos x e y,
ni(x)≥ni (y) si y sólo si nj(x)≥nj(y).
Cada transformación de escala se llama transformación monótona del
incremento. Stevens llama transformaciones monótonas del incremento a la
clase de transformaciones de escala admisibles para escalas ordinales de
medida. Las escalas ordinales se dice que son las únicas que permiten las
transformaciones monótonas del incremento.
En contraste con las escalas ordinales, consideremos el ejemplo de las
medidas del peso.
Siendo a, b, c y d cuatro objetos cuyos pesos son medidos y suponemos que
a·a~b, a·b~c, y a·c~d. En la tabla que sigue (tabla 2) aparecen cuatro conjuntos
de asignaciones numéricas que podrían haberse hecho para estos cuatro
objetos. Las escalas 1 y 2 representan las relaciones empíricas descritas en el
párrafo anterior. Es decir, n(a)+n(a)=n(b); n(a)+n(b)=n(c); n(a)+n(c)=n(d). En la
escala 3 las relaciones de concatenación no son representadas por adición
numérica, pero el orden del peso se representa por el orden de magnitud de
los números. En la escala 4 ni siquiera se da este caso, cada objeto diferente
ha sido asignado a un número diferente.
Como la escala 3 se relaciona con las escalas 1 y 2 por una transformación
monótona de incremento, y como la escala 3 no representa toda la información
empírica disponible como lo hace la escala de razón, ocurre que en la escala
de medida de razón la clase de transformaciones admisibles de escala debe ser
más exigente que las de las escalas ordinales. En efecto, como es obvio, la
escala 1 es simplemente la escala 2 multiplicada por 4. Esto ilustra el hecho
de que si cualquier escala es multiplicada por una constante positiva, la
escala transformada mantiene el homomorfismo. Una escala de razón se
define por el hecho de que x·y~z si y sólo si n(x)+n(y)=n(z) y si cada número es
multiplicado por un número real positivo k, entonces se da que
k·n(x)+k·n(y)=k·n(z), lo cual es verdad cada vez que n(x)+n(y)=n(z) es verdad y a
la inversa. Tal transformación se llama transformación de semejanzas positivas
y las escalas de razón son las únicas que permiten este tipo de
transformaciones.
Tabla 2. Escala de razón hipotética (escalas 1 y 2), escala ordinal (escala 3) y escala nominal (escala 4) medidas de pesos para cuatro objetos a, b c, y d.
20
Asignaciones numéricas
Objetos Escala 1 Escala 2 Escala 3 Escala 4
A 4 1 1 9
B 8 2 4 7
C 12 3 5 8
D 16 4 10 4
Stevens distinguió además, lo que el consideraba, que eran otros dos tipos de
escalas importantes. Por un lado, La escala nominal está basada en la
clasificación y asigna el mismo número a objetos que son equivalentes, y
diferentes números a objetos que no lo son. Por ejemplo la escala 4 en la tabla
anterior es una escala nominal para el peso. La clase de transformaciones
admitidas para escalas nominales es la de transformaciones una a una. Es
decir, si ni(x) es el número asignado a x dentro de la escala nominal i y nj(x) es
el número asignado a x en la escala nominal j la transformación de i a j es uno
a uno si y sólo si ni(x)=ni(y) si y sólo si nj(x)=nj(y), para todos los pares de
objetos x e y.
Y por otro lado, la escala de intervalo permite transformaciones llamadas
transformaciones lineales positivas. Esto es, dos escalas de intervalo i y j, para
la medida de la misma variable estarán relacionadas por la siguiente clase de
ecuación: nj(x)=a·ni(x)+b (donde a es un número positivo y b es cualquier
número positivo o negativo). Por ejemplo, en la medida de la temperatura la
transformación de la escala de Fahrenheit (ºF) en Celsius (ºC) se realiza
mediante la siguiente transformación lineal C=(5/9)·F-160/9.
Una escala de intervalo conlleva la representación numérica de relaciones de
diferencias entre las entidades con respecto a algún atributo. Requiere un
orden en estas diferencias y una relación de composición sobre ellas. Esto es,
una relación equivalente a la que sigue: la diferencia de x es igual a la
diferencia de y más la diferencia de z. En el caso de la temperatura esta
relación está determinada empíricamente a través de la hipótesis de que las
diferencias de temperatura están directamente relacionadas con los volúmenes
(como el volumen de mercurio en un termómetro). Como el volumen es medido
en escala de razón, las diferencias de temperatura medidas también están en
la escala de razón. Este ejemplo ilustra perfectamente el hecho de que una
escala de intervalo es realmente una escala de razón sobre las diferencias.
21
Aceptando esta teoría de los niveles de medida, debemos tener en cuenta una
consideración nada despreciable; en función del progreso o avance en el
conocimiento del rasgo a medir y de la mejora en los instrumentos y técnicas
para hacerlo, un rasgo puede pasar de ser medible en niveles rudimentarios a
serlo en niveles más rigurosos. Stevens (1951) lo pone de manifiesto en el
siguiente ejemplo: Cuando los hombres sólo conocían la temperatura por
sensaciones, cuando las cosas eran solamente más calientes o más frías que
otras, la temperatura pertenecía a la clase d escala ordinal. Pasó a ser una
escala de intervalos con el desarrollo de la termometría, y después que la
termodinámica utilizó la expansión proporcionada de los gases para extrapolar
hasta cero, se convirtió en una escala de razón.
El problema de los estadísticos permitidos
Stevens reconoce que las diferencias entre las escalas de medida dependen del
carácter de las relaciones entre los sistemas empíricos y los relacionales.
Afirma que la medida es la inferencia de conclusiones empíricas partiendo de
las asignaciones numéricas y que dichas inferencias dependen de las
características del sistema empírico. De acuerdo con esta teoría una escala de
medida es un instrumento de deducción, no permite conclusiones,
únicamente ayuda en el proceso de inferencia.
Así, en la explicación de su teoría, indica, sin establecerlo claramente, qué
estadísticos son permisibles y qué estadísticos son lo son. A partir de aquí
surge un debate entre aquellos psicométricos que consideran que todos los
estadísticos son admisibles y que no se les puede privar de utilizarlos y
aquellos otros que admiten que hay estadísticos que no se pueden utilizar con
ciertas escalas aunque no explican exactamente los motivos de su afirmación.
Según Michell (1986) el problema es simplemente de validez de inferencias.
Porque el papel de los números en la medida, de acuerdo con la teoría
representacional es el de representar hechos empíricos y, a través de esta
representación, facilitar la emisión de conclusiones empíricas, los números en
sí mismos no contribuyen al contenido de las conclusiones.
Esta es la solución al problema de los estadísticos permitidos: las medidas
sólo son validas en las conclusiones empíricas si están contenidas en las
premisas empíricas. Las relaciones dentro del sistema relacional numérico se
22
elegirán porque poseen las mismas propiedades formales que las relaciones
empíricas, por ello, las conclusiones a las que se llega serán igualmente
válidas.
Por tanto, calcular la media en escalas ordinales es ir más allá de los datos y,
en consecuencia, inferir conclusiones empíricas con ella supone no poder
aplicarlas a los datos.
Al fin y al cabo, podemos afirmar que, aunque mal justificadas, las
recomendaciones de las prohibiciones que hace Stevens sobre la utilización de
los estadísticos tienen su lógica, puesto que su pretensión es poder llegar a
conclusiones válidas e intenta seleccionar los estadísticos que son correctos de
acuerdo con las diferentes escalas.
Una crítica al representacionimo
Existen sistemas métricos, en los que convencionalmente y universalmente
hemos establecido la unidad y, el número (ej. 2,5) indica como se relaciona
con la unidad (dos veces y media más) y esto puede ser comprobado. Sin
embrago, la teoría representacional no reconoce este tipo de medidas.
De acuerdo con esta teoría 2,5 metros no describe al objeto empírico al que se
refiere x sino las relaciones entre los objetos. Es decir, el número asignado a x
en la escala de longitud de los metros es 2,5.
Esta diferencia entre la teoría representacional y la interpretación realista se
extiende a las inferencias que se hacen, porque según la interpretación
realista si la longitud de y fuese 5 metros, la longitud de y sería el doble de la
de x. Sin embargo, según la teoría representacional: el número asignado a y en
la escala de medida de la longitud en metros es el doble que el asignado a x en
la misma escala.
Para la teoría representacional no se pueden mezclar las propiedades no
numéricas con los números, mientras en la interpretación realista se entiende
que los números están indicando la propiedad sin más. Por ejemplo, para el
representacionalismo sería correcto decir que la concatenación en cuanto a la
longitud de x con un objeto de la misma longitud produce un objeto de la
misma longitud que y.
El problema está en que desde la teoría representacional no se pueden tener
en cuenta afirmaciones como la longitud de y es el doble que la de x o, si
vamos más allá, el coeficiente de correlación entre la altura y el peso de los
escolares en Madrid es de .65. Claramente esta última afirmación hace
23
referencia a características no numéricas de los niños y se expresa con un
número.
Ante afirmaciones tan evidentes como las anteriores cabe preguntarse: ¿cómo
es posible que se haya extendido tanto esta convicción (el
representacionalismo) de que los números son externos a los hechos
empíricos?
Así, la teoría representacional se ha convertido, según nuestro punto de vista,
en una limitación para la medida, ya que deja aparte los conceptos numéricos
utilizados en ciencia para estudiar las realidades estudiadas.
Finalmente, incidir en la idea de que no hay nada lógicamente incoherente en
esta teoría, sin embargo, si lo que podríamos denominar la teoría empírica
realista de la medida, descrita en el próximo apartado, es cierta, el
representacionalismo sería empíricamente erróneo.
Medir es investigar Con este apartado pretendemos hacer una aproximación a lo que entendemos
por medida y a la teoría que subyace de dicha concepción. Para ello,
estudiaremos con detenimiento dos conceptos importantísimos, Medida y
Cantidad, que nos darán la clave para comprender la verdadera teoría de la
medida y uno de los modelos que permite llevarla a la práctica.
Cantidad y Medida
Estos dos términos, en ocasiones, según qué momentos y qué teoría, se han
llegado a confundir a lo largo de la historia de la medición.
Desde nuestra perspectiva, estas definiciones, no son más que la concreción
de lo que en el apartado anterior hemos denominado teoría empírica realista
de la medida, a la cual nos sentimos próximos intelectualmente.
Cantidad
Las características de una variable cuantitativa son el orden y la estructura
aditiva.
Medida
De manera simple, la medida es un procedimiento para identificar valores de
variables cuantitativas a través de relaciones numéricas con otros valores.
24
En la medida, algún valor de una variable cuantitativa es identificado como r
unidades. Una unidad de medida es simplemente un valor particular de la
variable relevante.
Si Y es la unidad de medida, y yo mido X puedo decir que X=rY, o lo que es lo
mismo, X/Y=r, que como ya ha sido explicado es algo empírico, cada razón de
valores de una cantidad continua es un número real, y la medida no es más
que el reconocimiento de estos hechos.
Así los valores que no conocemos los inferimos del valor de la unidad y
podemos establecer relaciones como si X=rY y Z=sY, entonces X/Z=r/s. Las
medidas relativas a la misma unidad forman una escala de medida, y las
medidas en la misma escala tienen en cuenta además relaciones numéricas
para ser deducidas.
La medida requiere el desarrollo de procedimientos mediante los cuales X e Y
puedan compararse y su razón se pueda calcular. Tales procedimientos son
los métodos de medida, y el desarrollo de tales métodos se denomina
cuantificación.
Lógicamente, previo a la cuantificación, aunque en la práctica los dos pasos
pueden combinarse, está el proceso de mostrar que la variable es cuantitativa.
A menos que este paso no se haya completado, cualquier método de medida
propuesto para una variable particular no se puede aceptar, puesto que se
trata de algo especulativo. Es decir, la medida de cualquier variable presupone
que es cuantitativa, y en ausencia de confirmación de la evidencia esta
suposición es la mayor especulación. Este punto es de mayor importancia
cuando consideramos aspectos de la medida psicológica.
Todos estos razonamientos han sido motivo de debate y confusión en los
últimos 50 años.
Desde la perspectiva que entendemos la medida, todos aquellos que, partiendo
de Campbell, defendían la idea de que el carácter de una cantidad se observa
en el comportamiento de los objetos que manifiestan estos valores, estaban
confundidos.
Existe más de un camino para probar la cantidad de las variables, y el primer
paso es conseguir probarlo.
Creer que una variable es cuantitativa es creer que sus valores poseen una
clase de estructura definida, que son ordenados y aditivos. Además, se como
hemos argumentado, si una variable cuantitativa es también continua e
25
ilimitada (por arriba o por abajo) entonces las razones de sus valores
constituyen el sistema de los números reales. Por tanto, los pares de sus
valores se encuentran en relaciones numéricas, y este es precisamente el
hecho que hace posible medirles y darles su significado.
En consecuencia, el camino de la medida debe comenzar con la búsqueda de
la cantidad, hipotetizando su cuantitividad, sólo de esta forma sabremos si
puede ser o no medida, no podemos suponer la cuantitividad de una variable
por el comportamiento de los objetos, o en el caso de la educación o la
psicología, los sujetos, puesto que lo fundamental es ser capaces de distinguir
entre la variable que medimos y el instrumento que utilizamos para hacerlo.
Sólo cuando seamos capaces de estudiar por separado estos dos aspectos,
seremos capaces de saber si una variable es susceptible de ser medida antes
de hacerlo.
La objetividad en la medida: Una historia filosófica del teorema de
Separabilidad de Rasch
Se pueden destacar dos puntos principales de superposición entre en el
concepto de objetividad en la medida:
1. Convergencia: hermenéutica circular que sostiene la simultaneidad, la
formación conjunta de parámetros de descripción de la medida y la
medición, y,
2. Separación: el requisito de que, dentro del marco de un contexto
general, el significado de algo no depende de lo que se dice o se escribe
de ello, de dónde o cuándo esto se diga, de quien más estaba alrededor
cuando se dijo, de quien preguntó sobre ello, ni tampoco de las
palabras concretas o los cambios de frase utilizados para expresarlo.
Finalmente, un modo de demostrar de manera concreta, que el modelo de
Rasch es el único que permite estudiar por separado el instrumento (la
dificultad del mismo) y la habilidad medida (o el rasgo) es centrándonos en su
modelo, tal y como lo formula.
26
Sabemos que,
Pi (θ)= f (θ, bi)= 1/1+exp(-(θ-bi)) Siendo,
Pi (θ): Probabilidad de acertar el ítem i a determinado nivel de θ.
θ: Valores del rasgo medido.
bi: índice de dificultad del ítem i.
Como podemos comprobar la probabilidad de acertar el ítem únicamente
depende de la diferencia entre el nivel del rasgo y la dificultad del ítem (algo
que denominamos argumento o logit de la ecuación).
Pues bien, si queremos comparar a dos sujetos con diferentes capacidades, o,
lo que es lo mismo, diferentes valores de θ, utilizando el mismo ítem podemos
comprobar que la diferencia entre ambos depende únicamente de su
capacidad, es independiente del instrumento utilizado. Ya que:
(θ1-bi)- (θ2-bi)= θ1- θ2-bi+bi= θ1- θ2
A diferencia por ejemplo, del modelo de dos parámetros cuyo logit o argumento
es a(θ-bi). Si en este caso comparamos a dos sujetos con diferente capacidad
en la resolución de mismo ítem resulta que la medición ya no depende
únicamente de la capacidad del sujeto, sino también de una característica
propia del instrumento, como es el índice de discriminación del ítem.
Así:
a (θ1-bi)- a (θ2-bi)= a θ1-abi-a θ2+abi= a(θ1- θ2)
Finalmente, si realizásemos lo mismo con el modelo de tres parámetros, de
nuevo observaríamos cómo la probabilidad de acertar el ítem de los dos
sujetos no sólo depende de una de las características del ítem sino de dos (el
índice de discriminación y la probabilidad de acertar el ítem al azar).
Este último planteamiento utilizando los logits de los modelos como base para
la justificación del mejor modelo de medida, de nuevo nos lleva a insistir en la
idea de que, de los tres modelos de la Teoría de Respuesta al Ítem, el más
adecuado, el que realmente permite medir, tal y como hemos definido medida,
Argumento o logit
27
el de un parámetro puesto que es el único que permite observar las diferencias
de los sujetos en la habilidad medida, únicamente en función de dicha
habilidad, independiente del instrumento de medida.
Comentarios finales
Detrás de un acto tan sencillo, aparentemente, de una fase entre otras
muchas del proceso de investigación, de algo que todos creemos saber hacer;
existe toda una disciplina, un gran campo de trabajo que se debe conocer a
fondo antes de descender a aspectos concretos de la medida como pueden ser
la construcción de ítems o los instrumentos más adecuados para medir una u
otra variable.
El hecho de cuestionarse sobre aspectos epistemológicos, filosóficos y, en
algunos casos, hasta de fe, es fundamental para crearse una perspectiva
desde la cual estudiar la medida de la manera más objetiva y completa
posible.