lunes, 7 de octubre de 2019

Introducción a la regresión cuantílica para comparar medianas en SPSS 26


El modelado basado en la regresión cuantílica, caracterizado por describir un cuantil dada una serie de variables exógenas, donde la mediana es un caso particular del algoritmo  general, tiene cada vez mas aplicaciones en el campo de la Metodología de las Ciencias del Comportamiento. En esta breve entrada vamos a ver como puede ser usado de  forma complementaria a algunas de las técnicas no paramétricas clásicas.

Por ejemplo, a la hora de comparar dos grupos que tienen un tamaño muestral muy reducido o no se ajustan al modelo de una distribución normal, una prueba no parámetrica clásica para compararlas es el test de Mann–Whitney, contrastando que los valores estadísticos centrales (medianas) son iguales o muy parecidos. 

El problema con esta prueba, es que es útil a la hora de contrastar promedios, asumiendo que la forma de dispersión son semejantes, lo cual no siempre es así.

viernes, 1 de marzo de 2019

SPSS 25: Introducción a la Inferencia Bayesiana con la prueba T-test

En esta breve exposición realizaremos una sucinta introducción de cómo realizar e interpretar una prueba T-test bayesiana para grupos independientes en SPSS. En el ejemplo vamos a comparar la edad de la comisión del primer delito reconocido por los presos de una muestra extraída del centro de Villabona, perteneciente al Principado de Asturias, teniendo en cuenta el sexo de los sujetos evaluados (1 = Varón, 1 = Mujer), utilizando la prueba T de muestras independientes.


sábado, 22 de diciembre de 2018

Lectura de matrices en AMOS

Si se desea introducir como datos de partida en AMOS una matriz de correlaciones, deberemos tener en cuenta que el archivo SPSS de datos debe tener la siguiente estructura:
-La primera variable, tipo cadena con nombre ROWTYPE_ (anchura 8 caracteres) deberá contener como información n, corr sttdev y mean.
-La segunda VARNAME_ (ancho 8) que contendrá los nombres de las variables en cada fila correspondiente. 
-A continuación se encuentran las columnas con las variables analizadas.

Un ejemplo podría ser el siguiente caso (matriz policórica generada por el programa Factor (Ferrando  y Lorenzo-Seva, 2017 ) y exportada al SPSS):

viernes, 14 de diciembre de 2018

Tamaño del efecto en Kruskal-Wallis y pruebas post-hoc

El tamaño del efecto, aconsejado como básico en los análisis de datos modernos, no solo complementa el grado de significación (valor p) indicando si existe o no un efecto y su intensidad, también nos ayuda a reducir la posibilidad de los falsos positivos (error tipo I o tipo II), y además facilita la comparación de las investigaciones.

Una alternativa no paramétrica clásica al ANOVA, es la conocida como prueba de Kruskal-Wallis, la cual evalúa si las medianas de la población en una variable dependiente son semejantes en todos los niveles de un factor. Si rechazamos la Ho (semejanza de medianas) es posible realizar pruebas post-hoc mediante el procedimiento incrustado dentro del SPSS, pudiendo calcular a continuación los tamaños de los efectos a partir de las pruebas test de Dunn o la U de Mann-Whitney para los pares significativos.

Por otra parte el tamaño del efecto global puede ser derivado a partir de la expresión general:
....donde:
* E= estadístico epsilón (ε2) que fluctúa entre 0 a 1.
* H= estadístico de Kruskal-Wallis (aprox. a chi-2)
* n = número total de casos en el estudio

sábado, 27 de octubre de 2018

SPSS: Un algoritmo alternativo a la prueba t-test para medidas repetidas

La prueba clásica de diferencias de medidas repetidas (t-test) frecuentemente no es sensible a ligeras diferencias que se pueden observar descriptivamente en los niveles contrastados. 
Dentro de las alternativas que podemos usar, veremos brevemente un procedimiento en SPSS descrito por  Hedberg & Stephanie (2015) basado en las puntuaciones diferenciales y el modelo de regresión. Y también la alternativa no paramétrica correspondiente. 

El objetivo de esta breve artículo es describir el uso de un modelo de regresión como una alternativa válida a la prueba clásica de diferencias de medias para observaciones repetidas, intentando aumentar la potencia estadística de la cual carece la herramienta estadística usada preferentemente por los investigadores.

miércoles, 4 de julio de 2018

SPSS OMS: Visualización de la valoración y contraste de los grados de significación (p) en escalas Likert

Los grados de significación han sido una parte esencial durante años del trabajo de investigación. Y ahora se encuentra en fase de revisión, tanto su uso (Wasserstein & Lazar, 2016) como su forma de interpretarlo (Benjamin et al.,2017).

Encontrándonos en esta fase dialéctica, es interesante poder visualizar rápidamente nuestros resultados clásicos con objeto de contrastarlos con los nuevos. Y de todas las técnicas posibles vamos a ver de forma breve una de las posibilidades que aparecen en Análisis de Datos, usando para ello el paquete estadístico IBM SPSS.

lunes, 13 de noviembre de 2017

SPSS 25: Introducción a la correlación bayesiana

La correlación bayesiana no deja de ser una distribución, y con objeto de ilustrarlo hemos creado esta breve referencia en este blog, usando como base de datos un antiguo estudio de nuestro grupo de investigación en Psicología Criminal y Forense. Para ello hemos utilizado el SPSS 25  tanto para explorar los datos de forma gráfica como para realizar las correspondientes estadísticas bayesianas. 

domingo, 13 de agosto de 2017

Introducción a la simulación en IBM SPSS modeler

El paquete estadístico SPSS, comercializado por SPSS Inc. (adquirido por IBM en 2009), es una de las herramientas más frecuentes en el campo de investigación en las Ciencias Sociales. (Annapurna, 2017). Y entre los procedimientos más útiles se encuentra la simulación de datos ().

En la herramienta IBM SPSS modeler, nos encontramos con el nodo "Generar simulación" que nos permite, generar datos simulados, ya sea bien a partir de distribuciones estadísticas especificadas por el investigador o de datos reales. Siendo útil en este caso cuando se desea evaluar el resultado de un modelo predictivo en presencia de incertidumbre en las entradas de modelo. 

martes, 30 de agosto de 2016

Análisis factorial: Fiabilidad compuesta y varianza extraída

En el proceso de observación de los comportamientos humanos, uno de los aspectos esenciales es el proceso de cuantificación. Entendiendo este proceso de medición como las reglas que nos permiten asignar números a los procesos observados, de tal forma que representen de manera adecuada la cantidad del atributo que poseen” (Nunally & Berstein, 1994). Si bien estas reglas son evidentes en situaciones como la altura, peso o edad, esto ya no es tan claro (no son intuitivas) en propiedades como la personalidad o la inteligencia.

Para medir este tipo variables (constructos) es necesario crear (usar si ya existen) escalas de medida formadas por un conjunto de preguntas o frases (ítems) que permiten medir el nivel que alcanza una atributo determinado (extroversión, psicoticismo, capacidad verbal, capacidad espacial, etc.) que no es directamente observable en el sujeto sometido a observación (un alumno, una institución, un animal, etc.).
En la literatura clásica psicométrica, el alfa de Cronbach, nos indica la fiabilidad de un conjunto de indicadores para medir un constructo evaluado. En caso  de obtener mas de un constructo, en el análisis factorial desarrollado, este índice no es adecuado, ya que no tiene en cuenta la influencia que los otros constructos pueden tener sobre el medido. Es un estadístico sesgado (Dunn, Baguley & Brunsden, 2014).

sábado, 28 de mayo de 2016

Tamaño del efecto en tablas de contingencia mediante el SPSS

Siguiendo las recomendaciones de la APA (2009), vamos a ver brevemente como se obtiene el tamaño del efecto (a posteriori) en las tablas de contingencia, usando para ello el SPSS.

En primer lugar recordar que en las tablas de frecuencias (contingencia) la fuerza de asociación (tamaño del efecto), estamos contrastando si las variables están relacionadas (asociadas), y se suele hablar en la literatura de fuerza de asociación en lugar de tamaño del efecto.

Para medir el tamaño del efecto (fuerza de asociación) vamos a usar en SPSS las tres medidas de asociación más frecuentes, que recordemos son:
El coeficiente phi: cuando tenemos una tabla 2×2 varía entre 0 y 1 y tiene una interpretación similar a la r de Pearson (más correlación cuanto más cercano a 1). En tablas mayores es más difícil de interpretar, y no debe ser usado.
El coeficiente de contingencia: siempre varía entre 0 y 1 y se interpreta como la phi. El problema es que pocas veces alcanza el valor 1.
La V de Cramer: para tablas 2×2 coincide con la phi. Siempre varía entre 0 y 1, y en tablas mayores de 2×2 no tiene las restricciones del coeficiente de contingencia, puede alcanzar su valor máximo 1.