Mostrando entradas con la etiqueta SPSS. Mostrar todas las entradas
Mostrando entradas con la etiqueta SPSS. Mostrar todas las entradas

lunes, 13 de abril de 2020

Bondad de ajuste Chi-cuadrado en SPSS y JASP

El test de bondad de ajuste Chi-cuadrado es muy útil en situaciones donde usamos una variable categórica (escala de medida nominal u ordinal), y queremos comprobar si las proporciones observadas (frecuencias relativas) de cada categoría se ajustan o no a un conjunto de hipótesis- proporciones basada en investigaciones anteriores, teoría o ideas previas del investigador (Cohen, 1988; Lomax y Hahs-Vaughn, 2012). 

Vamos a introducir brevemente la pruebas de bondad de ajuste de Chi-cuadrado en SPSS (IBM Corp., 2019) y JASP (JASP Team, 2020), usando los datos correspondientes a una base de datos de funcionarios de prisiones obtenidos en una investigación del Grupo de Investigación Psicosocial (GIP) de la Universidad de Oviedo en 2020.

lunes, 7 de octubre de 2019

Introducción a la regresión cuantílica para comparar medianas en SPSS 26


El modelado basado en la regresión cuantílica, caracterizado por describir un cuantil dada una serie de variables exógenas, donde la mediana es un caso particular del algoritmo  general, tiene cada vez mas aplicaciones en el campo de la Metodología de las Ciencias del Comportamiento. En esta breve entrada vamos a ver como puede ser usado de  forma complementaria a algunas de las técnicas no paramétricas clásicas.

Por ejemplo, a la hora de comparar dos grupos que tienen un tamaño muestral muy reducido o no se ajustan al modelo de una distribución normal, una prueba no parámetrica clásica para compararlas es el test de Mann–Whitney, contrastando que los valores estadísticos centrales (medianas) son iguales o muy parecidos. 

El problema con esta prueba, es que es útil a la hora de contrastar promedios, asumiendo que la forma de dispersión son semejantes, lo cual no siempre es así.

viernes, 1 de marzo de 2019

SPSS 25: Introducción a la Inferencia Bayesiana con la prueba T-test

En esta breve exposición realizaremos una sucinta introducción de cómo realizar e interpretar una prueba T-test bayesiana para grupos independientes en SPSS. En el ejemplo vamos a comparar la edad de la comisión del primer delito reconocido por los presos de una muestra extraída del centro de Villabona, perteneciente al Principado de Asturias, teniendo en cuenta el sexo de los sujetos evaluados (1 = Varón, 1 = Mujer), utilizando la prueba T de muestras independientes.


sábado, 22 de diciembre de 2018

Lectura de matrices en AMOS

Si se desea introducir como datos de partida en AMOS una matriz de correlaciones, deberemos tener en cuenta que el archivo SPSS de datos debe tener la siguiente estructura:
-La primera variable, tipo cadena con nombre ROWTYPE_ (anchura 8 caracteres) deberá contener como información n, corr sttdev y mean.
-La segunda VARNAME_ (ancho 8) que contendrá los nombres de las variables en cada fila correspondiente. 
-A continuación se encuentran las columnas con las variables analizadas.

Un ejemplo podría ser el siguiente caso (matriz policórica generada por el programa Factor (Ferrando  y Lorenzo-Seva, 2017 ) y exportada al SPSS):

viernes, 14 de diciembre de 2018

Tamaño del efecto en Kruskal-Wallis y pruebas post-hoc

El tamaño del efecto, aconsejado como básico en los análisis de datos modernos, no solo complementa el grado de significación (valor p) indicando si existe o no un efecto y su intensidad, también nos ayuda a reducir la posibilidad de los falsos positivos (error tipo I o tipo II), y además facilita la comparación de las investigaciones.

Una alternativa no paramétrica clásica al ANOVA, es la conocida como prueba de Kruskal-Wallis, la cual evalúa si las medianas de la población en una variable dependiente son semejantes en todos los niveles de un factor. Si rechazamos la Ho (semejanza de medianas) es posible realizar pruebas post-hoc mediante el procedimiento incrustado dentro del SPSS, pudiendo calcular a continuación los tamaños de los efectos a partir de las pruebas test de Dunn o la U de Mann-Whitney para los pares significativos.

Por otra parte el tamaño del efecto global puede ser derivado a partir de la expresión general:
....donde:
* E= estadístico epsilón (ε2) que fluctúa entre 0 a 1.
* H= estadístico de Kruskal-Wallis (aprox. a chi-2)
* n = número total de casos en el estudio

sábado, 27 de octubre de 2018

SPSS: Un algoritmo alternativo a la prueba t-test para medidas repetidas

La prueba clásica de diferencias de medidas repetidas (t-test) frecuentemente no es sensible a ligeras diferencias que se pueden observar descriptivamente en los niveles contrastados. 
Dentro de las alternativas que podemos usar, veremos brevemente un procedimiento en SPSS descrito por  Hedberg & Stephanie (2015) basado en las puntuaciones diferenciales y el modelo de regresión. Y también la alternativa no paramétrica correspondiente. 

El objetivo de esta breve artículo es describir el uso de un modelo de regresión como una alternativa válida a la prueba clásica de diferencias de medias para observaciones repetidas, intentando aumentar la potencia estadística de la cual carece la herramienta estadística usada preferentemente por los investigadores.

lunes, 13 de noviembre de 2017

SPSS 25: Introducción a la correlación bayesiana

La correlación bayesiana no deja de ser una distribución, y con objeto de ilustrarlo hemos creado esta breve referencia en este blog, usando como base de datos un antiguo estudio de nuestro grupo de investigación en Psicología Criminal y Forense. Para ello hemos utilizado el SPSS 25  tanto para explorar los datos de forma gráfica como para realizar las correspondientes estadísticas bayesianas. 

domingo, 13 de agosto de 2017

Introducción a la simulación en IBM SPSS modeler

El paquete estadístico SPSS, comercializado por SPSS Inc. (adquirido por IBM en 2009), es una de las herramientas más frecuentes en el campo de investigación en las Ciencias Sociales. (Annapurna, 2017). Y entre los procedimientos más útiles se encuentra la simulación de datos ().

En la herramienta IBM SPSS modeler, nos encontramos con el nodo "Generar simulación" que nos permite, generar datos simulados, ya sea bien a partir de distribuciones estadísticas especificadas por el investigador o de datos reales. Siendo útil en este caso cuando se desea evaluar el resultado de un modelo predictivo en presencia de incertidumbre en las entradas de modelo. 

martes, 30 de agosto de 2016

Análisis factorial: Fiabilidad compuesta y varianza extraída

En el proceso de observación de los comportamientos humanos, uno de los aspectos esenciales es el proceso de cuantificación. Entendiendo este proceso de medición como las reglas que nos permiten asignar números a los procesos observados, de tal forma que representen de manera adecuada la cantidad del atributo que poseen” (Nunally & Berstein, 1994). Si bien estas reglas son evidentes en situaciones como la altura, peso o edad, esto ya no es tan claro (no son intuitivas) en propiedades como la personalidad o la inteligencia.

Para medir este tipo variables (constructos) es necesario crear (usar si ya existen) escalas de medida formadas por un conjunto de preguntas o frases (ítems) que permiten medir el nivel que alcanza una atributo determinado (extroversión, psicoticismo, capacidad verbal, capacidad espacial, etc.) que no es directamente observable en el sujeto sometido a observación (un alumno, una institución, un animal, etc.).
En la literatura clásica psicométrica, el alfa de Cronbach, nos indica la fiabilidad de un conjunto de indicadores para medir un constructo evaluado. En caso  de obtener mas de un constructo, en el análisis factorial desarrollado, este índice no es adecuado, ya que no tiene en cuenta la influencia que los otros constructos pueden tener sobre el medido. Es un estadístico sesgado (Dunn, Baguley & Brunsden, 2014).

sábado, 28 de mayo de 2016

Tamaño del efecto en tablas de contingencia mediante el SPSS

Siguiendo las recomendaciones de la APA (2009), vamos a ver brevemente como se obtiene el tamaño del efecto (a posteriori) en las tablas de contingencia, usando para ello el SPSS.

En primer lugar recordar que en las tablas de frecuencias (contingencia) la fuerza de asociación (tamaño del efecto), estamos contrastando si las variables están relacionadas (asociadas), y se suele hablar en la literatura de fuerza de asociación en lugar de tamaño del efecto.

Para medir el tamaño del efecto (fuerza de asociación) vamos a usar en SPSS las tres medidas de asociación más frecuentes, que recordemos son:
El coeficiente phi: cuando tenemos una tabla 2×2 varía entre 0 y 1 y tiene una interpretación similar a la r de Pearson (más correlación cuanto más cercano a 1). En tablas mayores es más difícil de interpretar, y no debe ser usado.
El coeficiente de contingencia: siempre varía entre 0 y 1 y se interpreta como la phi. El problema es que pocas veces alcanza el valor 1.
La V de Cramer: para tablas 2×2 coincide con la phi. Siempre varía entre 0 y 1, y en tablas mayores de 2×2 no tiene las restricciones del coeficiente de contingencia, puede alcanzar su valor máximo 1.

jueves, 5 de mayo de 2016

Tamaño del efecto en la prueba U de Mann-Whitney

Una alternativa clásica a la prueba de la t de Student, es la prueba no paramétrica conocida como U de Mann-Whitney (Mann-Whitney-Wilcoxon, prueba de suma de rangos Wilcoxon, o prueba de Wilcoxon-Mann-Whitney), y aplicada a dos muestras independientes, con datos a nivel de escala ordinal o intervalo/razón pero donde no se puede asumir normalidad. 

Es un procedimiento que es fácil de programar en sistemas como el SPSS, como podemos comprobar en el siguiente caso:

martes, 5 de enero de 2016

Odds ratio y Q de Yule en el SPSS

En el campo de la observación, es frecuente tener que cuantificar la asociación entre dos evaluadores, como medio de probar el grado de concordancia de sus registros, o bien el análisis secuencial de dos comportamientos.

Frecuentemente la recogida de información se simplifica mediante clasificaciones dicotómicas, de acuerdo al esquema general de la siguiente tabla, para evaluar la concordancia de investigadores:

Frecuencias para datos binarios de observación en dos investigadores
Observador 1 Observador 2
+ -
+ a b a + b
- c d c + d
a + c b + d Total

Mientras en el caso de un análisis secuencial, el formato sería:
Frecuencias para datos binarios de  dos comportamientos secuenciales
Comportamiento 1Comportamiento 2
+-
+aba + b 
-cdc + d 
a + cb + dTotal

viernes, 17 de abril de 2015

Estimar Odds Ratio y los factores de confusión a través del SPSS

La asociación entre un comportamiento considerado problemático, y la exposición a un factor, es un análisis clásico (Herrero, 2015), y frecuentemente susceptible de confusión (relación espuria).
Supongamos el caso siguiente (estudio en el centro de Villabona dirigido por el doctor F.J.Rodríguez de la Universidad de Oviedo), donde se relaciona la reincidencia (comportamiento objetivo) con la exposición a niveles de ingresos bajos en la familia. Usando el SPSS obtenemos la siguiente tabla de frecuencias y su Odds Ratio (OR):
Como el OR es de 2,5 (Ingresos bajos/Ingresos medios altos), con un intervalo de confianza (IC) entre 1,28 y 4,99 (no contiene el 1), podemos asumir relación entre las dos variables estudiadas. Es decir, los ingresos familiares bajos son un factor de riesgo, a la hora de determinar un comportamiento de recidiva (reincidencia) en los sujetos internados en el centro de Villabona.

martes, 24 de marzo de 2015

Odds Ratio y Riesgo relativo en SPSS

En Metodología, frecuentemente usamos algoritmos para considerar una exposición (factor de riesgo) y determinar su relación al comportamiento problemático (por ejemplo , suicidio) . Son útiles a la hora de expresar una cantidad (magnitud) del riesgo de comportamiento problemático para las personas que son expuestas a determinados agentes (Herrero, 2015).

Supongamos como ejemplo los datos siguientes: 

El riesgo se expresa en modelos de probabilidad, de una exposición dada causando un comportamiento. Es decir, la probabilidad de comportamiento problemático en los expuestos con respecto a la probabilidad de comportamiento problemático en los que no han sido expuestos. A esto, se conoce como el riesgo relativo (RR). En nuestro ejemplo el valor es 3.3