lunes, 27 de marzo de 2017

SPSS-- DEFINICIONES



INVESTIGACIÓN

TABLAS DE CONTINGENCIA

CHI-CUADRADO

Esta prueba puede utilizarse incluso con datos medibles en una escala nominal. La hipótesis nula de la prueba Chi-cuadrado postula una distribución de probabilidad totalmente especificada como el modelo matemático de la población que ha generado la muestra.
Para realizar este contraste se disponen los datos en una tabla de frecuencias. Para cada valor o intervalo de valores se indica la frecuencia absoluta observada o empírica (Oi). A continuación, y suponiendo que la hipótesis nula es cierta, se calculan para cada valor o intervalo de valores la frecuencia absoluta que cabría esperar o frecuencia esperada (Ei=n·pi , donde n es el tamaño de la muestra y pi la probabilidad del i-ésimo valor o intervalo de valores según la hipótesis nula). El estadístico de prueba se basa en las diferencias entre la Oi y Ei y se define como:

Estudia la relación entre las variables. Se selecciona en el menú estadístico de la tabla de contingencia. La hipótesis nula a contrastar es la independencia de las variables, siendo la dependencia la hipótesis alternativa.



Al pedir el chi cuadrado SPSS nos da su valor, que se calcula al poner en relación los valores observados con los esperados. En nuestro caso la Chi-cuadrado es de 3,157. Esto de por sí solo no nos dice mucho, sin embargo SPSS también nos facilita el nivel de significación que en este caso es de 0,532. Este nivel indica la probabilidad de rechazar la hipótesis nula de independencia siendo cierta. Si esta probabilidad es menor que 0,05 se rechaza la hipótesis nula y en consecuencia diremos que las variables son dependientes entre sí. En nuestro ejemplo, el nivel de significación es de 0,532, por lo que no podemos rechazar la hipótesis nula y decimos que las variables son independientes entre sí, o que no guardan una relación de dependencia.


CORRELACIONES

El concepto de relación o correlación entre dos variables se refiere al grado de parecido o variación conjunta existente entre las mismas. En este apartado vamos a estudiar un tipo particular de relación llamada lineal y se limita a considerar únicamente el caso de dos variables cuantitativas (correlación simple). Una relación lineal positiva entre dos variables X e Y significa que los valores de las dos variables varían de forma parecida: los sujetos que puntúan alto en X tienden a puntuar alto en Y y los que puntúan bajo en X tienden a puntuar bajo en Y. Una relación lineal negativa significa que los valores de ambas variables varían justamente el revés. La forma más directa de formarse una primera idea sobre el tipo de relación existente entre dos variables cuantitativas es a través de un Diagrama de dispersión. Este tipo de diagramas puede obtenerse mediante: Gráficos, en las diferentes opciones que tiene: Generador de Gráficos, Cuadros de diálogo antiguos o en Gráficos interactivos.

Para poder cuantificar el grado de relación lineal existente entre dos variables cuantitativas, así como medir el grado de ajuste de la nube de puntos a una recta, vamos a estudiar coeficientes de correlación. En el procedimiento de Tablas de Contingencia ya se puede obtener el coeficiente de correlación de Pearson. 

El procedimiento Correlaciones que incluye tres opciones:
 (1) Bivariadas, para el estudio de la relación entre dos variables cuantitativas
(2) Parciales, para el estudio de la relación entre dos variables cuantitativas cuando se controla o elimina el efecto de terceras variables  
(3) Distancias, para el estudio de la relación entre dos variables cualesquiera que sea su nivel de medida. 


COEFICIENTE DE INCERTIDUMBRE

Medida de asociación que refleja la reducción proporcional en el error cuando se utilizan los valores de una variable para pronosticar los valores de la otra variable. Por ejemplo, un valor de 0,83 indica que el conocimiento de una variable reduce en un 83% el error al pronosticar los valores de la otra variable. El programa calcula tanto la versión simétrica como la asimétrica del coeficiente de incertidumbre.

 Es una medida semejante a la anterior en cuanto a su concepción de la asociación de las variables, en relación a la capacidad predictiva y las disminución del error de dicha predicción. La diferencia estriba en su cálculo ya que en este caso la expresión de estos coeficientes depende de toda la distribución y no sólo de los valores modales, por lo que sólo toma el valor 0 en casos de total independencia. Ésta es su ventaja respecto a Lambda, pero es más difícil de interpretar. Oscila entre 0 y 1. Su versión asimétrica se interpreta como la proporción de incertidumbre reducida al predecir los valores de una variable a partir de los de la otra; mientras que la versión simétrica se interpreta como la proporción de incertidumbre reducida al predecir los valores de cualquiera de las dos variables mediante la tabla de contingencia.

BIBLIOGRAFIA:

Bausela, E.. (2005). SPSS: UN INSTRUMENTO DE ANÁLISIS DE DATOS CUANTITATIVOS . Revista de Informática Educativa y Medios Audiovisuales , 2 (4), 62-69.

se recupero informacion en:
https://www.uclm.es/profesorado/raulmmartin/Estadistica/PracticasSPSS/CORRELACION_CON_SPSS.pdf


https://rua.ua.es/dspace/bitstream/10045/8139/1/CONTINGENCIA.pdf

AGRUPACIÓN DE DATOS EN SPPS

VIDEO TUTORIAL
Aquí aprenderemos como realizar un agrupación de los datos en el programa SPSS