AAA - Todos los apuntes de A. Datos PDF

Title AAA - Todos los apuntes de A. Datos
Course Análisis de Datos en Psicología
Institution Universidad de Oviedo
Pages 118
File Size 3.1 MB
File Type PDF
Total Downloads 55
Total Views 165

Summary

Download AAA - Todos los apuntes de A. Datos PDF


Description

Capítulo 1

Conceptos Generales Marcelino Cuesta y Francisco J. Herrero Universidad de Oviedo Las ciencias sociales, como cualquier otra disciplina científica, avanza en la medida en que aplica un método. Ese esquema general abstracto que denominamos método científico al ser aplicado en un campo concreto, manifiesta unas serie de peculiaridades (Delgado y Prieto, 1997). De las peculiaridades de la Psicología (y otras Ciencias Sociales) en la aplicación del método científico como método general de investigación, surgen las diferentes modalidades metodológicas propias de esta disciplina (experimental, cuasi-experimental, de encuesta y observacional). Pero en cualquier caso siempre estarán presentes una serie de fases o pasos que Arnau (1995) concreta en: 1) Planteo del problema; 2) Formulación de hipótesis; 3) Diseño del experimento o estudio; 4) Recogida de datos; 5) Interpretación de los resultados y 6) Obtención de conclusiones. Concepto de análisis de datos Cuando se acude a la literatura en busca de una definición de Análisis de Datos única y clara el resultado son diferentes enfoques, en los cuales aun compartiendo una raíz común se introducen matices que propician la transición de unos a otros y dificultan una delimitación diáfana del concepto de Análisis de Datos. Dado que no es este el lugar de entrar en polémicas sobre definiciones nos quedaremos aquí, a modo de resumen, con la ofrecida por Pardo y San Martín (1998, pag. 19): “Cuando hablamos de Análisis de Datos nos estamos refiriendo a un conjunto de procedimientos diseñados para 1) seleccionar datos, 2) caracterizarlos y 3) extraer conclusiones de ellos”. Estos procedimientos proceden del campo de la estadística y aun aplicados en multitud de ciencias empíricas no pertenecen a ninguna de ellas en concreto. Conceptos previos Población estadística: Es todo conjunto de elementos, finito o infinito, definido por una o más características, de las que gozan todos los elementos que la componen, y sólo ellos. Cuando nos referimos a elementos de una población pueden ser objetos, personas, animales, organismos, etc. La población es definida por el investigador. Así todos los estudiantes de psicología de España pueden constituir la población para un determinado estudio, y en otro la población ser solamente los estudiantes de psicología de las universidades andaluzas. Muestra: Un subconjunto de la población, elegido por algún procedimiento, generalmente con el fin de investigar alguna propiedad de la población de interés. Como el tamaño de las muestras es en general mayor de lo que podríamos manejar en la práctica nos vemos obligados a trabajar con sólo una parte de dicha población.(PIR 2000, preg. 19; autoeval 11) Parámetro: Función definida sobre los valores numéricos de una población. Es, por tanto, un valor numérico descriptivo de una población. Como no solemos poder trabajar con poblaciones los parámetros son generalmente desconocidos. Se suelen representar por letras griegas. Estadístico: Función definida sobre los valores numéricos de una muestra. Es, por tanto, un valor numérico descriptivo de la muestra. Los estadísticos tratan de ser una estimación de una propiedad de la población realizada a partir de los datos de una muestra. Se suelen representar por letras latinas. Característica: Propiedad o cualidad de los elementos de una población. Modalidad: Cada una de las maneras en que se presenta una característica. Teoría de la medición Seguramente la definición de medida más citada es la establecida por Stevens (1951) según la cual medir consiste en "la asignación de numerales a objetos o eventos de acuerdo a reglas" (Pág. 1). Esta reiteración en la cita de Stevens podría llevar a pensar que se da un acuerdo amplio en este campo, nada más lejos de la realidad. Autores

1

como Carmines y Zeller (1979) advierten que esta definición resulta poco apropiada en las ciencias sociales ya que en estas los fenómenos medidos raras veces pueden definirse como objetos o eventos. En un intento de salvar esta barrera Torgerson (1958) traslada la asignación de los números de los sistemas (objetos) a las propiedades de estos. Por tanto, tal como señala Nunnally (1973), hablando estrictamente no se miden los objetos sino sus atributos. Esta matización a la definición de Stevens permite salvaguardar la medición de constructos psicológicos a través de respuestas observables que actúan como indicadores de aquellos. No es sólo la propia definición de medida en la que se dan discrepancias entre diferentes autores sino que históricamente el campo de la medición ha estado sometido a constante cambio, tanto en lo referente a la posibilidad de medir, como en los tipos de escalas y los tipos y características de las medidas realizadas. En este contexto encaja perfectamente la afirmación de Coombs, Dawes y Tversky (1981, pág. 24) :" Parece que hay diferentes clases de medición que varían en la cantidad de información que proporcionan, los tipos de estructura que revelan y el grado de exactitud con que pueden ser llevados a cabo. La determinación de los diversos tipos de medición y la explicitación de su significado constituyen el objeto de la Teoría de la Medición". Las escalas de medida Las escalas de medida no son más que reglas de asignación de números a las propiedades de los objetos que vienen definidas por las operaciones empíricas que asumen y por las transformaciones que las dejan invariantes. Existen varias propuestas de clasificación de las escalas de medida siendo la más popular de todas ellas la propuesta por Stevens (1946). En la caracterización de estas escalas se emplean cuatro propiedades del sistema numérico: igualdad/desigualdad, orden, igualdad de diferencias e igualdad de razones, las cuales determinan cuatro tipos de escala. Escalas Nominales. Cuando la única operación que se puede realizar con las propiedades de los objetos es la de igualad/desigualdad, de manera que los números asignados cumplen una función exclusivamente de etiqueta para diferenciar dos objetos o tipos de objetos, hablamos de una escala nominal. Ejemplos: género, raza, síndromes psicológicos (neurosis, depresión, esquizofrenia, etc). Las escalas nominales permanecen invariantes ante cualquier transformación de permutación: en lugar del número asignado a cada clase se le puede asignar cualquier otro siempre que los números se correspondan uno a uno (biunívocamente) con los anteriores. Es decir, las transformaciones admisibles en esta escala son las inyectivas. Escalas ordinales. En aquellos casos en los que los números asignados permiten establecer, además de la igualdad/desigualdad entre objetos, lo que es mayor y lo que es menor, tenemos una escala ordinal. Ejemplos: Clase social, rango profesional, posición entre los hermanos de una familia. Las escalas ordinales permanecen invariantes bajo cualquier transformación isotónica: mientras se mantenga el orden, puede transformarse cualquier número. Las transformaciones admisibles son, por tanto, monótonas crecientes. Escalas de intervalo. En este tipo de escalas además de las propiedades presentes en las dos anteriores existe una unidad de medida constante, lo que permite establecer igualdad de diferencias entre los elementos. Ejemplos: Rendimiento académico (las notas dadas de 0 a 10), temperatura en grados Celsius. Las escalas de intervalo permanecen invariantes ante cualquier transformación lineal: podemos sustituir las medidas de esta escala por otras que sean una función lineal de las primeras. Las transformaciones admisibles serán aquella de la forma y=a+bx, siendo a y b constantes con b>0. Escalas de razón. Si además de todas las propiedades exigidas a las escalas descritas anteriormente se da la igualdad de razones se obtiene una escala de razón. Esta obtención de igualdad de razones implica la existencia de un cero absoluto que representa la ausencia total de la propiedad que se está midiendo. Ejemplos: Tiempo de reacción, peso, altura, temperatura en grados Kelvin. Las escalas de razón son aquellas que permanecen invariantes ante cualquier transformación de semejanza. Las transformaciones que admite este tipo de escala son de la forma: x'= ax, siendo a una constante positiva. Variables: Definición y clasificación En el proceso de medición se asignan números a los objetos según reglas, y el conjunto de valores atribuidos a las diferentes modalidades de una característica dan lugar a lo que llamamos una “variable estadística”. Así podemos definir variable como una representación numérica de una característica que puede manifestarse de dos o más formas, es decir que varía de sujeto a sujeto o de tiempo en tiempo. Por contra hablaremos de constante al referirnos a una característica que sólo toma una modalidad (valor).

2

Las variables pueden clasificarse de acuerdo a distintos criterios pero quizás el más general es el basado en las escalas de medida, de esta forma diferenciamos entre: Variables cualitativas o categóricas: También denominadas atributos. Son aquellas variables medidas en una escala nominal, tales como el género o el estado civil. Variables cuasi-cuantitativas: Son las características que han sido medidas en una escala ordinal, como el nivel cultural, el rendimiento académico (medido como suspenso, aprobado, notable, sobresaliente), etc. Variables cuantitativas: Características que pueden ser consideradas al menos, a nivel de escala de intervalo, como el peso, la altura, etc. Dentro de las variables cuantitativas se diferencian dos subtipos: Variables cuantitativas discretas: Variables que toman valores aislados; por tanto, fijados dos consecutivos, pueden no tomar ninguno intermedio. Por ejemplo, número de hijos, número de ordenadores vendidos al año, etc. Suelen corresponderse con valores enteros. Variables cuantitativas continuas: Aquellas que pueden tomar cualquier valor dentro de un intervalo definido de valores. Es decir, que entre dos valores dados siempre pueden tomar un tercero. Por ejemplo, longitud, tiempo, etc. La estadística como instrumento del análisis de datos Tal y como se mencionó anteriormente al tratar de delimitar el concepto de Análisis de Datos, si bien no es completamente correcto establecer una equivalencia directa entre éste y la estadística, no es menos cierto que ésta última juega un papel central como principal instrumento formal de cuantos están a disposición del analista. Siendo la matemática reconocida como el lenguaje formal por excelencia dentro de las disciplinas científicas, cabe preguntarse por qué la psicología (y el resto de ciencias sociales) han elegido esta parte concreta de la matemática como medio para abordar el análisis de los fenómenos de su interés. De la observación del tipo de acontecimientos que se estudian en las diferentes ciencias es bastante directo deducir que en las ciencias “naturales” predominan las relaciones de tipo “determinista” con unas relaciones causa-efecto fijas, lo que les permite emplear para su formalización ramas de la matemática como el álgebra. Por contra, lo que caracteriza a las ciencias sociales en general, y a la psicología en particular, es la variabilidad tanto de los fenómenos estudiados como de los sujetos empleados para ese estudio. En este entorno de “incertidumbre” es en el que la estadística cobra todo su valor como rama de la matemática que nos apoyará en nuestro intento de realizar un estudio objetivo de la conducta (Cowles, 1989; Carro Ramos, 1994; Pardo y San Martín, 1998). A la hora de definir la estadística nos encontramos, como suele ser habitual, con casi tantas definiciones como textos sobre el tópico, si bien se da bastante acuerdo en lo fundamental. Dentro de la literatura en castellano en el campo de la psicología la definición de referencia ha venido siendo la ofrecida por Amón (1984): “Ciencia que recoge, ordena y analiza los datos de una muestra, extraída de cierta población, y que, a partir de esa muestra, valiéndose del cálculo de probabilidades, se encarga de hacer inferencias acerca de la población” (pág. 37) Esta definición, con un carácter claramente descriptivo, delimita el campo general de la estadística mediante la explicitación de las partes en las que tradicionalmente se ha dividido esta disciplina: Estadística Descriptiva y Estadística Inferencial, unidas por el Cálculo de Probabilidades. Estadística Descriptiva La estadística descriptiva comprende fundamentalmente las funciones de recogida, ordenación y análisis de los datos procedentes de una muestra, los cuales son ordenados de acuerdo a sus características (distribución de frecuencias, conteo de modalidades, etc) y analizados a través de los denominados estadísticos descriptivos para el caso de una o más variables (medidas de tendencia central, variabilidad, asociación, etc) ( Amón, 1984; San Martín,

3

Espinosa y Fernández, 1986; Glass y Stanley, 1986; Carro Ramos, 1994; Peña y Romo, 1997; Pulido y Santos Peñas, 1998). Cuando el interés se limita a una única variable (o a varias, pero tomadas individualmente) tres son los aspectos más importantes que son estudiados: posición, dispersión y forma. La posición se refiere a un punto de la distribución de la variable que se emplea para “fijarla”, cuando el índice de posición utilizado trata de ser representativo del conjunto de valores de la muestra -en definitiva, ser un valor en torno al cual el resto de los valores se distribuyen- solemos hablar de medidas de tendencia central. La dispersión de una distribución alude a la variabilidad de los datos que la componen. El interés se centra ahora no en conocer cual es el “valor típico” de la variable si no en cómo de “típico” es. Evidentemente, cuanto mayor sea la dispersión peor representará un índice de localización al conjunto de la distribución. La forma tiene que ver con el tipo de distribución que se maneja, si tiene forma de curva normal (u otra forma típica conocida), si es simétrica o está sesgada (desplazada) hacia la derecha o izquierda, si tiene un único pico (máximo) o varios, si hay valores muy extremos, si hay vacíos (tramos sin datos) en la distribución, etc. Aunque el estudio de una sola variable puede ser interesante, lo más frecuente es que el objetivo de un estudio implique el manejo de más de una variable simultáneamente. En estos casos lo que el investigador busca es determinar si existe relación entre esas variables. La relación entre variables, como la distribución de una única variable, tiene tres características importantes: la forma, la fuerza y la dirección. La forma tiene que ver con la representación gráfica que mejor resumiría la relación entre las variables (línea recta, línea curva, parábola, etc.). La fuerza de una relación se refiere a la medida en que los valores de una variable se corresponden con los valores de otra variable. Supone la cuantificación de la relación entre las variables y a menudo se determina por la magnitud en que los valores de una de las variables pueden ser predichos a partir de los valores de la otra/s variable/s. Hablamos de la dirección de una relación para indicar si los valores altos de una variable están asociados con valores altos en la otra variable (y los bajos con los bajos) o si los valores altos en una variable se corresponden con valores bajos en la otra. En el primer caso hablamos de relaciones directas o positivas y en el segundo caso de inversas o negativas. Trabajemos sobre una sola variable o sobre más de una, existen múltiples estadísticos aplicables al conocimiento de las características de los datos que más nos interesen. Algunos de esos índices son tan clásicos como la media aritmética, la varianza o la correlación, y otros más novedosos, como los derivados del Análisis Exploratorio de Datos. Probabilidad Son innumerables los fenómenos naturales y experimentos provocados que, al repetirse en circunstancias uniformes, dan resultados idénticos y, por tanto, cumplen el principio axiomático de que las mismas causas producen los mismos efectos. Así el agua, en condiciones de presión atmosférica normal, se congela a cero grados. Los acontecimientos de este tipo se denominan deterministas. Sin embargo, no menos numerosos son los eventos que, fundamentalmente en las ciencias sociales, a pesar de su repetición en condiciones pretendidamente homogéneas, dan lugar a efectos más o menos diferentes e incluso contradictorios. Este hecho no contradice lo referido en el párrafo anterior porque, con frecuencia, resulta prácticamente imposible que se produzca la repetición, tanto si es provocada como si no, de tales eventos en idénticas condiciones y, por consiguiente, la previsión de los efectos que puedan seguirse de su ocurrencia. No es posible establecer con certeza cual será, por ejemplo, en nivel de inteligencia de un niño a pesar de que conozcamos el nivel de sus padres. Los fenómenos de esta naturaleza reciben el nombre estocásticos, aleatorios o probabilísticos. Resultaría vano plantearse un análisis estadístico de fenómenos o experimentos deterministas con el fin de obtener un conocimiento anticipado de unos efectos perfectamente previsibles con la simple observación de un caso. Tampoco ofrecería ningún atractivo un estudio semejante respecto a observaciones aleatorias si dieran siempre lugar a resultados totalmente distintos, porque en nada nos ayudarían a su predicción. Pero los sucesos aleatorios no ocurren de esa manera, y si bien no es posible un anticipación exacta de sus efectos, podemos pronosticar la ocurrencia de estos en términos probabilísticos. De acuerdo a Botella, León y San Martín (1993, pág. 274) “la probabilidad de un suceso es un número que cuantifica en términos relativos las opciones de verificación de un suceso”

4

Estadística Inferencial Una vez que hemos recogido una serie de valores en un grupo de elementos (que denominamos muestra) podemos aplicarles los métodos estadísticos descriptivos que nos facilitarán el análisis de esos valores muestrales. Llegados a ese punto el problema que se plantea es cómo extender esos resultados al conjunto de la población o, en otras palabras, dar respuesta a la siguiente pregunta: Dada cierta información muestral, ¿qué podemos afirmar sobre la población?. La solución a este problema es el objeto de la Estadística Inferencial. Como señala Hays (1988) el aspecto común a todos los campos de aplicación de la estadística es que partimos de observaciones repetidas o de experimentos hechos bajo las mismas condiciones. Sin embargo, a pesar de esas condiciones constantes los resultados varían de ocasión en ocasión, introduciéndose un elemento de incertidumbre. Este punto de incertidumbre propicia el recurso a la teoría de la probabilidad como instrumento para modelarla. Así la aplicación del modelo probabilístico sobre los valores descriptivos obtenidos a nivel muestral dará lugar a la estadística inferencial. En el campo general de la inferencia pueden diferenciarse tres aspectos fundamentales: - En primer lugar, será preciso disponer de unas normas que indiquen en cada caso cómo deben elegirse los elementos de la muestra para que esta resulte representativa y cuántos elementos son precisos para que los resultados obtenidos no se vean afectados por un error excesivo. A esta parte se la conoce como Teoría del Muestreo. - Un segundo punto consiste en poner en relación los valores obtenidos en la muestra (estadísticos) con los valores poblacionales (parámetros), ¿cómo pasar de los unos a los otros? ¿con qué precisión se realiza ese salto de la muestra a la población?. A estos menesteres se dedica la Teoría de la Estimación. - El tercer gran bloque de la estadística inferencial corresponde con el Contraste de Hipótesis. Aquí se tratará de poner a prueba hipótesis preestablecidas sobre algún aspecto desconocido de la población. El primer bloque no se trata estrictamente de un problema de estadística inferencial, pero es una condición previa imprescindible para llevar a cabo correctamente la inferencia. Los dos últimos puntos conforman el núcleo de lo que habitualmente se incluye en la estadística inferencial. Como apuntan Pardo y San Martín (1998) pueden considerarse como dos caras de la misma moneda. La teoría de la estimación se plantea la pregunta, ¿cuál es el valor de tal parámetro?; el contraste de hipótesis trata de responder a la cuestión: ¿es razonable pensar que un parámetro toma tal valor?. Ambas fo...


Similar Free PDFs