Monografías
Publicar | Monografías por Categorías | Directorio de Sitios | Software Educativo | Juegos Educativos | Cursos On-Line Gratis

 

Investigación documental Análisis de datos parte 3 - Monografía



 
DESCARGA ESTA MONOGRAFÍA EN TU PC
Esta monografía en formato html para que puedas guardarla en tu pc e imprimirla.



Vínculo Patrocinado




Aquí te dejamos la descarga gratuita
Nota: para poder abrir archivos html solo necesitas tener instalado internet explorer u otro navegador web.




SOCIOGRAMA.



Consiste en un gráfico en que se expresan las atracciones y repulsiones que los miembros de un determinado grupo experimentan entre sí, siendo por ello de suma utilidad para detectar fenómenos tales como liderazgo, existencia de subgrupos internos y anomia.

Se construye pidiendo a cada miembro que señale a las personas que más congenian con él y las que menos lo atraen. Esta información se recoge mediante el uso de breves cuestionarios de dos o tres preguntas, y luego es procesada para construir el diagrama correspondiente.

TESTS PSICOLÓGICOS.



Emplean una gran variedad de técnicas específicas. Una buena proporción de ellos utiliza la formulación de preguntas anotadas en algún formulario apropiado (el test) y que por lo general se autoadministra. En otros casos, se propone a la persona la realización de ciertas actividades pautadas y se observa su desarrollo. Se registra el tiempo empleado en su ejecución, las reacciones que se producen, el desempeño de ciertos roles, etc.

Desde un punto de vista general, estos tests pueden considerarse como observaciones realizadas en condiciones artificiales, preparadas y definidas de antemano.

TÉCNICAS PROYECTIVAS.



Se basan en presentar algún estímulo definido a los sujetos para que ellos expresen libremente, a partir de estos estímulos, lo que piensan, sienten o ven.

Generalmente, se trata de dibujos, manchas, fotografías u otros elementos similares, aunque también se apela a veces a estímulos verbales o auditivos. La recolección de datos, normalmente, se hace por medio de entrevistas poco formalizadas.
Bibliografía:

Tenorio Bahena, Jorge. INVESTIGACIÓN DOCUMENTAL. 3ª ed. México (1988). Ed. Mac Graw - Hill.
Pick, Susan y López, Ana Luisa. CÓMO INVESTIGAR EN CIENCIAS SOCIALES. 5ª ed. México (1994). Ed. Trillas S.A.
Tamayo y Tamayo, Mario. EL PROCESO DE LA INVESTIGACIÓN CIENTÍFICA. 3ª ed. México (1998). Ed. Limusa S.A.
Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed. Lumen - Humanitas.


ORDENAMIENTO DE DATOS.



Los datos son colecciones de cualquier cantidad de observaciones relacionadas. Una colección de datos se conoce como conjunto de datos, y una sola observación es un punto de dato.

Para que los datos sean útiles, necesitamos organizar nuestras observaciones, de modo que podamos distinguir patrones y llegar a conclusiones lógicas.
Búsqueda de un patrón significativo en los datos:

Existen muchas formas de organizar los datos. Podemos sólo colectarlos y mantenerlos en orden; o si las observaciones están hechas con números, entonces podemos hacer una lista de los puntos de dato de menor a mayor según su valor numérico. Pero si los datos son trabajadores especializados o los distintos tipos de automóviles que ensamblan todos los fabricantes, debemos organizarlos de manera distinta. Necesitaremos presentar los puntos de dato en orden alfabético o mediante algún principio de organización. Una forma común de organizar los datos consiste en dividirlos en categorías o clases parecidas y luego contar el número de observaciones que quedan dentro de cada categoría. Este método produce una distribución de frecuencias.

El objetivo de organizar los datos es permitirnos ver rápidamente algunas de las características de los datos que hemos recogido: el alcance (los valores mayor y menor), patrones evidentes, alrededor de qué valores tienden a agruparse los datos, qué valores aparecen con mayor frecuencia, etc.

RECOMENDACIONES:



Al plantear un estudio estadístico, definir claramente la población objeto de análisis.

Si se trabaja con muestras, definir las condiciones que deben reunir antes de extraerlas.

Especificar qué se va a medir, las unidades a usar y la forma de registro.

Datos sin procesar:

La información obtenida, antes de ser organizada y analizada, se conoce como datos sin procesar puesto que aún no han sido tratados mediante ningún método estadístico.

La cantidad de datos más grande y los detalles más minuciosos pueden no contener la información más útil para la toma de decisiones administrativa. Una parte importante de la planeación de sistemas de información administrativa consiste en resumir y presentar los datos de modo que se pueda obtener la información crítica de manera rápida y sencilla.

Ordenamiento de datos utilizando su arreglo y distribución de frecuencias:

La ordenación de datos es una de las formas más sencillas de presentarlos, los forma en orden ascendente o descendente.

Ventajas:

1.    Podemos notar rápidamente los valores mayor y menor de los datos.
2.    Podemos dividir fácilmente los datos en secciones.
3.    Podemos ver si algunos de los valores aparecen más de una vez en ese ordenamiento.
4.    Podemos observar la distancia entre valores sucesivos de datos.

En ocasiones, un ordenamiento de datos no resulta útil. Debido a que da una lista de todos los valores, es una forma incómoda de mostrar grandes cantidades de datos.

La distribución de frecuencias.



Una forma en que podemos comprimir los datos es la tabla de frecuencias o distribución de frecuencias. Las distribuciones de frecuencias sacrifican algunos detalles, pero ofrecen nuevas perspectivas sobre los patrones de datos.

Una distribución de frecuencias es una tabla en la que los datos se organizan en clases, es decir, en grupos de valores que describen una características de los datos.

Una distribución de frecuencias muestra el número de observaciones del conjunto de datos que caen en cada una de las clases.

Características de las distribuciones de frecuencias relativas.



También podemos expresar la frecuencia de cada valor como una fracción o un porcentaje del número total de observaciones. Para obtener este valor, dividimos la frecuencia de esa clase entre el número total de observaciones del conjunto de datos. La respuesta se puede expresar como una fracción, un número decimal o un porcentaje.

La suma de todas las frecuencias relativas es igual a 1,00 o a 100%. Esto es así debido a que una distribución de frecuencias relativas aparea a cada clase con su fracción o porcentaje apropiados del total de datos. Por consiguiente, las clases que aparecen en cualquier distribución de frecuencias, ya sean relativas o simples, son completamente inclusivas. Todos los datos caen en una u otra categoría. Las clases son mutuamente exclusivas, es decir, ningún punto de dato cae en más de una categoría.

En las distribuciones de frecuencias no aparecen clases que se traslapen.

Podemos, también, clasificar la información de acuerdo con características cualitativas, como raza, religión y sexo, que no entran de manera natural en clasificaciones numéricas. Como clases de atributos cuantitativos, éstas deben ser completamente inclusivas y mutuamente exclusivas.

La categoría “otros” se conoce como clase de extremo abierto cuando permite que el extremo inferior o el superior de una clasificación cuantitativa no esté limitado.

Los esquemas de clasificación pueden ser tanto cuantitativos como cualitativos y tanto discretos como continuos. Las clases discretas son entidades separadas que no pasan de una clase discreta a otra sin que haya un rompimiento. Los datos discretos son aquellos que pueden tomar sólo un número limitado de valores.

Los datos continuos pasan de una clase a otra sin que haya un rompimiento. Implican mediciones numéricas. Los datos continuos pueden expresarse con números fraccionarios o con enteros.

Las variables discretas son cosas que se pueden contar y las continuas son cosas que aparecen en algún punto de una escala.

Construcción de una distribución de frecuencias:


Pasos:

1.    Decidir el tipo y número de clases para dividir los datos. De acuerdo con la medida cuantitativa o un atributo cualitativo. Necesitamos decidir cuántas clases distintas usar y el alcance que cada clase debe cubrir. el alcance total debe dividirse entre clases iguales, esto es, el ancho del intervalo, tomado desde el principio de una clase hasta el principio de la clase siguiente, necesita ser el mismo para todas las clases.

El número de clases depende del número de puntos de dato y del alcance de los datos recolectados. Cuantos más puntos de dato se tengan o cuanto más grande sea el alcance, más clases se necesitarán para dividir los datos. Como regla general, los estadísticos rara vez utilizan menos de 6 y más de 15 clases.

Debido a que necesitamos hacer los intervalos de clase de igual tamaño, el número de clases determina el ancho de cada clase.

Ancho de los intervalos de clase = (valor unitario siguiente después del valor más grande
de los datos - valor más pequeño de los datos) / número total de intervalos

Debemos utilizar el siguiente valor más alto de las mismas unidades, ya que estamos midiendo el intervalo entre el primer valor de una clase y el primer valor de la siguiente.

2.    Clasificar los puntos de dato en clases y contar el número de datos que hay en cada clase.

3.    Ilustrar los datos en un diagrama.

Representación gráfica de las distribuciones de frecuencias:



Las gráficas dan los datos en un diagrama de dos dimensiones. Sobre el eje horizontal podemos mostrar los valores de la variable (la característica que estamos midiendo). Sobre el eje vertical señalamos las frecuencias de las clases mostradas en el eje horizontal.

Las gráficas de distribuciones de frecuencias simples y de distribuciones de frecuencias relativas son de utilidad debido a que resaltan y aclaran los patrones que no se pueden distinguir fácilmente en las tablas. Atraen la atención del que las observa hacia los patrones existentes en los datos. Las gráficas pueden también ayudarnos a resolver problemas concernientes a las distribuciones de frecuencias. Nos permitirán estimar algunos valores con sólo una mirada y nos proporcionarán una verificación visual sobre la precisión de nuestras soluciones.


Histogramas.



Un histograma consiste en una serie de rectángulos, cuyo ancho es proporcional al alcance de los datos que se encuentran dentro de una clase, y cuya altura es proporcional al número de elementos que caen dentro de cada clase. Si las clases que utilizamos en la distribución de frecuencias son del mismo ancho, entonces las barras verticales del histograma también tienen el mismo ancho. La altura de la barra correspondiente a cada clase representa el número de observaciones de la clase. Como consecuencia, el área contenida en cada rectángulo (ancho por altura) ocupa un porcentaje del área total de todos los rectángulos igual al porcentaje de la frecuencia de la clase correspondiente con respecto a todas las observaciones hechas.

Un histograma que utiliza las frecuencias relativas de los puntos de dato de cada una de las clases, en lugar de usar el número real de puntos, se conoce como histograma de frecuencias relativas. Este tipo de histograma tiene la misma forma que un histograma de frecuencias absolutas construido a partir del mismo conjunto de datos. Esto es así debido a que en ambos, el tamaño relativo de cada rectángulo es la frecuencia de esa clase comparada con el número total de observaciones.

Polígonos de frecuencias.



Son otra forma de representar gráficamente distribuciones tanto de frecuencias simples como relativas. Para construir un polígono de frecuencias señalamos éstas en el eje vertical y los valores de la variable que estamos midiendo en el eje horizontal. A continuación, graficamos cada frecuencia de clase trazando un punto sobre su punto medio y conectamos los resultantes puntos sucesivos con una línea recta para formar un polígono.

Se añaden dos clases, una en cada extremo de la escala de valores observados. Estas dos nuevas clases que contienen cero observaciones permiten que el polígono alcance el eje horizontal en ambos extremos de la distribución.

Un polígono de frecuencias es sólo una línea que conecta los puntos medios de todas las barras de un histograma. Por consiguiente, podemos reproducir el histograma mediante el trazado de líneas verticales desde los límites de clase y luego conectando tales líneas con rectas horizontales a la altura de los puntos medios del polígono.

Un polígono de frecuencias que utiliza frecuencias relativas de puntos de dato en cada una de las clases, en lugar del número real de puntos, se conoce como polígono de frecuencias relativas. Este polígono tiene la misma forma que el polígono de frecuencias construido a partir del mismo conjunto de datos, pero con una escala diferente en los valores del eje vertical.

Ventajas de los histogramas:



- Los rectángulos muestran cada clase de la distribución por separado.
- El área de cada rectángulo, en relación con el resto, muestra la proporción del número total de observaciones que se encuentran en esa clase.


Ventajas de los polígonos de frecuencias:



- Es más sencillo que su correspondiente histograma.
- Traza con más claridad el perfil del patrón de datos.
- Se vuelve cada vez más liso y parecido a una curva conforme aumentamos el número de clases y el número de observaciones.

Un polígono alisado mediante el aumento de clases y de puntos de dato se conoce como curva de frecuencias.

Ojivas.

Una distribución de frecuencias acumuladas nos permite ver cuántas observaciones están por encima de ciertos valores, en lugar de hacer un mero registro del número de elementos que hay dentro de los intervalos.

La gráfica de una distribución de frecuencias acumuladas se conoce como ojiva.

En ocasiones, la información que utilizamos se presenta en términos de frecuencias acumuladas “mayores que”. La ojiva adecuada para tal información tendría una inclinación hacia abajo y hacia la derecha, en lugar de tener una inclinación hacia arriba y a la derecha.

Podemos construir una ojiva de una distribución de frecuencias relativas de la misma manera en que trazamos la ojiva de una distribución de frecuencias absolutas. Sólo habrá un cambio: la escala del eje vertical.

Del ordenamiento de datos podemos construir distribuciones de frecuencias. A partir de las distribuciones de frecuencias podemos construir distribuciones de frecuencias acumuladas. A partir de éstas podemos trazar una ojiva. Y de esta ojiva podemos aproximar los valores que tenemos en el ordenamiento de datos. Sin embargo, no podemos recobrar de manera normal los datos originales exactos a partir de cualquiera de las representaciones gráficas que hemos analizado.

Tratamiento de una variable discreta:


Se utilizan los diagramas de barras, la diferencia con el histograma es que los rectángulos no se tocan entre sí; esto se debe a que, al ser la variable discreta, entre los valores sucesivos no hay valores intermedios.

Las frecuencias acumuladas se grafican por medio de una ojiva en forma de escalera, debido a que la frecuencia aumenta de a saltos.

RECOMENDACIONES:



Cuando se trabaja con muestras, recopilar el mayor número de datos posible.

Usar 5 clases como mínimo y 15 como máximo para agrupar los datos, en función del número de datos disponibles.

Trabajar con intervalos de clase de igual longitud.

Tener cuidado con la clasificación automática que hacen los paquetes estadísticos.

Al calcular frecuencias relativas - como proporción - trabajar con cuatro dígitos después de la coma, para evitar errores de redondeo en la suma.

Al dibujar un gráfico, no exagerar la escala vertical u horizontal. Un gráfico desproporcionado complica su interpretación y puede resultar engañoso a simple vista.


CONCEPTOS:



- Unidad de observación: persona o casa sobre la que se mide una o varias características de interés.

- Caracteres: propiedades o rasgos que se miden en cada unidad de observación.

- Variable numérica: VARIABLE. Carácter cuantitativo.

- Variable categórica: ATRIBUTO. Carácter cualitativo.

- Población: conjunto formado por todas las unidades objeto de un estudio estadístico. Colección de todos los elementos que se están estudiando y sobre los cuales intentamos llegar a conclusiones.

- Muestra: subconjunto representativo de la población. Colección de algunos elementos, pero no de todos, de la población bajo estudio, utilizada para describir poblaciones.

- Muestra representativa: muestra que contiene las características importantes de la población en las mismas proporciones en que están contenidas en la población.

- Datos: colección de cualquier número de observaciones relacionadas sobre una o más variables.

- Punto de dato: una sola observación de un conjunto de datos.

- Arreglo de datos: organización de los datos sin procesar por observación, tomados en orden ascendente o descendente.

- Clase de extremo abierto: clase que permite que el extremo superior o inferior de un esquema de clasificación cuantitativo no tenga límite.

- Conjunto de datos: una colección de datos.

- Curva de frecuencias: polígono de frecuencias alisado mediante el aumento de clases y puntos de dato a un conjunto de datos.

- Datos continuos: datos que pueden pasar de una clase a la siguiente sin interrumpirse y que pueden expresarse mediante números enteros o fraccionarios. Datos numéricos que admiten infinitos valores entre dos valores cualesquiera; generalmente surgen de una medición.

- Datos discretos: datos que no pasan de una clase a la siguiente sin que haya una interrupción; esto es, donde las clases representan categorías o cuentas distintas que pueden representarse mediante números enteros. Datos numéricos que no admiten valores intermedios entre dos valores sucesivos; generalmente surgen de un conteo.

- Datos sin procesar: información antes de ser organizada o analizada por métodos estadísticos. Conjunto de datos que no han recibido ningún tratamiento estadístico.

- Datos tratados: conjunto de datos que ha sido objeto de algún tipo de ordenamiento o procesamiento.

- Intervalo de clase: agrupamiento de valores de una variable.

- Alcance de los datos: diferencia entre el mayor y menor valor de la serie.

- Distribución de frecuencias: despliegue organizado de datos que muestran el número de observaciones del conjunto de datos que entran en cada una de las clases de un conjunto de clases mutuamente exclusivas y colectivamente exhaustivas. Asignación de frecuencias a cada uno de los valores de una variable o atributo.

- Tabla de frecuencias: tabla donde se asienta la distribución de frecuencias.

- Distribución de frecuencias acumuladas: despliegue de datos en forma de tabla que muestra cuántos datos están por encima o por debajo de ciertos valores.

- Distribución de frecuencias relativas: despliegue de un conjunto de datos en el que se muestra la fracción o porcentaje del total del conjunto de datos que entra en cada elemento de un conjunto de clases mutuamente exclusivas y colectivamente exhaustiva.

- Histograma: gráfica de un conjunto de datos compuesta de una serie de rectángulos, cada uno con un ancho proporcional al alcance de los valores de cada clase y altura proporcional al número de elementos que entran en la clase, o altura proporcional a la fracción de elementos de la clase. Representación gráfica de la distribución de frecuencias (absoluta o relativa) de una variable continua.

- Ojiva: gráfica de una distribución de frecuencias acumuladas absolutas o relativas.

- Polígono de frecuencias: línea que une los puntos medios de cada clase de un conjunto de datos, trazada a la altura correspondiente a la frecuencia de datos. Representación gráfica de la distribución de frecuencias en forma suavizada de una variable continua.

- Diagrama de barras: representación gráfica de la distribución de frecuencias de un atributo o de una variable discreta.

- Frecuencia absoluta: número de veces que se repite un determinado valor de una variable o atributo.

- Frecuencia relativa: proporción o porcentaje de veces que se repite un valor.


BIBLIOGRAFÍA:



RICHARD I. LEVIN - DAVID S. RUBIN, ESTADÍSTICA PARA ADMINISTRADORES, ED. PRENTICE HALL, SEXTA ED.,  1996
ANÁLISIS DE DATOS
Bibliografía.:
COHEN Y MANION
COLÁS Y BUENDÍA
TAYLOR Y BODJAN

Una investigación cualitativa puede concluir con datos numéricos. el tratamiento de eta información será estadístico. La representación también puede seguir los mismos cánones que en investigación cuantitativa

1.-Fiabilidad y Validez en investigación cualitativa



Validez en la medida: que la información obtenida represente de modo fidedigno las dimensiones del fenómeno analizado
Fiabilidad en la medida: consistencia de los datos
Es difícil la medición en instrumentos no mecánicos (balanzas) sino humanos o cualitativos (investigador, cuestionarios,…)

2.-Validez y Fiabilidad en la Observación



Fiabilidad: ante un mismo hecho hacer la misma observación, por ejemplo con dos observadores. También se utilizan coeficientes de correlación entre las puntuaciones dadas por los observadores. La solución pasa por el entrenamiento de los observadores
Validez: cuando las categorías a observar no están definidas largamente ¿estamos registrando realmente el fenómeno que queremos?
Solución: disminuir la posible interpretación categorizando al máximo previamente


3.-Fiabilidaz y Validez en las encuestas postales


Validez: Problemas: no conocemos quien ha contestado y quién no, no estamos seguros de a qué e responden los cuestionarios devueltos, puede ser que los no devueltos se deba a alguna causa que puede repetirse uniformemente para todos, lo cual implicaría un sesgo en la recogida de datos.

Casos posibles:

1.- Que no se haya contestado con precisión.

solución: entrevistas de forma intensiva (aleatoriamente a algunos) para constatar que sus respuestas dicen lo que realmente querían decir. Se evita a priori a través de una encuesta piloto

2.- No hay devolución

Solución: igualmente con entrevista a los que no han contestado y hacer una correlación entre unos y otros (no sobre las causas de la contestación sino sobre las respuestas entre unos y otros) se ven si existen diferencias significativas entre un grupo y otro.


4.-Fiabilidad y validez en las entrevistas



Validez superficial: que midan lo que deben medir. Existen otros tipos de validez más importantes.
Elementos de sesgo: el entrevistador, el informante, la formulación delas preguntas.
El investigador puede enfatizar o incidir en las cuestiones que efectivamente confirmen su hipótesis.
El informante puede mentir (”Parcialidad en las respuestas”) . Se puede observar que varios entrevistado sistemáticamente “mienten ” en las mismas respuestas en la misma dirección (p.e. si se habla de ganancias o de pago de impuestos)
Solución: buscar otras fuentes de información (análisis documental) triangulación.
En las entrevistas, fiabilidad y validez son inversamente proporcionales: cuanto más estructuradas mas fiables pero menos válidas(sólo recogemos unos elementos y no otros) Dependerá de la investigación el emplear una u otra.
Existen modos de limar las dificultades de cada técnica. Cada técnica tienen unas dificultades que le son propias. s i se utilizan dos técnicas las dificultades no se suman sino que se restan (es una intersección)
Validez del informante: una vez recogidos los datos se devuelve de nuevo al informante para que valide lo dicho. Esto disminuye problemas de planteamiento de preguntas y errores de registro o interpretación de respuestas.

5.-La triangulación



Formalmente se da cuando existen tres puntos diferentes, pero se admiten dos o más fuentes de evidencia.
Intenta resolver problemas de validez: una solo técnica da una fuente de error, dos técnicas se intersectan disminuyendo el error.
Si la fuente de error es el entrevistador, la triangulación consistirá en ampliar a los entrevistadores.
Si la fuente de error es la técnica de recogidas de datos, se utilizarán dos técnicas distintas.
¿Qué tipo de triangulación escoger? dependerá de los problemas que encontremos en la investigación, evitando en lo posible el incremento de complejidad en el diseño (buscar el diseño más simple posible y más válido posible)
(cuadro 11.2 de Cohen)
En el estudio de casos, llegado a un punto el incremento en el número de casos no supone un incremento de validez sino que esta permanece constante, decimos que la muestra está saturada: criterio de economía

Existen dos grandes grupos de triangulación:

- Dentro del propio método, sirve para analizar la fiabilidad del método
- De métodos.

¿Cuándo es apropiada la triangulación?

1.-Cuando lo que buscamos es la generalización de los datos
2.-Cuando el fenómeno que analizamos es complejo y controvertido
3.-Cuando detectamos que un sólo método puede producir distorsiones.

El diseño más característico es el estudio de casos
(Cuadro 11.4 de Cohen)
(Cuadro 4 pg 106 G. P. Serrano)

6.-El informe



¿Qué diferencias existen entre el informe cuantitativo y el cualitativo?

Podemos tener interés en informar sobre elementos que no se tienen en cuenta en el cuantitativo
En IAP o Etnográfica no existen informes standard.
Si seguimos un esquema cuantitativo en cada apartado se puede incluir toda la información que creemos importante.

Apartados

1.-Introdución: descripción del contexto de la investigación y lo hecho hasta el momento
2.- Bases teórico prácticas de la investigación: descripción de intereses, descripción del problema a resolver.
3.- Contexto de la investigación: incluir información sobre el escenario de la investigación
4.-Proceso de la investigación: selección de métodos, papel del investigador, evolución del problema desde el inicio, instrumentos y técnicas de recogida de datos: explicación. Proceso de análisis de datos, categorías, revisión, análisis. Hallazgos o resultados que encontramos.
5.-Conclusiones

Existen algunas propuestas para la IAP

Existen normas para la redacción del informe porque es un sistema tan abierto que es necesario dar pistas para una lectura clara:

- Expresiones y lenguaje de los participantes, entrecomillado, en u terminología para que el lector se sitúe en el contexto.
- Ser detallado en las descripciones
- Distinguir hechos de interpretaciones , tanto del entrevistador como de los informantes
- Tener en cuenta la audiencia del informeidez superficial

11.- El informe de un estudio de casos

1.- Dependerá de la audiencia, a quien va destinado.
2.- Existen diferentes tipos en la presentación:

a) Escritos:

- De un solo caso

Descripción del caso
Técnica pregunta-respuesta

- De casos múltiples:

Informes independientes de cada caso con un informe final
A través de diferentes temas, interrelacionar todos los casos estudiados

Siempre con un capítulo de síntesis.

b) Orales
c) Apoyados en medios técnicos

3.- Procedimientos en la redacción

a) ¿Cuando empezar?: cuanto antes
b) Identificación del caso: Es deseable la identificación del caso lo más amplia posible por interés científico, para que otras personas puedan continuar en la investigación; pero no siempre es aconsejable por razones éticas cuando es preciso mantener la confidencialidad.
c) Revisión del borrador: éste ha de ser leído por colegas investigadores e incluso por participantes en el estudio.

12.- Estudio de caso ejemplar

Un estudio de caso ejemplar debe:

1.- Ser significativo
2.- Ser completo
3.- Considerar perspectivas alternativas (críticas,…)
4.- Mostrar suficientes pruebas o indicios
5.- Estar hecho de forma engranada.

Autor:

Haile





Creative Commons License
Estos contenidos son Copyleft bajo una Licencia de Creative Commons.
Pueden ser distribuidos o reproducidos, mencionando su autor.
Siempre que no sea para un uso económico o comercial.
No se pueden alterar o transformar, para generar unos nuevos.

 
TodoMonografías.com © 2006 - Términos y Condiciones - Esta obra está bajo una licencia de Creative Commons. Creative Commons License