Trabajo de Campo y Preparación de Datos: Claves para una Investigación Exitosa

Enviado por Chuletator online y clasificado en Magisterio

Escrito el en español con un tamaño de 22,14 KB

CAPÍTULO IX. TRABAJO DE CAMPO Y PREPARACIÓN DE LOS DATOS



9.1. Introducción



Tras el “Proceso de Investigación Comercial”, se llega a la etapa de implantación. En ella, se permite comparar las estimaciones de coste y tiempo con el valor anticipado para tomar la decisión de ejecutar o no el proyecto previamente definido o de revisar su diseño.

Una vez decidido efectuar el estudio, se pasaría a ejecutar lo planificado en la etapa de trabajo de campo, lo que supone contactar con los entrevistados, realizar las entrevistas por cualquier procedimiento establecido, registrar los datos, prepararlos para el análisis y supervisar estas operaciones.

A las personas que realizan esta tarea se les denomina personal de campo o entrevistadores. Otros intervinientes en este proceso son los codificadores de los datos y supervisores encargados de proporcionar los datos ya depurados y listos para el análisis.


9.2. Concepto y fases del trabajo de campo


- Trabajo de campo: Conjunto de acciones necesarias para la recogida física de la información; es decir, las acciones para localizar a las personas que deben contestar a las preguntas, la gestión y administración de los cuestionarios o métodos alternativos de recogida de la información, el registro de la información deseada, así como la comprobación y devolución de los soportes de la información una vez cumplimentados.

- Se divide en las etapas siguientes:

A. Planificación del trabajo de campo: Pretende determinar el número de entrevistadores y el número de entrevistas a realizar a lo largo del tiempo. Ello requiere conocer el tiempo total para realizar el estudio, así como los recursos disponibles.

B. Selección de los entrevistadores: En el trabajo de campo se necesitan un conjunto de habilidades y capacitaciones que deben ser consideradas a la hora de seleccionar el personal idóneo para llevarlo a cabo.

- Cualquier investigación requiere plantear cuáles son las especificaciones de las actividades a realizar por el personal de campo.

- Características que deben cumplir los candidatos:

  1. Características físicas: Presencia agradable y edad (ni demasiado jóvenes, ni demasiado mayores).
  2. Carácter extrovertido: Capacidades de comunicación y tenacidad.
  3. Nivel educativo.
  4. Integridad y experiencia.

- Una vez realizada la selección, hay que concretar la relación entre la empresa de investigación y el entrevistador.

C. Formación de los entrevistadores: Los entrevistadores deben pasar por un proceso de capacitación que les permita realizar entrevistas con la mayor garantía posible. Esta formación debe ser de dos tipos:

  1. Formación general: Implica impartir una serie de cursillos de capacitación que mejoran las cualidades básicas del aspirante a entrevistador. Entre ellos destacan los siguientes:
  • Selección de la persona a entrevistar.
  • Toma de contacto con el entrevistado.
  • Formulación de las preguntas.
  • Técnicas de motivación.
  • Registro de las respuestas.
  • Finalización de la entrevista.
Formación específica: Se denomina briefing, y analiza los siguientes aspectos:
  • Objetivos del estudio.
  • Composición y tamaño de la muestra.
  • Lectura detallada del cuestionario, comentario y resolución de las posibles dudas sobre el mismo.
  • Instrucciones escritas de los cuestionarios y acciones a efectuar durante la entrevista, como comentar las posibles respuestas, mostrar tarjetas con alternativas o estímulos a evaluar.
  • Lugares y momentos de selección del entrevistado.
  • Procedimientos de control y supervisión.

D. Control de los entrevistadores: Tiene su razón de ser en la comprobación de que se han recogido todos los datos previstos. También se denomina depuración.

- La depuración de los cuestionarios debe realizarse en distintos momentos y por las diferentes figuras que intervienen en la operación. Debe comenzar por el propio encuestador en presencia del entrevistado o inmediatamente después de la entrevista. La revisión debe continuarla el jefe de equipo al recibir los cuestionarios del encuestador y centralizarse luego en la oficina de forma paralela a la codificación.

- El seguimiento de los trabajos de los entrevistadores se efectúa en dos partes:

  1. Control de campo o edición preliminar
    1. Correcta localización del entrevistado: La comprobación se efectúa mediante el número de intentos realizados.
    2. Control de calidad de que el proceso está siendo ejecutado correctamente: Una vez que el entrevistador finaliza sus entrevistas, procede a entregar los cuestionarios cumplimentados a su supervisor inmediato para realizar las rectificaciones necesarias.
    3. Debe controlar que todos los cuestionarios estén totalmente cumplimentados, que las respuestas registradas se encuentren dentro de las alternativas posibles, que no presenten ambigüedad o errores y conocer la consistencia de las respuestas a partir de las preguntas de control.
  2. Control de oficina o edición a posteriori: En la etapa de tratamiento inicial de los datos, la tabulación de las respuestas, el análisis de la distribución de frecuencias de las variables o la compensación de ratios de respuesta o rechazo permiten detectar la consistencia de los datos y las equivocaciones en el desarrollo del trabajo de campo desde la oficina.
    1. La tabulación de las respuestas a distintas variables permite controlar la consistencia de las preguntas, la sinceridad de los entrevistados o la posibilidad de las respuestas al azar, descartándose los cuestionarios que no pasen el filtro de consistencia.
    2. El análisis de la distribución de las frecuencias revelará posibles errores de codificación o algún valor extraño en alguna variable que será preciso comprobar y eliminar si fuese necesario.
    3. El control mediante curvas de estabilidad usa diversas técnicas estadísticas para comparar las tendencias de respuesta entre los distintos entrevistadores y el conjunto de la muestra o zonas específicas, observando la concordancia de las mismas con los datos que se poseen del conjunto de la población.

E. Verificación o supervisión: Tiene su razón de ser en conocer que los datos realmente han sido recogidos en la forma prevista. Es conveniente contactar de nuevo con una submuestra de entrevistados para verificar la entrevista.

- Se interroga sobre características básicas de la entrevista y algunas cuestiones principales contenidas en el cuestionario, intentando medir el grado de coincidencia sobre todo en preguntas con respuestas de tipo objetivo.

- Esta segunda entrevista se puede realizar de forma personal, telefónica o postal, refiriendo al entrevistado a la realización de la primera entrevista.

F. Evaluación del trabajo de los entrevistadores: La evaluación se efectúa con distintos indicadores:

  1. Coste por entrevista: Es una evaluación de tipo económico, medida por el coste total de un entrevistador dividido por el número de entrevistas debidamente cumplimentadas.
  2. Tiempo por entrevista: Cociente entre el tiempo total de trabajo y el número de entrevistas debidamente cumplimentadas.
  3. Tasa de respuesta: Número de entrevistas cumplimentadas entre número total de intentos. El denominador puede ser también el número de intentos en los que ha sido atendido el entrevistador.
  4. Evaluación de la calidad de la entrevista: Analiza las diferentes partes en que se define la entrevista, de forma cualitativa o mediante una escala.
  5. Evaluación de la calidad de los datos: Es decir, de la calidad del contenido de la entrevista.


9.3. Preparación de los datos para el análisis



A. Depuración o comprobación o edición de datos: Trata de inspeccionar las respuestas de los cuestionarios con el fin de asegurar que estén suficientemente contestadas y que las respuestas sean consistentes.

B. Codificación: Los datos obtenidos de las variables a estudiar pueden presentar formatos muy variables, por tanto, es necesaria la transformación de esa información en una serie de valores o registros que faciliten su tratamiento y análisis estadístico.

- Este proceso se llama codificación y consiste en identificar, con diferentes códigos o símbolos arbitrarios, las variables a estudiar y sus respectivas alternativas de respuesta o comportamiento.

- Puede ser realizada por los entrevistadores o afrontarse posteriormente en gabinete por un equipo especializado y ligándola a la fase de depuración.

- Puede plantearse también de forma automática o semiautomática.

- Es importante distinguir entre preguntas abiertas y cerradas por el tratamiento diferenciado de la codificación. Las preguntas con un número de categorías de respuesta limitado y predeterminado no plantean excesivas dificultades, asignando un código numérico a cada categoría o alternativa de respuesta que facilitan el tratamiento estadístico.

- Cuando se trata de variables métricas (intervalo y razón), se identifican con valores numéricos de respuesta con los códigos.

- Cuando son variables no métricas (nominales u ordinales), es necesario traducir las respuestas verbales a códigos numéricos.

- Cuando se trata de preguntas con múltiples respuestas en las que hay que elegir entre ítems, se dispone de tantas variables como opciones a elegir se dispongan. Estas variables serán binarias.

- La codificación de las preguntas abiertas o mixtas de un cuestionario es más laboriosa y se realiza después de la recogida de información.

- Estas instrucciones de codificación se concretan en un documento, manual o libro de códigos que ha de tenerse presente en todo el proceso junto con el libro o relación de variables. En el libro de códigos se detallan los códigos de cada variable, de los valores límite de los intervalos y de los valores missing.

C. Grabación: Una vez definido el sistema de codificación, el siguiente paso es crear la base de datos en el soporte magnético adecuado al programa informático de análisis estadístico. Este proceso supone en la mayoría de las situaciones la obtención de una matriz de datos con n filas que representan los casos o elementos observados o entrevistados y m columnas que recogen los códigos correspondientes a las características o variables registradas.

D. Validación: Una vez grabada la información debe ser validada para detectar los siguientes errores ajenos al muestreo:

  1. Errores formales, o registros erróneos: Responden a incoherencias de la información respecto de las normas de cumplimiento del cuestionario. Incluyen errores de “rango” en el contenido de cada campo de información, errores que relacionan las respuestas en diferentes campos en función del “grafo” explícito en el cuestionario y errores que tienen insuficiencias. Estos errores formales pueden contener errores de contenido.
  2. Errores de contenido: Responden a incoherencias-inconsistencias lógicas de la información recogida en diferentes campos relacionados.

- Los controles de validación más habituales son los siguientes:

  1. Controles de rango y grafo: Validan la coherencia interna de la cumplimentación y grabación de la información constituyendo los controles “formales”.
  2. Controles cruzados: Completan la anterior validación formal con controles de contenido. Contrastan relaciones entre la información de dos y más campos.
  3. Controles especiales: Admiten la formulación matemática para la validación de la coherencia de contenido.

E. Tratamiento de la no respuesta: La falta de obtención de respuesta es un error no muestral que puede suponer un importante problema en las operaciones estadísticas, ya que implica una reducción del tamaño muestral previsto y la aparición de sesgos que pueden invalidar los resultados.

- La no respuesta se concreta en las formas siguientes:

  1. No respuesta total, por ausencia de cuestionario cumplimentado: Viene generado por el fracaso al medir algunas unidades muestrales, por omisión u olvido, por no localización o por renuncia a contestar del seleccionado. La no respuesta se puede evitar con envíos repetidos en la entrevista postal, citas telefónicas previas a la entrevista, buena preparación de los entrevistadores, o recurrir a horarios diferentes.
  2. No respuesta parcial, cobertura parcial del cuestionario: Viene motivada por la falta de formación de los entrevistadores, la incapacidad o falta de deseo de los entrevistados para contestar.

- En general, la respuesta parcial se puede paliar con incentivos al entrevistado, mejorando la formación del entrevistador, encargando el estudio a un instituto por la mala imagen del patrocinador, disminuyendo los efectos de la forma de contacto con instrucciones muy precisas, o haciendo el cuestionario más interesante.

- A pesar de lo anterior, conviene un análisis de la no respuesta y su incidencia en el sesgo de las estimaciones del siguiente modo:

  1. Evaluar el tamaño del estrato de los que no contestan y su dispersión.
  2. Buscar alguna característica de este estrato.
  3. Si no existen diferencias para dicha característica, pueden asignarse respuestas parciales efectuando imputaciones, o se evalúa el impacto de la reducción de la muestra en la precisión de las estimaciones.

F. Imputación: Una vez detectadas las variables con respuesta o con respuestas inconsistentes, se puede proceder del siguiente modo:

  1. Mantenerlas en el análisis estudiando su impacto sobre los estimadores y errores de muestreo.
  2. Realizar imputaciones.
  3. Realizar estimaciones de los valores en función de distintos criterios.

- Centrándonos en la imputación, ésta consiste en dar valores válidos a los datos, es decir, valores que no estén en contradicción con las normas que deban cumplir. Por tanto, la imputación no proporciona datos correctos sino aproximaciones que no causen problemas en la explotación.

- Los procedimientos de imputación son:

  1. Sustitución por la media.
  2. Sustitución por la media condicionada por otras variables en función de modelos de regresión.
  3. Sustitución por la distribución empírica imputando en función de la distribución de frecuencias de los valores añadidos.
  4. Sustitución imputando los valores perdidos o incorrectos a partir de un modelo de registro correcto.
  5. Sustitución imputando de forma aleatoria la información incorrecta de un individuo por la de otro individuo que coincida con el actual en otras variables de control.
  6. Imputación múltiple sustituyendo un valor perdido o erróneo por más de un valor imputado.
  7. Imputación con criterios de probabilidad ligados al riesgo de que la unidad o variable imputada pertenezca a un tipo de individuos o de valores.

G. Post-estratificación o reequilibrio de la muestra: Es una técnica de la Teoría de Muestreo que consiste en la definición a posteriori de los estratos en función de los distintos valores de una o varias variables.

- Puede resultar necesaria en muestreos no probabilísticos.

- Se lleva a cabo del siguiente modo:

  1. Elección de un tamaño muestral razonablemente elevado.
  2. Distribución de la muestra de forma que estén adecuadamente representadas todas las categorías de la población a las que se les supone a priori un comportamiento estratificador.
  3. Análisis de los resultados muestrales para obtener los componentes homogeneizadores respecto de la variable de interés.
  4. Estudio de los tamaños muestrales efectivos y de los errores de muestreo que conllevan para cada uno de los nuevos estratos.
  5. Ampliación de la muestra en campo para los estratos menos representados.
  6. Cálculo a posteriori de los elevadores o factores de expansión o ponderación y de los estimadores resultantes.


9.4. Tabulación y análisis estadístico primario


A. Tabulación: Consiste en el resumen y ordenación de los datos obtenidos para que se facilite su interpretación. Su finalidad es ayudar al investigador a que pueda asimilar la información y a obtener conclusiones a través de las características representativas de la misma.

- Puede ser de dos tipos:

  1. Tabulación simple o marginal: Trata de ordenar los valores que toma una variable, particionados o no en clases, y expresa el recuento de dicha variable en valores absolutos o en porcentajes, acumulados o no, considerando los valores missing o no.

- También sirve para la redefinición o reagrupamiento de categorías sobre todo de valores extremos, así como para efectuar un control porque permite detectar valores absurdos, raros o extremos que alertan de posibles equivocaciones.

- El conjunto de valores que toma una variable se denomina distribución. Las distribuciones reciben el nombre de unidimensionales cuando en ellas sólo se observa una característica de la población, variable numérica o atributo.

- Al número de veces que se presenta un determinado valor se denomina frecuencia absoluta de dicho valor. La frecuencia relativa es el cociente entre la frecuencia absoluta y la suma de las frecuencias absolutas. Por su parte, la frecuencia absoluta acumulada es la suma de frecuencias absolutas de todos los valores menores o iguales que dicho valor.

- Cuando sobre el conjunto de valores observados de una variable se realizan las operaciones de ordenación y agrupación de valores repetidos, se obtiene una tabla estadística de distribución de frecuencias (o tabla de frecuencias) y a este conjunto de operaciones se denomina tabulación.

- Las tablas de distribución de frecuencias se clasifican, atendiendo al número de valores observados de la variable y al número de observaciones totales, en las siguientes:

  1. Una distribución de tipo I es aquélla en la que se dispone de “pocas” observaciones.
  2. Una distribución de tipo II es aquélla en la que el número de observaciones supera ampliamente el número de valores. Cuando hay “muchas” observaciones y “pocos” valores observados es necesario agrupar las observaciones del mismo valor de la variable. Esta distribución es aplicable a variables discretas o cualitativas.
  3. Una distribución de tipo III es aquélla en la que hay “muchas” observaciones y “muchos” valores observados. Es necesario proceder a la agrupación de los valores de la variable en intervalos.
Tabulación cruzada: La tabla cruzada, o de doble entrada, describe el comportamiento conjunto de dos variables y permite descubrir relaciones causales. Consiste en un recuento simultáneo para varias variables, una de las cuales puede servir de control.

- Se trata de expresar las variables investigadas discriminadas, es decir, cruzadas con otras variables que se denominan “variables de clasificación”, “variables de análisis” o “variables básicas de la investigación”.

- Al número de veces que se presenta conjuntamente el par de valores (Xi, Yj) se denomina frecuencia absoluta bidimensional (fij) de dicho par. Al igual que en el caso unidimensional, el cociente entre la frecuencia absoluta bidimensional y la suma de frecuencias absolutas bidimensionales (n) es la frecuencia relativa bidimensional. Y recibe el nombre de distribución bidimensional el conjunto ordenado de pares de valores de dos caracteres (Xi, Yj) asociado a las frecuencias absolutas o relativas de dichos pares.

- La tabla cruzada es el cuadro de doble entrada en el que se presentan las distribuciones bidimensionales de los tipos II y III. Generalmente, en la parte superior del cuadro se indican los intervalos (tipo III) o los valores (tipo II) correspondientes a una de las variables (Y), y en la parte izquierda los intervalos o los valores de la otra variable (X).

- En la intersección de fila y columna figura la frecuencia absoluta (fij) de dichos intervalos.

- En la última columna se indica la frecuencia marginal de X (fi) o frecuencia con que se presenta la variable X a sus diferentes niveles.

- En la última fila la frecuencia marginal de Y (fj) o frecuencia con que se presenta la variable Y a sus diferentes niveles.

B. Análisis preliminar de los datos: Se trata de obtener y analizar los diagramas de dispersión (valores máximos y mínimos, media aritmética, mediana, moda y desviación típica) para detectar posibles outliers o variables altamente dispersas que puedan ocasionar problemas.

C. Cálculo de estimaciones: La obtención de estimaciones de los parámetros poblacionales es precisamente el objetivo de la investigación.

D. Cálculo de errores de muestreo: Antes de sacar conclusiones definitivas con las estimaciones, debe procederse a estudiar su fiabilidad calculando los errores muestrales (o desviaciones típicas de los estimadores empleados) para cada variable por separado y teniendo en cuenta el diseño de la muestra.

Entradas relacionadas: