Blog, recolección y codificación de datos
Elkin Franco Suárez Cod: 852788
Especialización en Gerencia de
Proyectos, Corporación Universitaria Minutos de Dios
Investigación II, Semana 2
Jairo Armando Paez Ricardo
06 de noviembre de 2022
Blog, recolección y codificación de datos
Elkin Franco Suárez Cod: 852788
Especialización en Gerencia de
Proyectos, Corporación Universitaria Minutos de Dios
Investigación II, Semana 2
Jairo Armando Paez Ricardo
06 de noviembre de 2022
La recolección de datos se refiere al enfoque sistemático de reunir y medir información de diversas fuentes a fin de obtener un panorama completo y preciso de una zona de interés.
La recopilación de
datos permite a un individuo o empresa responder a preguntas relevantes,
evaluar los resultados y anticipar mejor las probabilidades y tendencias
futuras.
La exactitud en la
reunión de datos es esencial para garantizar la integridad de un estudio, las
decisiones comerciales acertadas y la garantía de calidad.
¿Cómo realizar una
recolección de datos correctamente?
Existen diferentes
métodos y técnicas de recolección de datos que te pueden ser de utilidad. La
elección del método depende de la estrategia, el tipo de variable, la precisión
deseada, el punto de recolección y las habilidades del encuestador.
La entrevista para
investigación
Las entrevistas es uno
de los métodos más comunes. Si te decides a hacerla, pon especial atención en
las preguntas que realizarás, que también dependen de si harás una entrevista
cara a cara, vía telefónica e incluso si es por correo electrónico.
Toma en cuenta que por
lo regular se necesitan más recursos, tanto económicos, como de personal para
la realización de entrevistas. Sobre todo si decides realizar entrevistas en
campo, o vía telefónica.
Entrevistas
telefónicas
Las entrevistas
telefónicas permiten que los investigadores recolectan más información en una
menor cantidad de tiempo y ahorrando en gastos como el traslado y el material
de las encuestas. Una ventaja de esta herramienta es que los participantes se
sienten más confiados al momento de contestar porque no están siendo
observados.
Entre las ventajas de
esta herramienta se encuentra el gran alcance que tiene y la fácil
administración de los datos obtenidos. Sin embargo, en muchas ocasiones, el
investigador no tiene el control de la entrevista, además, debe procurar que
sea un proceso corto para que no provoque que el participante no lo
abandone.
El cuestionario para
la recolección de datos
Los cuestionarios son
una herramienta útil para la recolección de datos. Para obtener los resultados
esperados, es necesario que se realicen cuidadosamente. Es por eso que antes de
redactarlo, es importante que el investigador defina los objetivos de su
investigación.
Existen dos formatos
de cuestionarios: los cuestionarios abiertos, los cuales se aplican cuando se
quiere conocer la opinión de las personas, sus experiencias y sentimientos
sobre un tema específico.
En cambio, en el
cuestionario cerrado los investigadores tienen el control de lo que preguntan y
desean saber, lo que puede provocar que la respuesta de los participantes esté
forzadas y limitadas.
Encuestas online para
la recolección de datos
Hacer recolección de
datos a través de encuestas online tiene grandes ventajas. Tienes al alcance
diversos tipos de preguntas, el uso de variables personalizadas y lógicas que
te permiten obtener mejores resultados y te ayudan a conocer a profundidad a
tus clientes.
Considera también que
el hacer recolección de datos a través de encuestas online, tiene un costo
menor que, por ejemplo, hacerlo a través de entrevistas presenciales, sin
olvidar que puedes tener tus resultados en menor tiempo, en lugar de días,
semanas, e incluso meses que es el tiempo que se podría llevar una recolección
de datos a través de entrevistas o el método de observación.
Realiza un focus group
Un focus group es una
forma de estudio cualitativo que consiste en realizar una reunión donde las
personas puedan dialogar o resolver un tema establecido. Este tipo de debate
ayuda a generar ideas opiniones actitudes que no se pueden observar con otro
método de recolección de datos.
Con este método se
puede obtener grandes cantidades de información, ya que los participantes se
sienten confianza para dar su opinión y ofrecer respuestas honestas y
exactas.
Paneles online para la
recolección de datos
Los paneles online son
una herramienta que permite recolectar datos a través de personas altamente
profesionales y calificadas. Una de las ventajas de este método es que los
participantes darán respuestas específicas y claras.
Algunas de las ventajas
de utilizar paneles online son su facilidad para acceder a los canales y
obtener información directa del público objetivo. Además, es un método de
investigación muy económico que permite obtener información de calidad.
Toma decisiones
correctas en base a los datos obtenidos
Independientemente del
método que decidas usar para recolectar los datos, es importante que exista una
comunicación directa con los tomadores de decisiones. Que ellos entiendan y se
comprometan a actuar de acorde a los resultados.
Por ello debemos poner
especial atención al análisis y presentación de la información obtenida.
Recuerda que estos datos deben sernos útiles y funcionales, por lo que el
método para la recolección de datos que se utilice tiene mucho que ver.
La conclusión que
obtengas de tu investigación marcará el rumbo de la toma de decisiones de la
empresa, así que presenta tu reporte de manera clara, enumera los pasos que
seguiste para la obtención de esos resultados.
Esta parte del proceso de investigación consiste en procesar los datos (dispersos, desordenados, individuales) obtenidos de la población objeto de estudio durante el trabajo de campo. Tiene como finalidad generar resultados (datos agrupados y ordenados), a partir de los cuales se realizará el análisis según los objetivos y las hipótesis o preguntas de la investigación realizada, o ambos.
El procesamiento de datos debe
realizarse mediante la asesoría de expertos en estadística y el uso adecuado de
herramientas; por ejemplo, algún programa de estadística al que se pueda
acceder y esté disponible para trabajar en el computador.
Pasos para el
procesamiento de datos
Para efectuar el procesamiento de
datos se deben seguir los siguientes pasos:
1. Obtener la información
de la población o muestra objeto de la investigación.
2. Definir las variables o
los criterios para ordenar los datos obtenidos en el trabajo de campo.
3. Definir las
herramientas estadísticas y el programa de cómputo que va a utilizarse en el procesamiento
de datos.
4. Introducir los datos en
el computador y activar el programa para procesar la información.
Es pertinente reiterar que un aspecto fundamental en el proceso de investigación es obtener la información necesaria para dar respuesta a las preguntas de investigación.
Lograr los objetivos y probar las
hipótesis originadas en el problema objeto de la investigación, que se expone
en el documento del anteproyecto. De la pertinencia y calidad de la información
que se obtenga en el trabajo de campo del estudio dependen la confiabilidad y
validez de los resultados, así como de la investigación en general.
En este sentido, para obtener
información confiable y válida se requiere cuidado y dedicación ya que los
datos que se obtengan deben ser confiables; es decir, deben ser pertinentes y
suficientes, para lo cual es imprescindible haber definido las fuentes y
técnicas adecuadas para su recolección.
El procesamiento de resultados puede efectuarse mediante:
Análisis de Pareto: técnica para
estudiar fuentes de problemas y las prioridades relativas de sus causas. Se
emplea frecuentemente para evaluar causas de problemas de calidad en programas
de Total Quality Management (TQM).
Diagrama de
causa/efecto (espina de pescado): gráfica mediante la cual los
miembros de un equipo representan, categorizan y evalúan los posibles motivos
de un resultado o una reacción; por lo general, se expresa como un problema
para resolver. Se le conoce como diagrama de Ishikaw (Hellriegel & Slocon,
2010).
Gráficas de
control: se utilizan para hacer control de calidad de procesos: según Levin
&Rubin (1996), “estas gráficas también se conocen con el nombre de
diagramas de control y son de varios tipos” (p.179).
Diagramas X o
diagramas de control para medidas de procesos.
Diagramas R o
diagramas de control para variabilidad de procesos.
Diagramas p o
diagramas de control para atributos.
Distribución de
frecuencias y representaciones gráficas: una distribución de frecuencias
indica el número de veces que ocurre cada valor o dato en una tabla de
resultados de un trabajo de campo.
Histogramas: son medios gráficos
para representar la distribución de frecuencias.
Polígonos de
frecuencia: al igual que el histograma, son gráficas que permiten obtener una
imagen rápida de las principales características de los datos de una
distribución de frecuencias.
Gráficas de barras
o pie (pastel): son formas distintas de representar los datos de una
investigación.
Medidas de
tendencia central
Media: sumatoria de
un conjunto de puntajes dividida por el número total de estos.
Moda: puntaje que
se presenta con mayor frecuencia en una distribución de datos.
Mediana: valor que
divide a una distribución de frecuencias por la mitad, una vez ordenados los
datos de manera ascendente o descendente.
Medidas de
dispersión
Varianza: suma de las
desviaciones de la media elevadas al cuadrado, dividida entre el número de
observaciones menos uno.
Desviaciones
estándares: cantidad promedio en que cada uno de los puntajes individuales
varía respecto a la media del conjunto de puntajes.
Pruebas
estadísticas
Prueba t de
Student: estadístico de prueba que se utiliza cuando las poblaciones son
pequeñas (n ≤ 30).
Prueba Z: prueba de
distribución normal, que tiene que ver con la probabilidad de que un puntaje
dado de una medición aparezca en una distribución.
Análisis de
varianza: prueba estadística para analizar si más de dos grupos difieren
significativamente entre sí, en cuanto a sus medidas y varianzas.
Análisis de
covarianza: prueba que se usa para analizar la existencia o no de relación
entre una variable dependiente y dos o más independientes.
Chi cuadrado: prueba
estadística que permite probar si más de dos pro-porciones de población pueden
considerarse iguales; o, en otras palabras, permite probar si esas proporciones
no presentan diferencias significativas.
Análisis de
regresión y correlación: el análisis de regresión tiene como objetivo
analizar la relación funcional entre dos o más variables y el análisis de
correlación analiza el grado de asociación entre variables.
Análisis de
regresión múltiple: analiza la posible relación entre variables inde-pendientes y
variables dependientes.
Análisis factorial: analiza la
estructura de las interrelaciones entre varias variables sin condicionar la
distinción entre variables dependientes e independientes.
Análisis
multivariado de varianza (Manova): método del análisis de la
varianza univariante cuando se tiene la presencia de varias variables
dependientes, cuyo objetivo es contrastar la significación de una o más
variables independientes (denominadas factores) para el conjunto de variables
independientes.
Distribución de frecuencias
Una distribución de frecuencias es un
conjunto de puntuaciones presentadas en un cuadro de manera ordenada, según
características definidas por el investigador.
Medidas de
tendencia central
Las medidas de tendencia central son
cantidades típicas o representativas de un conjunto de datos; las principales
medidas son: moda, mediana, y media o promedio.
La moda es la
categoría o puntuación que ocurre con mayor frecuencia en un registro de datos.
Compilado con fines docentes
Dra. Claudia Wong
de Liu
Los estándares éticos más altos deben
ser respetados al recolectar, procesar y analizar los datos y el plan de
investigación debe describir las medidas que se tomarán para proteger a los
participantes involucrados, quienes han otorgado datos o muestras como
información concerniente a ellos.
A veces, la forma y la intención
detrás de la manipulación de los datos van más allá de un descuido, negligencia
o imprudencia; se trata, entonces, de forma intencional de un fraude.
El fraude
científico, que se puede presentar de diversas formas:
• La falsificación y
manipulación de datos, que consiste en proporcionar datos o métodos falsos
dentro de un estudio.
• La invención, en
la que los autores "fabrican " la totalidad o parte de los datos de
un estudio para la publicación.
La investigación no siempre implica
la recopilación de datos de los participantes. Hay una enorme cantidad de datos
que se están recopilando a través del sistema de información de gestión de
rutina y otras encuestas o actividades de investigación.
Análisis de datos
secundarios
El análisis secundario se refiere al
uso de datos de investigación existentes para encontrar una respuesta a una
pregunta que era diferente de la obra original. Los datos secundarios pueden
ser encuestas a gran escala o datos recogidos como parte de la investigación
personal.
Problemas en el análisis de
datos secundarios
Las preocupaciones sobre el uso
secundario de los datos giran en su mayoría en torno a posibles daños a los
sujetos individuales y la emisión de la vuelta para el consentimiento. Los
datos secundarios varían en términos de la cantidad de información de
identificación en ella. Si los datos no tienen información de identificación o
están completamente desprovistos de esa información o están debidamente
codificados para que el investigador no tenga acceso a los códigos, entonces no
requiere una revisión completa por el consejo ético.
Si los datos están disponibles gratuitamente en Internet, libros u otros foros públicos, está implícito el permiso para su uso y análisis. Sin embargo, debe reconocerse la propiedad de los datos originales.
BIOBANCOS
La recogida y almacenamiento de
material biológico humano y de información asociada es un hecho histórico en
Medicina, pero el concepto de biobanco es muy reciente. El advenimiento de
nuevas tecnologías que permiten almacenar todo tipo de muestras incluyendo
células que pueden permanecer vivas fuera del cuerpo humano por tiempo
indefinido y obtener información científica de toda índole, incluso la
información genética, ha abierto un universo de posibilidades para la
investigación –Biobanco-.
Tanto la recogida de muestras biológicas para
investigación como la creación de un biobanco deben estar supervisados por un
comité de ética multidisciplinar independiente.
Blog, recolección y codificación de datos Elkin Franco Suárez Cod: 852788 Especialización en Gerencia de Proyectos, Corporació...