enc_hipotesis.jpg

José Jorge Amigo Extremera

Sara Estévez García30/12/2011


3.1. Comprobación de hipótesis
3.2. Diseño Experimental
3.3. Análisis de datos
  • Técnicas habituales en el análisis de datos cuantitativos
  • Técnicas habituales en la representación de datos cualitativos
  • Recursos informáticos para realizar nuestros propios análsis de datos
3.4. Conclusiones


3.1. Comprobación de hipótesis

Esencialmente un trabajo de investigación parte (léase «debe partir») de una declaración que le sirve de base y que llegaremos a confirmar o no al término de nuestro viaje. La necesidad de probar nuestra hipótesis de partida nos conduce irremediablemente a recurrir a su principal instrumento: la variable.

La variable es una de las bases del trabajo de investigación. Todas las tesis doctorales tienen al menos una variable, la variable dependiente, que coincide con el tema de la investigación. Pero en muchas ocasiones, el investigador quiere saber lo que ocurre con el fenómeno estudiado y ciertas variables lingüísticas y extralingüísticas, generalmente demosociales. Estas son, para López (1994:26) las variables independientes.

Según Rasinger (2008:31), una hipótesis es una declaración sobre el potencial y/o la supuesta relación entre, al menos, dos variables. Por ejemplo, en el contexto de una investigación en lingüística aplicada, podríamos afirmar lo siguiente:

  • A mayor edad del aprendiz, menor es el número de palabras malsonantes utilizadas (dos variables).
  • La edad y el género influyen en el uso de la lengua (tres variables).

La forma en la que crucemos las variables dará lugar a un determinado diseño experimental de nuestro trabajo, que se validará con la confirmación/reprobación de las hipótesis de partida. Dicho proceso está estrechamente ligado con cinco características clave que pasamos a resumir a continuación (López 1994: 28-29):

    1. Deben ser conceptualmente claras, sin presentar ningún tipo de ambigüedad.
    2. Deben tener referentes empíricos, quedando excluidos los juicios morales o cualquier otro tipo de valoración.
    3. Deben ser específicas, carentes de grandiosidades, aunque si son demasiado amplias, pueden producirse subhipótesis aclaratorias.
    4. Deben estar relacionada con técnicas disponibles.
    5. Deben estar relacionadas con un marco teórico aceptado y respetado.

Siguiendo estas características, es muy importante que nuestra hipótesis esté bien definida para poder comprobar su validez. Para ello, debe aunar dos características principales: a) ser falsable y b) no ser tautológica. En otras palabras: una buena hipótesis nos ofrece la posibilidad de ponerla a prueba, de ser desmentida y, por supuesto, no ha de caer en el vicio inútil de la repetición. Por ejemplo, la aserción «la edad puede o no puede influir en el uso del lenguaje» es completamente tautológica: independientemente de los resultados que obtengamos, siempre es cierta. Una buena hipótesis debe siempre dejar puerta abierta a la posibilidad de ser incorrecta (Rasinger 2008:31).

Como vemos, una tesis doctoral debe partir de una hipótesis específica. De hecho, cuánto más lo sea, más fácil y fructífero será trabajar con ella. Además, si nos planteamos usar una metodología cuantitativa, es de gran importancia relacionarla con algo que realmente podamos medir. Rasinger (2008:32) propone dos ejemplos problemáticos:

  • A los estudiantes les gusta aprender en grupos.
  • La utilización de recursos electrónicos en el aula de lenguas extranjeras es mejor que los libros de texto tradicionales.

Ambas afirmaciones son válidas y, de hecho, podrían resultar en proyectos de investigación de interés. El problema está en el nivel de detalle y en su susceptibilidad de ser medidas. La primera plantea serios conflictos: ¿qué perfil tiene el estudiante? ¿un alumno de secundaria, un alumno que aprende inglés para su desarrollo profesional, un universitario en la Escuela Oficial de Idiomas? ¿Qué edad tiene? ¿Cuál es su bagaje cultural, su formación, etc? Tampoco se especifica la muestra con la que vamos a trabajar o qué se entiende por «les gusta». ¿Cómo se puede medir esto? ¿Prefieren trabajar en grupo a trabajar en solitario? ¿O a trabajar en parejas? ¿Cuál es el grado de satisfacción de esta preferencia? ¿Cuántos alumnos tiene cada grupo? ¿Qué es lo que «se aprende»? ¿Vocabulario, gramática, técnicas de expresión escrita?

Como vemos, surgen demasiadas preguntas a partir de hipótesis demasiado genéricas. Para solucionar esto, el investigador tiene la obligación de afinar bastante más. Proponemos pues la siguiente reformulación:

  • Los niños nativos de inglés del primer curso de primaria prefieren trabajar en grupos de tres cuando se les enseña vocabulario en la clase de español.

Ahora nuestra hipótesis está mejor definida, puede medirse con una muestra cuantificable y, además, es falsable: podemos comprobar si es cierta o no. Siguiendo esta línea de razonamiento, la segunda es bastante mejorable. El investigador debe definir de qué recursos electrónicos habla (webquests, páginas web, diccionarios), a qué estudiantes es aplicable y, sobre todo, en qué factores las nuevas tecnologías superan a los medios «tradicionales».

Hasta este punto, hemos estado hablando de hipótesis conceptuales que hemos desgranado poco a poco para formular hipótesis operativas (es decir, aquellas en las que se concretan las variables de estudio que se utilizan). En algunos casos, se puede hablar también de hipótesis estadísticas (Tójar & Matas, en Pantoja 2009:130). Estas hipótesis se refieren a casos particulares sobre los cuales se realiza un análisis estadístico que se representa en su correspondiente expresión matemática. Estos autores distinguen entre hipótesis nula e hipótesis alternativa:
La hipótesis nula es la que se somete a prueba, la que se rechaza o no en función del resultado de un análisis estadístico. Esta hipótesis se expresa siempre en forma de igualdad (a=b). La hipótesis alternativa, por su parte, no se contrasta, pero conviene tenerla en cuenta porque de rechazar la nula se convierte en una consecuencia plausible.
(Tójar & Matas, en Pantoja 2009:130)
Una vez el investigador decide claramente qué tipo de hipótesis va a ser el eje de su trabajo, impera un diseño de la investigación en el que la comprobación de hipótesis se convierte en la base fundamental para la elaboración de los resultados y la discusión del trabajo científico. Esta comprobación depende de varios factores, aunque hay uno que es fundamental: su grado de especifidad.

El trabajo con variables dependientes (es decir, aquellos de carácter descriptivo o revisionista) suelen tener un carácter muy general: simplemente se trata de corroborar la existencia de algún patrón de comportamiento lingüístico. Por su parte, el trabajo con variables independientes obliga al investigador a comprobar hipótesis más específicas, dado que aquí se trata de establecer relaciones de algún tipo entre clases de variables (López 1994:169).

Un experimento bien diseñado puede comprobarse con un diseño estadístico modesto que aporte datos contrastivos o, dependiendo de la viabilidad y de los recursos disponibles, se pueden utilizar mejores estrategias que nos ayuden a realizar conclusiones más fiables sobre los resultados obtenidos. El diseño estadístico es especialmente aplicable en las investigaciones lingüísticas de campo, en el que los estudios cuantitativos son cada vez más frecuentes y necesarios. En ocasiones, las investigaciones en lingüística han de recurrir a aparatos estadísticos más complejos para verificar las hipótesis, y en este caso es cuando se puede recurrir a la estadística inferencial (cuyas técnicas de muestreo nos permite obtener generalizaciones estadísticas sobre una población determinada a partir del estudio de las características de una muestra extraída de una población o universo, López Maestre 1997:715) e incluso a áreas más innovadoras e inexploradas, como la lingüística computacional (Grammar Engineering, Bender 2011: en prensa).

3.2. Diseño experimental


El diseño experimental se ha descrito como una combinación de los conceptos de «constancia», «comparación», «aleatorización» y «control» (Spector 1993 ápud Balluerka & Vergara 2002:8). En los diseños experimentales, algunas variables se comparan entre sí, mientras que otras se mantienen constantes y permiten una mayor variación. En el caso de la lingüística, generalmente se trata de formular un modelo o hipótesis sobre un evento lingüístico y hacer deducciones sobre el tipo de consecuencias previstas por el modelo. Tras esto, se realizan experimentos que prueben o nieguen la base empírica y la validez de las hipótesis formuladas. En definitiva, se trata de investigar relaciones de causa y efecto entre variables. Normalmente, los participantes son agrupados basándose en algún criterio determinado denominado variable de tratamiento (Salkind 1998:13).Según Balluerka & Vergara (2002:8-9), un diseño experimental típico posee dos características principales: (1) el control o manipulación activa de una o más variables independientes y (2) la utilización de una regla de asignación aleatoria para asignar a los sujetos a las condiciones del tratamiento o, en el caso de tener solamente un sujeto, para aplicar las distintas condiciones.

El control o manipulación activa de las variables supone dar al experimentador un papel activo en la formulación del experimento, mientras que la segunda característica se centra en posibilitar que la variable de la asignación no tenga relación con ninguna otra para garantizar la eficacia y el éxito de los experimentos. Por ejemplo, supongamos que queremos comparar los efectos de dos metodologías distintas para la enseñanza de español como lengua extranjera en adultos de habla inglesa con nivel intermedio de conocimiento. Una de ellas incluye la repetición breve de secuencias fonéticas, la otra no. Una vez que se han asignado los distintos grupos y que han terminado las clases, nos interesará discernir las diferencias entre ambos con respecto a la efectividad del modelo utilizado. Dado que quien determina la asignación a grupos es el investigador, será él (o ella) quien controla totalmente a qué se exponen los grupos de estudio.

Como bien indica el grupo PACTE (2001:43) en el ámbito de la traductología empírica, el mayor problema al que nos enfrentamos en la investigación experimental está en la selección de la muestra y de los instrumentos de medición, puesto que es difícil controlar todas las variables que incurren en un estudio de este tipo. Esto es aplicable a todo tipo de investigaciones en lingüística que buscan una justificación empírica de sus hallazgos. De ahí el actual auge de los estudios de corte cuantitativo y la exigencia de un capítulo de metodología aplicada y estadísticamente comprobable en las tesis doctorales centradas en el estudio del lenguaje en cualquiera de sus vertientes (lingüística aplicada, traductología, docecia de lenguas, etc.).

La investigación experimental suele compararse con la cuasiexperimental, en la que el investigador no tiene el control total sobre el criterio adoptado para asignar participantes a grupos. Es el caso de una investigación sobre sociología del lenguaje, en el que se tienen que agrupar a los participantes en función a criterios socioeconómicos (por ejemplo, investigar el rendimiento de alumnos con padres desempleados en comparación con los que proceden de familias con cierta estabilidad laboral). En este caso, el criterio de separación ya viene dado y el investigador no puede manipularlo de ningún modo.

3.3. Análisis de datos

El análisis de datos es un proceso vinculado a su interpretación (Worthen y Sanders, 1987 ápud Olmedo y Buendía 2009:163), en el que se entrelazan valores asumidos por los investigadores y patrones de comparación, que permiten elaborar conclusiones, emitir juicios y realizar recomendaciones. Así, el análisis e interpretación de datos abarca amplios y complejos procesos en los que se hace necesaria la delimitación de perspectivas, que con cierto enraizamiento epistemológico, orienten a cada una de las fases, muestren las técnicas más adecuadas de recogida de datos y aclaren los procedimientos concretos para su aplicación.

Esta fase tiene un carácter teórico-práctico. En ella se incluyen las etapas en las que hay que diseñar el plan de análisis de datos más apropiado al problema e hipótesis/objetivos planteados, la obtención de los datos y su análisis, la comprobación de las hipótesis o la descripción de los resultados de los objetivos.

La información obtenida a partir de los instrumentos de recogida de datos va a condicionar las técnicas de análisis de datos que serán empleadas en la investigación. A la hora de plasmar esta información el investigador tiene dos modos de hacerlo: de forma numérica o a través de palabras, en forma de texto o narrativa. Por tanto, podemos encontrarnos con dos tipos de datos: datos categóricos y datos cuantitativos.

Los datos cuantitativos se obtienen cuando las variables estudiadas se miden a lo largo de una escala que indica la cantidad presente de la variable medida. Su representación se hace en forma numérica. En investigación tenemos numerosos ejemplos de este tipo de datos: puntuaciones en un test, valores de rendimiento, respuestas a una escala de estimación numérica, etc.

Los datos categóricos o cualitativos expresan cuántos elementos puede haber dentro de una determinada categoría. La forma de representarlos es a través de frecuencias o porcentajes. Los datos categóricos expresan el número de objetos, elementos, individuos, acontecimientos, opiniones, etc., dentro de una categoría determinada. El investigador puede informar del número o porcentaje de sujetos que cumplen una determinada condición, de la frecuencia o el porcentaje de sujetos que expresan una respuesta a un cuestionario, etc.

El análisis estadístico se asocia normalmente a la investigación cuantitativa, especialmente con la investigación de corte experimental, quasi-experimental, tipo encuesta, etc. En cambio, el análisis en la investigación cualitativa descansa más en la inducción y en la descripción.

La elección de la técnica de análisis más apropiada va a depender de dos aspectos: primero, de qué tipo de datos disponemos y, segundo, qué tipo de análisis es el apropiado para los objetivos o las hipótesis.

Técnicas habituales en el análisis de datos cuantitativos

Como hemos dicho anteriormente, cuando estamos ante datos de tipo cuantitativo, las técnicas más empleadas para el análisis de datos proceden de la estadística.

En este sentido, la estadística se divide en estadística descriptiva y estadística inferencial.

La estadística descriptiva se encarga de presentar los datos codificados mediante una escala nominal, ordinal, de intervalo o de razón. Estos datos se agrupan en distribuciones de frecuencias, y se expresan gráfica y numéricamente mediante diversas medidas de posición, dispersión, forma, relación, etc.

La estadística inferencial establece diferencias sobre poblaciones, a partir de los resultados obtenidos en las muestras, con procedimientos para la estimación de parámetros y para el contraste de hipótesis estadísticas mediante el uso de las distribuciones muestrales.

En ambos tipos se establecen distinciones adicionales en función del número de variables: estadística univariada, bivariada y multivariada.

A su vez, los procedimientos inferenciales se dividen en paramétricos y no paramétricos en función de que los datos que se vayan a utilizar cumplan, o no, unos requisitos acerca de la población de la que se extrajo la muestra de estudio. Estos requisitos son: la homocedasticidad, la normalidad y la homogeneidad.

Técnicas habituales en la representación de datos cualitativos

El análisis de datos cualitativo ha generado técnicas propias que se han constituido en una metodología o “forma específica de hacer” diferenciada (Colás, 1998, citado por Olmedo y Buendía, 2008:172). Esta especificidad viene marcada por la propia idiosincrasia de la metodología cualitativa, en relación con las unidades de registro de datos y a la forma de tratarlos.

Este tipo de análisis maneja datos que hacen referencia a cualquier forma de expresividad humana, aunque usualmente se presentan en forma de texto. Y no se encuentra delimitado a una fase concreta de la investigación, como los análisis cuantitativos, sino por ciclos.

En general, los datos verbales o escritos se segmentan en unidades relevantes significativas, son categorizados en un sistema abierto y derivado de la propia lectura de los datos. Por medio de un proceso de comparación constante se sintetizan las informaciones e intenta descubrir patrones, que en última instancia permiten generar una teoría. Esta funcionalidad, le otorga al análisis de datos cualitativo tres actividades intelectuales: procesos de generación teórica, procesos de contrastación de hipótesis/teorías y procesos analíticos manipulativos.

En el proceso de análisis de datos cualitativos se pueden distinguir tres fases (Huber y Gürtler, 2004 ápud Olmedo y Buendía 2008:174):

  • Reducción de la base de datos al original.
  • Reconstrucción de vínculos o estructuras.
  • Comparación de resultados y casos.

La primera fase de análisis cualitativo se caracteriza por reducir la gran cantidad de datos, además de ir identificando extractos de texto, vídeo o sonido que sean significativos para el tópico de investigación.

Durante la segunda fase o reconstrucción, los investigadores intentan rehacer el sistema de significados de quien ha escrito un diario, ha observado, entrevistado o encuestado a partir de las unidades de significado seleccionadas.

En la fase de comparación de resultados, los investigadores intentan inferir invariantes o comunalidades generales comparando los sistemas individuales de significados (Ragin, 1987, citado por Olmedo y Buendía 2008:176).

Recursos informáticos para realizar nuestros propios análisis de datos

Aplicaciones de la informática al análisis de datos cuantitativos

En la actualidad, casi todos los análisis estadísticos se realizan por ordenador, mediante programas especialmente diseñados para ello. Son varios los paquetes estadísticos disponibles en el mercado, entre los que podemos destacar por su empleo en la investigación los siguientes: LISREL 8.8, HLM 6, SYSTAT y SPSS16.
Aplicaciones de la informática al análisis de datos cualitativos

Para los investigadores cualitativos se recomienda el uso de los siguientes programas: ETHNOGRAPH 5, AQUAD 6, kwalitan 5, NUDIST Vivo o QSR NVivo, ATLAS.ti 6, MAXqda 2007, MECA, QUALOG, TAP, etc.

3.4. Conclusiones


Las conclusiones de un trabajo son una sección o capítulo final, de reducidas dimensiones, donde el autor trata de sintetizar todo lo hasta allí expuesto de modo tal que resulten destacados los aspectos más importantes del desarrollo anterior (Sabino, 1986:46).

Según Soriano (2008:114), las conclusiones deben reunir las siguientes características: a) pertinencia con el trabajo realizado; b) ordenación lógica, y c) claridad y concisión expositiva.

a) El último capítulo de la tesis debe ser una relación de los hallazgos del investigador, ya anticipados en los capítulos anteriores; las conclusiones no deben aportar algo nuevo no anticipado en los capítulos anteriores, puesto que son conclusiones de una investigación ya acabada. Pueden avanzar futuras investigaciones y esbozar los cauces a seguir e incluso anticipar posibles resultados de estos trabajos futuros, pero siempre a continuación de una exposición de los resultados obtenidos en la tesis, objeto principal de las conclusiones.

b) Es conveniente que las conclusiones sigan el desarrollo de los capítulos de la tesis, al menos de aquellos capítulos de los que quepa extraerlas. Un buen criterio es el de sintetizar en una frase cada conclusión después de las rúbricas antes de pasar a su desarrollo. También se recomienda concluir las conclusiones, es decir, sintetizar las obtenidas después de haber sido expuestas ordenadamente o destacar las más importantes, a modo de colofón del capítulo.

c) Las conclusiones no forman un capítulo más o un capítulo lateral de tesis, sino un capítulo de síntesis, en el que se ofrecen con claridad expositiva y sin documentación ni aparato bibliográfico los hallazgos del trabajo. Claridad y concisión son las notas adecuadas para un buen texto de conclusiones.

Por lo demás, las conclusiones deben contener los siguientes puntos convencionales:

a) El significado y la relevancia del trabajo mediante la explicación de lo que aporta al progreso del conocimiento. Si la introducción del trabajo incluye la hipótesis a verificar, las conclusiones deberían contener la respuesta a las mismas.

b) La inserción de los resultados con otras investigaciones afines: a cuáles ratifica, con cuáles está en desacuerdo. Una tesis siempre tiene un grado revisionista que conviene poner de manifiesto.

c) Las líneas de futuras investigaciones que ha desbrozado el trabajo. Toda investigación es un punto de llegada y un punto de partida. Es respuesta y es pregunta.

d) El alcance de la investigación: hasta qué punto pueden generalizarse los resultados; si valen para otros lugares y otras épocas.


Referencias
Balluerka, Nekane & Vergara, Ana Isabel. 2002. Diseños de Investigación Experimental en Psicología. Madrid: Pearson.

Bender, Emily M. [2011, en prensa] Grammar Engineering for Linguistic Hypothesis Testing. Proceedings of TLS. [Última consulta, 30 de diciembre de 2011]

Colás Bravo, María Pilar et al. 2009. Competencias científicas para la realización de una Tesis Doctoral. Guía metodológica de elaboración y presentación. Barcelona: Davinci.

López Maestre, María Dolores. 1997. "Importancia de la recogida de muestras representativas en la investigación lingüística de corpus. Un caso práctico: análisis de los titulares del periódico The Times durante el periodo 1970-1990". En José Luis Otal, Inmaculada Fortanet & Victòria Codina (eds.). Estudios de Lingüística Aplicada. Castellón: Universidad Jaume I. 713-718.

López Morales, H. 1994. Métodos de Investigación Lingüística. Salamanca: Ediciones Colegio de España (ECE)

PACTE (Grupo de Investigación “Proceso de Adquisición de la Competencia Traductora y Evaluación”). 2001. La competencia traductora y su adquisición. Quaderns, Revista de Traducció 39-45. [Última consulta, 30 de diciembre de 2011]

Pantoja Vallejo, A. (coord.) 2009. Manual básico para la realización de tesinas, tesis y trabajos de investigación. Madrid: Editorial EOS.

Rasinger, S. 2008. Quantitative Research in Linguistics. An Introduction. Londres: Continuum International Publishing Group.

Sabino, Carlos A. 1986. Cómo hacer una tesis: guía para elaborar y redactar trabajos científicos. Buenos Aires: Humanitas.

Salkind, Neil J. 1998. Métodos de investigación. México: Prentice Hall.

Soriano, Ramón. 2008. Cómo se escribe una tesis: guía práctica para estudiantes e investigadores. Córdoba: Berenice.

computer_working.jpg